Risiken und Grenzen von KI in der Weiterbildung

Autor

Mathias Chastonay

Datum

19. November 2025

Wie oft nutzen Sie KI, um Texte zu überarbeiten oder Ideen zu entwickeln? Ohne Frage, solche Tools stellen eine grossartige Unterstützung dar. Damit der technologische Fortschritt aber nicht zum kognitiven und gesellschaftlichen Rückschritt wird, lohnt sich ein genauer Blick auf die Risiken und Grenzen.

Dieser Beitrag ist Teil unserer Fachartikel-Serie für Haufe. In der Serie «Lernen im KI-Zeitalter» beleuchten wir, wie Künstliche Intelligenz die betriebliche Bildung verändert, zeigen Chancen und Risiken für Unternehmen auf und wie Sie KI gezielt in Ihre Weiterbildung einbinden. Dieser zweite Teil erklärt kompakt, welche Risiken beim Einsatz von KI in der betrieblichen Bildung entstehen und wo Vorsicht geboten ist.
Den vollständigen Artikel bei Haufe lesen.

Die Begeisterung über die Möglichkeiten von künstlicher Intelligenz ist gross. Vor allem mit der jüngsten Evolutionsstufe, der generativen KI. Sie erzeugt eigenständig neue Inhalte wie Texte, Bilder oder Videos und kommuniziert dabei erstaunlich menschlich. Während sie unseren Arbeitsalltag revolutioniert, zeigen jedoch immer mehr Studien problematische Auswirkungen auf.

Macht KI uns dumm?

Wir überlassen das Denken immer mehr der Maschine. Als ChatGPT kürzlich mehrere Stunden offline war, zeigte sich das drastisch: Viele fühlten sich plötzlich handlungsunfähig. Wie soll ich jetzt nur dieses wichtige E-Mail schreiben? Wie meine Präsentation erstellen? Statt zu reflektieren, tippen wir lieber Prompts. Statt zu verstehen, übernehmen wir Inhalte einfach. Kurz: Wir gewöhnen uns daran, das Denken auszulagern. Fachbegriffe hierfür sind «Kognitives Entladen» oder einfach Denkfaulheit. 

Eine Untersuchung des MIT Media Lab bestätigt, bei der Nutzung von Tools wie ChatGPT ist die Gehirnaktivität geringer als ohne Hilfsmittel. Andere Arbeiten zeigen, dass häufige KI-Nutzung zum «Overreliance-Effekt» führt: Menschen vertrauen KI-Sprachmodellen mehr als sich selbst. Und vergessen dabei, dass diese mitunter halluzinieren, also plausibel klingende, aber erfundene Antworten liefern. Es überrascht kaum, dass KI-Nutzung mit geringerem kritischen Denken korreliert, wie Studien von Microsoft und der Carnegie Mellon University zeigen. Ohne regelmäßige geistige Anstrengung lässt die Denkfähigkeit nach.
 

Verlernen wir, zu lernen?

Wie im letzten Kapitel angesprochen, war die Menge an verfügbaren Informationen noch nie so gross wie heute und Wissen noch nie so leicht zugänglich. Diese ständige Verfügbarkeit von Informationen senkt allerdings unsere Aufmerksamkeitsspanne, Lesekompetenz sowie Konzentrationsfähigkeit drastisch und verführt zum oberflächlichen Konsum: Wir überfliegen Informationen nur noch, statt sie richtig zu lesen und verstehen. Damit verlieren wir die wichtige Fähigkeit, uns mit komplexen Inhalten auseinanderzusetzen. 

Diese ist aber grundlegend, um zu lernen. Denn echte Expertise entsteht erst, wenn Wissen bewertet, verknüpft und in eigene Gedanken übersetzt wird. So zeigen mehrere Studien, dass Lernende mit KI-Unterstützung Inhalte weniger gut verankern und in Prüfungen schlechter abschneiden. Ein ähnliches Muster zeigte schon 2011 der «Google-Effekt»: Wenn Wissen jederzeit abrufbar ist, merken wir uns nicht die Information, sondern wo wir sie finden. Noch fehlen Langzeitdaten, doch bisherige Befunde deuten darauf hin, dass die Nutzung von KI aktives Lernen und Erinnern schwächt.

Wie viel Kontrolle geben wir der KI?

Stellen Sie sich vor, Ihr Unternehmen entwickelt Software und arbeitet dazu, wie heute üblich, mit KI. Damit diese unterstützen kann, muss sie den Quellcode kennen, also das wichtigste Geschäftsgeheimnis. Sobald aber KI Daten verarbeitet, können diese in Trainingsdaten oder nach aussen gelangen. Ein Beispiel dafür ist der Vorfall im Juli 2025, als private ChatGPT-Konversationen öffentlich wurden.

Und bei wem liegt das Urheberrecht, wenn KI besagten Quellcode generiert? Bei Ihrer Firma? Beim KI-Anbieter? Sagen wir, Ihre Firma stellt Flugsteuerungssoftware her, die durch einen KI-generierten Fehler zum Absturz führt. Wer trägt in dem Fall die Verantwortung? Solche Beispiele zeigen: KI entwickelt sich schneller als die Rechtsgrundlage. Das wird vor allem dann kritisch, wenn wir KI in Entscheidungsprozesse einbinden. Der EU AI-Act versucht, den sicheren Einsatz zu regeln. Sonst schützt derzeit nur ein Blick in die Bestimmungen der genutzten KI-Tools. 
 

Tappen wir in eine Abhängigkeitsfalle?

Viele KI-Tools sind derzeit noch scheinbar kostenlos nutzbar. (Tatsächlich zahlen wir mit unseren Daten, die zu Trainingszwecken verwendet werden.) Der einfache Zugang trieb die Verbreitung zusätzlich voran und wir haben uns längst daran gewöhnt, mit ihnen zu arbeiten. Diese zunehmende Abhängigkeit könnte uns langfristig teuer zu stehen kommen. Hinzu kommt: Laut einer aktuellen Bitkom-Studie nutzen 96 Prozent der deutschen Unternehmen digitale Dienste und Technologien aus dem Ausland. Damit befinden sich ihre Daten auf Servern, die womöglich anderen Datenschutzstandards unterliegen. 

Echte Wettbewerbsfähigkeit entsteht dort, wo Volkswirtschaften und Organisationen im digitalen Raum die eigene Handlungsfähigkeit bewahren und die Kontrolle über ihre Daten behalten. Was, wenn ein grosser Anbieter plötzlich die Preise verdoppelt oder neue Nutzungsbedingungen vorgibt? Von heute auf morgen können Prozesse stillstehen oder sensible Daten plötzlich in fremde Hände gelangen. Bei der Wahl von Anbietern digitaler Lernlösungen lohnt es sich daher, auf eine ISO-27001-Zertifizierung zu achten. Sie zeigt, dass das Unternehmen Informationssicherheit verlässlich umsetzt. 
 

Wie fair sind algorithmenbasierte Entscheidungen?

KI ist nie neutral. Sie lernt aus bestehenden Daten, oft aus Nutzerdaten, und damit auch aus deren Vorurteilen. Wenn bestimmte Gruppen in Trainingsdaten über- oder unterrepräsentiert sind, übernimmt KI diese Verzerrungen nicht nur, sie verstärkt sie oft noch. So entstehen Ergebnisse, die Diskriminierung reproduzieren, statt sie abzubauen. Etwa, wenn Bewerbungssysteme Namen bestimmter Herkunft schlechter bewerten, Versicherungsrechner für bestimmte Postleitzahlen höhere Prämien ansetzen oder bildgenerierende KI CEOs ausschliesslich als weisse Männer darstellen. 

Hinzu kommt die Intransparenz vieler Modelle. Ihre Entscheidungslogik bleibt eine Blackbox und für die meisten Anwendenden nicht nachvollziehbar. Wenn aber niemand erklären kann, wie ein Ergebnis zustande kam, lässt es sich weder prüfen noch verantworten. Und wo Erklärbarkeit fehlt, schwindet auch das Vertrauen – intern bei Mitarbeitenden ebenso wie extern bei Kundschaft oder Partner:innen. Das Aufkommen von KI-Agenten, die eigenständig Ziele formulieren und Massnahmen umsetzen können, verschärft dieses Problem.
 

Und was machen wir mit den neuen Freiräumen? 

Mehr vom Gleichen, nur weil wir jetzt doppelt so viele Kurse oder LinkedIn-Posts schreiben können wie zuvor, bringt uns nicht weiter. Gerade in betrieblichen Schulungen wollen Sie Ihre Lernenden nicht mit generischen Inhalten langweilen. Zudem machen wir uns so langfristig überflüssig. Wir müssen vielmehr lernen, KI die repetitiven Aufgaben zu übergeben und frei werdende Zeit dafür zu nutzen, was KI nicht kann: wahrhaft kreativ und konzeptionell arbeiten. Wie Sie KI gezielt ins L&D integrieren, erfahren Sie im nächsten Kapitel. 
 

Artikel bei Haufe lesen

Hinweis: Das Titelbild haben wir mit KI generiert

 

Chancen von KI für die betriebliche Bildung

Chancen von KI für die betriebliche Bildung

Die Bildungswelt steht vor einem Paradigmenwechsel: Künstliche Intelligenz verändert nicht nur den Zugang zu Wissen, sondern auch die Art, wie wir lernen. Richtig eingesetzt, wird KI zum Motor einer neuen Lernkultur: Sie macht aus Unternehmen eine lernende Organisation, in der Mensch und Maschine sich intelligent ergänzen. 

Zum Artikel
So entwickeln Sie eine KI-Strategie für eine zukunftsfähige Lernkultur

So entwickeln Sie eine KI-Strategie für eine zukunftsfähige Lernkultur

KI stellt Unternehmen vor Entscheidungen: Welche Prozesse profitieren von KI? Welche Tools erfüllen unsere Anforderungen? Welche Kompetenzen brauchen wir dafür? Das erfordert eine umfassende Strategie, die KI nicht nur als technologische Entwicklung begreift, sondern als Unterstützung, die den Menschen sinnvoll ergänzt.

Zum Artikel
Leitfaden: So bauen Sie KI-Kompetenzen im Unternehmen auf

Leitfaden: So bauen Sie KI-Kompetenzen im Unternehmen auf

Würden Sie jemandem ohne vorheriges Training Zugriff auf Ihr SAP-System geben? Oder einen Gabelstapler fahren lassen? Genau das tun viele Unternehmen gerade mit KI: Sie lassen ungeschulte Mitarbeitende damit arbeiten. Ohne Kompetenzaufbau riskieren Sie Fehlentscheidungen und Datenverluste. So machen Sie Ihre Teams fit für KI.

Zum Artikel