KI und Lernen - Symbolbild

Kann KI lernen – oder zeigt sie uns nur, was Lernen nicht ist?

Künstliche Intelligenz verändert gerade viele Bereiche unserer Arbeit und unseres Alltags. Auch das Lernen bleibt davon nicht unberührt.

Vor kurzem wurde eine App vorgestellt, deren Idee ebenso simpel wie irritierend ist: Ein KI-Agent übernimmt ein Studium.

Der Agent loggt sich in Lernplattformen ein, schaut Vorlesungen, liest Texte, beteiligt sich an Diskussionen in Foren und erledigt Assignments – autonom. Im Grunde simuliert er einen digitalen Studierenden, der sich durch ein komplettes Studium bewegt.

Technisch ist das beeindruckend. Gleichzeitig wirft es eine andere Frage auf: Was passiert mit Lernsystemen, wenn eine KI genau die Aktivitäten übernehmen kann, mit denen Lernen bisher nachgewiesen wurde?

Wenn Lernen kontrollierbar gemacht werden soll

Viele Lernsysteme – in Hochschulen genauso wie im Corporate Learning von Unternehmen – sind stark darauf ausgerichtet, Lernen kontrollierbar zu machen.

Wer hat das Video gesehen?
Wer hat wie lange geklickt?
Wer hat welche Aufgabe abgegeben?

Solche Mechanismen sind nachvollziehbar. Sie helfen, Lernprozesse zu organisieren und Fortschritte sichtbar zu machen.

Und doch verschiebt sich dabei etwas: Lernen wird zunehmend über Nachweise definiert.

Nicht unbedingt darüber, ob jemand ein Thema wirklich verstanden hat oder eine Fähigkeit entwickelt hat – sondern darüber, ob bestimmte Aktivitäten dokumentiert wurden.

Ein Blick auf Prüfungen

Eine Studentin erzählte mir kürzlich, dass Prüfungen an ihrer Universität teilweise als Multiple-Choice-Klausuren in einem separaten Prüfungsraum stattfinden.

Solche Formate sind effizient und skalierbar. Sie lassen sich leicht auswerten und ermöglichen es, große Gruppen zu prüfen.

Aber sie werfen auch eine grundsätzliche Frage auf: Fördern solche Prüfungen wirklich Denken, Argumentieren und Forschen – oder prüfen sie vor allem abrufbares Wissen?

Und wenn Prüfungen hauptsächlich darauf ausgerichtet sind, Wissen zu reproduzieren, überrascht es dann wirklich, dass Menschen versuchen, diese Systeme zu umgehen?

Mit künstlicher Intelligenz im Lernen wird diese Spannung plötzlich besonders sichtbar.

Wenn ein KI-Agent problemlos Videos „anschauen“, Texte „lesen“ und Aufgaben „lösen“ kann, verlieren viele Kontrollmechanismen ihre Aussagekraft. Aktivitäten lassen sich weiterhin dokumentieren – aber sie sagen immer weniger darüber aus, ob tatsächlich gelernt wurde.

Kann künstliche Intelligenz überhaupt lernen?

In der aktuellen Diskussion wird häufig von „lernenden Systemen“ gesprochen. Gemeint ist damit, dass KI große Datenmengen verarbeitet, Muster erkennt und Modelle ständig weiter optimiert.

In diesem Sinn wird KI mit mehr Daten und besseren Modellen leistungsfähiger.

Das wird oft als „Lernen“ bezeichnet. Tatsächlich handelt es sich jedoch eher um statistische Mustererkennung und Wahrscheinlichkeitsberechnung. KI verarbeitet Informationen – sie versteht sie nicht.

Interessanterweise zeigt die aktuelle Diskussion aber noch etwas anderes: Auch in vielen Bildungssystemen wird etwas als Lernen bezeichnet, das mit tatsächlichem Lernen nur begrenzt zu tun hat.

Wenn Menschen Inhalte ansehen, anschließend einen Test bestehen und danach ihr Denken oder Handeln unverändert bleibt, hat zwar eine Überprüfung stattgefunden – aber nicht unbedingt Lernen.

Wann lernen Menschen wirklich?

Vielleicht führt uns die Diskussion über KI und Lernen deshalb zu einer viel grundsätzlicheren Frage.

Menschliches Lernen bedeutet mehr als Informationsverarbeitung oder das Bestehen eines Tests. Lernen verändert, wie wir denken, wie wir Zusammenhänge verstehen und wie wir handeln.

Wenn künstliche Intelligenz immer mehr Lernaktivitäten übernehmen kann, wird eine Schwäche vieler Lernsysteme plötzlich sichtbar:

Kontrolle erzeugt noch kein Lernen.

Vielleicht zwingt uns KI deshalb zu einer präziseren Frage:

Unter welchen Bedingungen lernen Menschen eigentlich wirklich?

Und welches Menschenbild steckt hinter Lernsystemen, die vor allem darauf setzen, Lernen zu kontrollieren?

Eine Treppe führt in einer surrealen Landschaft zu einer einzelnen Tür.

Lernen messbar machen – aber was messen wir eigentlich?

Lernen messbar machen ist in vielen Organisationen ein wichtiges Ziel. Gleichzeitig wird erstaunlich selten gefragt, was dabei eigentlich als[…]

Implizites Wissen: Warum KI an Grenzen stößt

Implizites Wissen: Warum KI an Grenzen stößt

Warum Wissen sich nicht einfach in Köpfe hineinfüllen – oder aus ihnen herausziehen lässt „Könnte man nicht einfach das[…]

KI und Lernen - Symbolbild

Kann KI lernen – oder zeigt sie uns nur, was Lernen nicht ist?

Künstliche Intelligenz verändert gerade viele Bereiche unserer Arbeit und unseres Alltags. Auch das Lernen bleibt davon nicht unberührt. Vor[…]

Bei einem RAG-Modell entscheidet die hinterlegte Wissensbasis, welche Perspektiven in eine Antwort einfließen. Qualität beginnt bei der Auswahl.

KI ist so klug wie ihre Bibliothek

In den letzten Tagen habe ich viel darüber nachgedacht, was es eigentlich konkret bedeutet, KI zu entwickeln. Nicht im[…]

KI 2025 - Ausblick auf Schneebedeckte Schneelandschaft

KI 2025 im Unternehmen: Rückblick, Ausblick & Verantwortung

Rückblick und Ausblick Kurz vor den Feiertagen und dem Jahreswechsel ist es ein guter Moment, innezuhalten. Ein Moment, um[…]

Gemüsekiste

Ich bin ein Feedback-Fan

Manchmal zeigen kleine Alltagsmomente deutlicher als jede Theorie, wie wertvoll ehrliches Feedback wirklich ist. Seit vielen Jahren bekomme ich[…]