Wer mit Chat-GPT Mathe lernt, bekommt schlechtere Noten. Wer damit Recherchen durchführt, vergisst das erarbeitete Material bald wieder. Nun zeigt die frühe Forschung zu Lernen im KI-Zeitalter: Es ginge auch anders.

Messungen von elektrischen Strömungen im Gehirn zeigen: Die meisten KI-Nutzer trainieren ihr kritisches Denken weniger. Eine Teilnehmerin an einer EEG-Studie in einem Labor in Eugene, Oregon, USA.
Es liest sich wie ein Hilferuf: «Ich kann nicht mehr selbst denken», schreibt eine 19-jährige Nutzerin in ein Reddit-Forum über Chat-GPT. Sie erledige alle ihre Schreibarbeiten mit KI und verliere deshalb gerade die Fähigkeit, kritisch zu denken. Schlimmer noch, sie habe den Eindruck, sie verliere ihre Denkfähigkeit generell.
Natürlich ist das überspitzt, das gibt die Nutzerin selbst auch zu. Aber ihr Eindruck scheint dennoch in der Tendenz richtig: Wer Modelle wie Chat-GPT für Denkaufgaben einsetzt, läuft Gefahr, sein eigenständiges Denken weniger zu trainieren. Das zeigen Ergebnisse erster Studien.
Damit stellt sich die Frage: Macht uns KI zwar effizienter, aber langfristig dümmer? Und wie können wir die Chatbots nutzen, um unsere Intelligenz zu erweitern, statt sie schrumpfen zu lassen?
«Use it, or lose it»
Lutz Jäncke, Neurowissenschafter und emeritierter Professor der Universität Zürich, sagt es so: «Kritisch denken ist wie ein Muskel. Kinder und Jugendliche müssen es trainieren, um gut darin zu werden. Und auch Erwachsene müssen sich regelmässig darin üben, sonst verlernen sie es.»
Nun zeigen erste Vorveröffentlichungen von Studien, dass dieses regelmässige Üben des kritischen Denkens von Chat-GPT torpediert werden könnte.
- Forschende am Massachusetts Institute of Technology (MIT) haben gezeigt, dass Chatbot-Nutzer Informationen oberflächlicher verarbeiten, sich weniger anstrengen und Erarbeitetes schneller wieder vergessen. Für die Studie mussten 54 Probanden Essays schreiben über Themen wie Loyalität, Mut, Glück oder Kunst. Eine Kappe mit Sensoren mass dabei ihre Gehirnaktivität (EEG). 18 Teilnehmer durften Chat-GPT verwenden, 18 hatten Zugang zur Google-Suche und weitere 18 hatten keinerlei Hilfsmittel. Es zeigte sich: Je weniger die Probanden sich von Technologie helfen liessen, desto aktiver war ihr Gehirn.
- In mehreren Experimenten mit über 4500 Testpersonen zeigten Forschende an der Wharton School der Universität Pennsylvania, dass Chatbot-Nutzer passiver im Lernprozess blieben als Nutzer einer Google-Suche. Probanden mussten entweder mit einem KI-Chatbot oder via Google-Suche Informationen zusammentragen zu Fragen wie «Wie pflanzt man einen Gemüsegarten?» oder «Wie kann man einen gesünderen Lebensstil führen?». Danach mussten sie «Tipps für einen Freund» formulieren. Es zeigte sich: Chatbot-Nutzer gaben schlechtere und weniger originelle Ratschläge.
- Andere Forschende der Universität Pennsylvania zeigten in einer Untersuchung mit rund 1000 Gymnasiasten in der Türkei, dass Probanden mit einem Chat-GPT-ähnlichen Tool Mathe-Übungsaufgaben besser lösen konnten als ohne. An einer Prüfung ohne KI-Tool schnitten die Schüler allerdings um rund 17 Prozent schlechter ab als ihre Kommilitonen, die nie Zugang zum Chatbot hatten.
Wer KI verwendet, lernt weniger «tief»
Den Neurowissenschafter Jäncke überraschen diese Studienresultate nicht. Er sagt, mit Chat-GPT könnten Hausaufgaben oder Rechercheaufträge innerhalb von Sekunden erledigt werden. «Das Gehirn kann dabei sozusagen weiterschlafen.» Wer sich allzu viel von der KI helfen lasse, nehme deshalb in Kauf, dass er oder sie die Inhalte weniger «tief» verarbeite und damit weniger lerne.
Tief verarbeiten und lernen bedeute, dass man sein Gehirn auf neue Arten aktiviere und neues Wissen abspeichere, erklärt Jäncke. Das geschehe insbesondere dann, wenn wir neue Informationen mit bestehendem Wissen verknüpfen: mit Erinnerungen, Gefühlen, bereits abgespeicherten Konzepten. Dieser Prozess sei anstrengend. «Aber erst diese Anstrengung macht das Lernen nachhaltig», sagt Jäncke.
Aber Menschen sind oft faul – oder so stark mit dem Leben beschäftigt, dass sie bei intellektuellen Aufgaben wie Schreiben, Recherchieren, Zusammenfassen wohl den Weg des geringsten Widerstands nehmen, glaubt Jäncke. Deshalb rechnet er damit, dass es künftig viele Chatbot-Nutzer geben wird, die mindestens kurzfristig ihre Fähigkeit, kritisch zu denken, weniger trainieren.
Der Taschenrechner hat das Mathe-Niveau gehoben
Historische Parallelen lassen vermuten, dass dies gar nicht so schlimm sein muss, wie man es nach Lektüre der Studien annehmen könnte. Als ab den 1970er Jahren in den Schulen der Taschenrechner eingeführt wurde, hob das den Mathematikunterricht auf ein höheres Niveau. Weil Schülerinnen und Schüler plötzlich weniger Zeit für das blosse Addieren und Multiplizieren verwenden mussten, konnten sie mehr und anspruchsvollere Mathe-Konzepte lernen.
Natürlich funktioniert KI grundlegend anders als ein Taschenrechner. Sie halluziniert. Und sie automatisiert neue Aspekte der menschlichen Denkarbeit. Trotzdem zeigen die Studien, dass KI auch so eingesetzt werden kann, dass sie weder das kritische Denken kurzschliesst noch das Lernen behindert.
So beschreiben die Autoren der MIT-Studie, dass einige Chatbot-Nutzer die KI verwendet hätten, um eigene Ideen zu überprüfen und kritisch zu reflektieren. Dabei blieben ihre Gehirne ebenso aktiv wie jene der Studienteilnehmer ohne Zugang zu Chatbots. Diese Nutzer – in der Studie werden sie als «hochkompetent» bezeichnet – waren allerdings die Ausnahme. Sie widerstanden offenbar dem Drang, anstrengende Denkarbeit an die KI auszulagern, und blieben engagiert beim Thema.
Die Studie mit türkischen Mathe-Schülern zeigte zudem: Die Art und Weise, wie das KI-Tool ausgestaltet ist, macht einen erheblichen Unterschied beim Lernen. Denn die Forscher testeten nicht nur Chat-GPT als Mathe-Coach, sondern entwickelten selbst ein KI-Tool, mit dem die Schüler die Denkarbeit nicht mehr an den Chatbot auslagern konnten. Nutzer von dieser «Tutor-KI» schnitten bei der Prüfung gleich gut ab wie Schüler in der Kontrollgruppe, die keinerlei Zugang zu Technologie hatten.
Das zeigt: KI im Kontext des Lernens und des kritischen Denkens generell zu verteufeln, ist genauso verfehlt wie verfrühter Enthusiasmus.
In der Schule hat Kontrolle ausgedient
Der Medienwissenschafter Dominic Hassler, der an der Pädagogischen Hochschule Zürich Lehrpersonen im Umgang mit KI weiterbildet, gibt sich trotzdem besorgt. Er glaubt, es könnte eine Übergangsgeneration von Schülerinnen und Schülern geben, die schlechter ausgebildet werde, weil das Bildungssystem noch nicht auf KI ausgerichtet sei.
Hassler hat in Unterrichtsbesuchen in den vergangenen Jahren festgestellt: Die Mehrheit der Lehrpersonen basiert ihren Unterricht noch immer auf Kontrolle. Diese eigentlich schon länger veraltete Unterrichtskultur versuchten sie jetzt der KI anzupassen, sagt Hassler. Dies führe zum Beispiel dazu, dass die Lehrer viele Kurztests einführten, damit sich die Schüler nicht vor dem regelmässigen Lernen drücken könnten. Für Mathematik möge das funktionieren, sagt Hassler, aber in geisteswissenschaftlichen Fächern oder bei Sprachen sei es kaum möglich, Kompetenzen mit einem Kurztest sinnvoll zu überprüfen.
Die Lösung wäre laut Hassler eine neue Unterrichtskultur, die sich an der Lebenswelt der Schülerinnen und Schüler ausrichtet. Dazu brauche es Lehrpersonen, die bei Kindern und Jugendlichen das Interesse an ihrem Fach wecken könnten. Denn letztlich sei es die persönliche Motivation, die entscheide, ob und wie viel Schüler in der Schule lernten.
KI kann Nutzer auch zum Nachdenken zwingen
Nun ist die grosse Frage, wie die KI-Tools ausgestaltet werden müssen, damit sie wie Tutoren funktionieren. Die Psychologin Sandra Grinschgl von der Universität Bern hat ein KI-Tool so weiterentwickelt, das es Studierende zum Reflektieren zwingt. Das Tool stellt sicher, dass Studierende erst eine Antwort vom Chatbot bekommen, nachdem sie Fragen zu ihrer Motivation und ihrem gegenwärtigen Wissensstand beantwortet haben. Die KI berücksichtigt die Antworten des Nutzers und passt die eigene Antwort an dessen Niveau an. Am Schluss stellt sie noch Verständnisfragen.
Grinschgl geht davon aus, dass sie damit das aktive Nachdenken bei ihren Studierenden fördert. Das scheint zu funktionieren: Das Feedback ihrer Studentinnen zeige, dass sie nicht einfach gedankenlos auf den Chatbot zugriffen. Ausserdem stellt Grinschgl auch bei Workshops an Mittelschulen fest, dass auch Jugendliche eine gesunde Skepsis gegenüber KI haben. Sie ist deshalb nicht allzu besorgt über eine allgemeine Verblödung durch KI.
Damit gilt in der Schule wie auch sonst im Leben: Man kann KI nutzen, um anstrengende Denkarbeit zu umgehen. Oder man kann KI nutzen, um sein Denken zu schärfen. 2008 titelte das amerikanische Hintergrundmagazin «The Atlantic»: «Macht uns Google dumm?» Auf eine abschliessende Antwort auf diese Frage warten wir bis heute.