Eine neue Studie, an der Forscher von Carnegie Mellon, MIT, Oxford und UCLA beteiligt waren, deckt einen paradoxen Nebeneffekt künstlicher Intelligenz auf: Der Einsatz von KI für nur 10 Minuten kann die Fähigkeit einer Person, zu denken und Probleme zu lösen, erheblich beeinträchtigen.
Die Forschung legt nahe, dass KI zwar die unmittelbare Produktivität steigert, dies jedoch möglicherweise auf Kosten grundlegender kognitiver Fähigkeiten geht. Wenn sich die Teilnehmer für einfache Aufgaben auf KI-Assistenten verließen – etwa das Lösen von Brüchen oder die Beantwortung von Fragen zum Leseverständnis –, wurden sie weniger belastbar, als das Tool entfernt wurde. Ohne das „Sicherheitsnetz“ der KI war die Wahrscheinlichkeit, dass diese Personen aufgeben oder falsche Antworten gaben, weitaus höher als bei denen, die unabhängig arbeiteten.
„Die Erkenntnis ist nicht, dass wir KI in der Bildung oder am Arbeitsplatz verbieten sollten“, sagt Michiel Bakker, Assistenzprofessor am MIT und Mitautor der Studie. „KI kann Menschen eindeutig dabei helfen, im jeweiligen Moment bessere Leistungen zu erbringen, und das kann wertvoll sein. Aber wir sollten vorsichtiger sein, welche Art von Hilfe KI wann leistet.“
Die kognitiven Kosten der Bequemlichkeit
Die Studie, die aus drei Experimenten mit mehreren hundert Teilnehmern besteht, verdeutlicht einen entscheidenden Unterschied zwischen kurzfristiger Effizienz und langfristiger Leistungsfähigkeit.
Die Teilnehmer wurden dafür bezahlt, Probleme über eine Online-Plattform zu lösen. In einigen Szenarien könnte ein KI-Assistent die Probleme autonom lösen. Als die Forscher diese Unterstützung abrupt entfernten, hatte die „KI-abhängige“ Gruppe erhebliche Probleme. Dies weist darauf hin, dass die Bereitschaft, trotz Schwierigkeiten durchzuhalten – ein wichtiger Indikator für Lernen und Kompetenzerwerb – abnimmt, wenn Lösungen zu leicht weitergegeben werden.
Bakker, der zuvor bei Google DeepMind gearbeitet hat, weist darauf hin, dass dieses Phänomen seine Wurzeln in der kognitiven Psychologie hat. Es geht nicht nur darum, die richtige Antwort zu bekommen; Es geht darum, wie Menschen auf Reibung reagieren. Wenn KI alle Reibungen beseitigt, beseitigt sie auch die Wachstumschancen.
KI als Lehrer und nicht nur als Löser neu denken
Die Ergebnisse werfen dringende Fragen für KI-Entwickler und -Lehrer auf: Wie können wir KI-Modelle mit menschlichen Werten in Einklang bringen, ohne die Benutzer zu entmündigen?
Bakker plädiert für einen Wandel in der Gestaltung von KI-Systemen. Anstatt immer direkte Antworten zu liefern, sollte die KI eher wie ein erfahrener menschlicher Tutor funktionieren – gerüstbauend, coachend und den Benutzer herausfordernd, selbst zur Lösung zu gelangen.
- Direkte Antwortsysteme: Geben Sie Geschwindigkeit und Genauigkeit Vorrang, da die Benutzerfähigkeiten mit der Zeit möglicherweise beeinträchtigt werden.
- Gerüstsysteme: Priorisieren Sie das Lernen und führen Sie Benutzer durch den Problemlösungsprozess.
Obwohl dieser „paternalistische“ Designansatz komplex in der Umsetzung ist, ist er notwendig, um eine langfristige kognitive Atrophie zu verhindern. Bakker betont, dass das Verständnis, wie KI mit der Beharrlichkeit und dem Lernen des Menschen interagiert, eine grundlegende kognitive Frage ist, die nicht ignoriert werden darf.
Risiken in der Praxis: Wenn die Automatisierung versagt
Die Gefahr einer Verlagerung des kritischen Denkens wird deutlich, wenn KI-Systeme ausfallen oder sich unvorhersehbar verhalten. Dies gilt insbesondere für agentische KI – Systeme, die komplexe, unabhängige Aufgaben wie Codierung oder Systemkonfiguration ausführen.
Bakkers eigene Erfahrung verdeutlicht dieses Risiko. Bei der Verwendung eines KI-Assistenten (OpenClaw, powered by Codex) zur Behebung eines Linux-WLAN-Problems schlug die KI eine Reihe von Befehlen zur Optimierung der Netzwerktreiber vor. Das Ergebnis war katastrophal: Die Maschine weigerte sich zu booten. Hätte die KI eine Pause eingelegt, um das zugrunde liegende Problem zu erklären und den Benutzer durch einen Diagnoseprozess zu führen, wäre das Ergebnis möglicherweise anders ausgefallen. Stattdessen blieb dem Benutzer ein kaputtes System und kein tieferes Verständnis dafür, wie man das Problem beheben kann.
Dieses Szenario spiegelt die Bedenken von Softwareentwicklern wider, die Tools wie Claude Code oder Codex verwenden. Wenn sich Programmierer beim Generieren und Debuggen von Code vollständig auf KI verlassen, verlieren sie möglicherweise die Fähigkeit, die subtilen, seltsamen Fehler zu identifizieren und zu beheben, die autonome Agenten verursachen können.
Fazit
Die Studie fordert keine Ablehnung von KI, sondern vielmehr einen bewussteren Umgang damit. Um die kognitive Belastbarkeit aufrechtzuerhalten, müssen Benutzer und Entwickler Tools Vorrang einräumen, die das Lernen und die Ausdauer fördern, gegenüber Tools, die lediglich sofortige Antworten liefern. Das Ziel sollte eine KI sein, die die menschlichen Fähigkeiten verbessert, und nicht eine, die die für den Aufbau erforderliche mentale Anstrengung ersetzt.





























