Een nieuw onderzoek onder onderzoekers van Carnegie Mellon, MIT, Oxford en UCLA onthult een paradoxaal neveneffect van kunstmatige intelligentie: Het gebruik van AI gedurende slechts 10 minuten kan iemands vermogen om na te denken en problemen op te lossen aanzienlijk aantasten.
Uit het onderzoek blijkt dat hoewel AI de directe productiviteit verhoogt, dit ten koste kan gaan van fundamentele cognitieve vaardigheden. Toen deelnemers voor eenvoudige taken afhankelijk waren van AI-assistenten – zoals het oplossen van breuken of het beantwoorden van vragen over begrijpend lezen – werden ze minder veerkrachtig toen de tool werd verwijderd. Zonder het AI-vangnet was de kans veel groter dat deze personen het zouden opgeven of onjuiste antwoorden zouden geven dan degenen die zelfstandig werkten.
“De conclusie is niet dat we AI in het onderwijs of op de werkplek moeten verbieden”, zegt Michiel Bakker, assistent-professor aan het MIT en co-auteur van het onderzoek. “AI kan mensen duidelijk helpen beter te presteren op dit moment, en dat kan waardevol zijn. Maar we moeten voorzichtiger zijn met wat voor soort hulp AI biedt, en wanneer.”
De cognitieve kosten van gemak
Het onderzoek, bestaande uit drie experimenten met enkele honderden deelnemers, benadrukt een cruciaal onderscheid tussen kortetermijnefficiëntie en langetermijncapaciteiten.
Deelnemers werden betaald om problemen op te lossen via een online platform. In sommige scenario’s zou een AI-assistent de problemen autonoom kunnen oplossen. Toen de onderzoekers deze hulp abrupt stopzetten, had de ‘AI-afhankelijke’ groep het aanzienlijk moeilijk. Dit geeft aan dat de bereidheid om ondanks moeilijkheden door te zetten – een belangrijke voorspeller van leren en het verwerven van vaardigheden – afneemt als oplossingen te gemakkelijk worden overgedragen.
Bakker, die eerder bij Google DeepMind werkte, merkt op dat dit fenomeen zijn wortels heeft in de cognitieve psychologie. Het gaat niet alleen om het krijgen van het juiste antwoord; het gaat over hoe mensen reageren op wrijving. Wanneer AI alle wrijving wegneemt, neemt het ook de kans op groei weg.
AI opnieuw bekijken als leraar, niet alleen als oplosser
De bevindingen roepen dringende vragen op voor AI-ontwikkelaars en docenten: Hoe kunnen we AI-modellen afstemmen op menselijke waarden zonder de macht van gebruikers te ontnemen?
Bakker pleit voor een verschuiving in de manier waarop AI-systemen worden ontworpen. In plaats van altijd directe antwoorden te geven, zou AI meer moeten functioneren als een bekwame menselijke docent –de gebruiker ondersteunen, coachen en uitdagen om zelf tot de oplossing te komen.
- Directe antwoordsystemen: Geef prioriteit aan snelheid en nauwkeurigheid, waardoor de vaardigheden van gebruikers in de loop van de tijd mogelijk afnemen.
- Steigersystemen: Geef prioriteit aan leren en begeleid gebruikers door het probleemoplossingsproces.
Hoewel deze ‘paternalistische’ benadering van design complex is om te implementeren, is het noodzakelijk om cognitieve atrofie op de lange termijn te voorkomen. Bakker benadrukt dat het begrijpen van hoe AI interageert met menselijk doorzettingsvermogen en leren een fundamentele cognitieve vraag is die niet kan worden genegeerd.
Risico’s uit de praktijk: wanneer automatisering mislukt
Het gevaar van het ontlasten van kritisch denken wordt duidelijk wanneer AI-systemen falen of zich onvoorspelbaar gedragen. Dit geldt met name voor agentische AI : systemen die complexe, onafhankelijke taken uitvoeren, zoals coderen of systeemconfiguratie.
Bakkers eigen ervaring illustreert dit risico. Terwijl hij een AI-assistent (OpenClaw, mogelijk gemaakt door Codex) gebruikte om een Linux Wi-Fi-probleem op te lossen, stelde de AI een reeks opdrachten voor om netwerkstuurprogramma’s aan te passen. Het resultaat was catastrofaal: de machine weigerde op te starten. Als de AI had gepauzeerd om het onderliggende probleem uit te leggen en de gebruiker door een diagnostisch proces te leiden, zou de uitkomst misschien anders zijn geweest. In plaats daarvan bleef de gebruiker achter met een kapot systeem en geen dieper inzicht in hoe dit te repareren.
Dit scenario weerspiegelt de zorgen van softwareontwikkelaars die tools als Claude Code of Codex gebruiken. Als programmeurs volledig afhankelijk zijn van AI om code te genereren en te debuggen, verliezen ze mogelijk het vermogen om de subtiele, vreemde fouten die autonome agenten kunnen introduceren, te identificeren en op te lossen.
Conclusie
Het onderzoek roept niet op tot een afwijzing van AI, maar eerder tot een meer opzettelijke betrokkenheid ermee. Om de cognitieve veerkracht te behouden, moeten gebruikers en ontwikkelaars prioriteit geven aan tools die leren en doorzettingsvermogen bevorderen, boven tools die alleen maar directe antwoorden bieden. Het doel moet een AI zijn die de menselijke capaciteiten vergroot, en niet een AI die de mentale inspanning vervangt die nodig is om deze te bouwen.
