La trappola dei 10 minuti: quanto un breve utilizzo dell’intelligenza artificiale può erodere le capacità di pensiero critico

10

Un nuovo studio che ha coinvolto ricercatori della Carnegie Mellon, MIT, Oxford e UCLA rivela un effetto collaterale paradossale dell’intelligenza artificiale: utilizzare l’intelligenza artificiale per soli 10 minuti può compromettere in modo significativo la capacità di una persona di pensare e risolvere problemi.

La ricerca suggerisce che, sebbene l’intelligenza artificiale aumenti la produttività immediata, potrebbe andare a scapito delle capacità cognitive fondamentali. Quando i partecipanti si affidavano agli assistenti di intelligenza artificiale per compiti semplici, come risolvere frazioni o rispondere a domande di comprensione della lettura, diventavano meno resilienti quando lo strumento veniva rimosso. Senza la “rete di sicurezza” dell’intelligenza artificiale, questi individui avevano molte più probabilità di arrendersi o di fornire risposte errate rispetto a coloro che lavoravano in modo indipendente.

“La conclusione non è che dovremmo vietare l’intelligenza artificiale nell’istruzione o nei luoghi di lavoro”, afferma Michiel Bakker, assistente professore al MIT e coautore dello studio. “L’intelligenza artificiale può chiaramente aiutare le persone a ottenere risultati migliori in questo momento, e questo può essere prezioso. Ma dovremmo stare più attenti al tipo di aiuto che l’intelligenza artificiale fornisce e quando.”

Il costo cognitivo della convenienza

Lo studio, composto da tre esperimenti con diverse centinaia di partecipanti, evidenzia una distinzione fondamentale tra efficienza a breve termine e capacità a lungo termine.

I partecipanti venivano pagati per risolvere i problemi tramite una piattaforma online. In alcuni scenari, un assistente AI potrebbe risolvere autonomamente i problemi. Quando i ricercatori hanno improvvisamente interrotto questo aiuto, il gruppo “dipendente dall’intelligenza artificiale” ha avuto notevoli difficoltà. Ciò indica che la volontà di persistere nonostante le difficoltà – un fattore chiave predittivo dell’apprendimento e dell’acquisizione di competenze – diminuisce quando le soluzioni vengono fornite troppo facilmente.

Bakker, che in precedenza ha lavorato presso Google DeepMind, osserva che questo fenomeno ha le sue radici nella psicologia cognitiva. Non si tratta solo di ottenere la risposta giusta; riguarda il modo in cui gli esseri umani rispondono all’attrito. Quando l’intelligenza artificiale rimuove tutti gli attriti, elimina anche l’opportunità di crescita.

Ripensare l’intelligenza artificiale come insegnante, non solo come risolutore

I risultati sollevano domande urgenti per gli sviluppatori e gli educatori dell’intelligenza artificiale: Come allineare i modelli di intelligenza artificiale ai valori umani senza indebolire gli utenti?

Bakker sostiene un cambiamento nel modo in cui sono progettati i sistemi di intelligenza artificiale. Invece di fornire sempre risposte dirette, l’intelligenza artificiale dovrebbe funzionare più come un abile tutor umano: impalcatura, coaching e sfidando l’utente ad arrivare da solo alla soluzione.

  • Sistemi di risposta diretta: dai priorità alla velocità e alla precisione, con il rischio di erodere le competenze dell’utente nel tempo.
  • Sistemi di impalcatura: dare priorità all’apprendimento, guidando gli utenti attraverso il processo di risoluzione dei problemi.

Sebbene questo approccio “paternalistico” alla progettazione sia complesso da implementare, è necessario prevenire l’atrofia cognitiva a lungo termine. Bakker sottolinea che comprendere come l’intelligenza artificiale interagisce con la persistenza e l’apprendimento umano è una questione cognitiva fondamentale che non può essere ignorata.

Rischi reali: quando l’automazione fallisce

Il pericolo di scaricare il pensiero critico diventa evidente quando i sistemi di intelligenza artificiale falliscono o si comportano in modo imprevedibile. Ciò è particolarmente vero per l’intelligenza artificiale, ovvero i sistemi che eseguono attività complesse e indipendenti come la codifica o la configurazione del sistema.

L’esperienza di Bakker illustra questo rischio. Durante l’utilizzo di un assistente AI (OpenClaw, basato su Codex) per risolvere un problema Wi-Fi di Linux, l’IA ha suggerito una serie di comandi per modificare i driver di rete. Il risultato è stato catastrofico: la macchina ha rifiutato di avviarsi. Se l’intelligenza artificiale si fosse fermata per spiegare il problema di fondo e guidare l’utente attraverso un processo diagnostico, il risultato avrebbe potuto essere diverso. Invece, l’utente si è ritrovato con un sistema rotto e senza una comprensione più approfondita di come risolverlo.

Questo scenario rispecchia le preoccupazioni degli sviluppatori di software che utilizzano strumenti come Claude Code o Codex. Se i programmatori si affidassero interamente all’intelligenza artificiale per generare ed eseguire il debug del codice, potrebbero perdere la capacità di identificare e correggere gli errori sottili e strani che gli agenti autonomi possono introdurre.

Conclusione

Lo studio non richiede un rifiuto dell’intelligenza artificiale, ma piuttosto un impegno più intenzionale con essa. Per mantenere la resilienza cognitiva, utenti e sviluppatori devono dare priorità agli strumenti che favoriscono l’apprendimento e la persistenza rispetto a quelli che forniscono semplicemente risposte immediate. L’obiettivo dovrebbe essere un’intelligenza artificiale che migliori le capacità umane, non che sostituisca lo sforzo mentale richiesto per costruirle.