La trampa de los 10 minutos: cómo el uso breve de la IA puede erosionar las habilidades de pensamiento crítico

22

Un nuevo estudio en el que participan investigadores de Carnegie Mellon, MIT, Oxford y UCLA revela un efecto secundario paradójico de la inteligencia artificial: el uso de IA durante tan solo 10 minutos puede afectar significativamente la capacidad de una persona para pensar y resolver problemas.

La investigación sugiere que, si bien la IA aumenta la productividad inmediata, puede tener un costo para las habilidades cognitivas fundamentales. Cuando los participantes confiaron en asistentes de inteligencia artificial para tareas simples, como resolver fracciones o responder preguntas de comprensión lectora, se volvieron menos resilientes cuando se eliminó la herramienta. Sin la “red de seguridad” de la IA, era mucho más probable que estas personas se rindieran o dieran respuestas incorrectas en comparación con aquellos que trabajaban de forma independiente.

“La conclusión no es que debamos prohibir la IA en la educación o en los lugares de trabajo”, dice Michiel Bakker, profesor asistente en el MIT y coautor del estudio. “La IA claramente puede ayudar a las personas a desempeñarse mejor en el momento, y eso puede ser valioso. Pero deberíamos tener más cuidado sobre qué tipo de ayuda proporciona la IA y cuándo”.

El costo cognitivo de la conveniencia

El estudio, compuesto por tres experimentos con varios cientos de participantes, destaca una distinción fundamental entre eficiencia a corto plazo y capacidad a largo plazo.

A los participantes se les pagó para resolver problemas a través de una plataforma en línea. En algunos escenarios, un asistente de IA podría resolver los problemas de forma autónoma. Cuando los investigadores eliminaron abruptamente esta asistencia, el grupo “dependiente de la IA” tuvo dificultades significativas. Esto indica que la voluntad de persistir a pesar de las dificultades (un predictor clave del aprendizaje y la adquisición de habilidades) disminuye cuando las soluciones se entregan con demasiada facilidad.

Bakker, que trabajó anteriormente en Google DeepMind, señala que este fenómeno tiene sus raíces en la psicología cognitiva. No se trata sólo de obtener la respuesta correcta; se trata de cómo los humanos responden a la fricción. Cuando la IA elimina toda fricción, también elimina la oportunidad de crecimiento.

Repensar la IA como profesora, no sólo como solucionadora

Los hallazgos plantean preguntas urgentes para los desarrolladores y educadores de IA: ¿Cómo alineamos los modelos de IA con los valores humanos sin quitar poder a los usuarios?

Bakker aboga por un cambio en la forma en que se diseñan los sistemas de IA. En lugar de proporcionar siempre respuestas directas, la IA debería funcionar más como un tutor humano capacitado: apoyando, entrenando y desafiando al usuario para que llegue a la solución por sí mismo.

  • Sistemas de respuesta directa: Priorice la velocidad y la precisión, lo que podría erosionar las habilidades del usuario con el tiempo.
  • Sistemas de andamiaje: Priorizar el aprendizaje, guiando a los usuarios a través del proceso de resolución de problemas.

Si bien este enfoque “paternalista” del diseño es complejo de implementar, es necesario prevenir la atrofia cognitiva a largo plazo. Bakker enfatiza que comprender cómo interactúa la IA con la persistencia y el aprendizaje humanos es una cuestión cognitiva fundamental que no se puede ignorar.

Riesgos del mundo real: cuando falla la automatización

El peligro de descargar el pensamiento crítico se vuelve claramente evidente cuando los sistemas de inteligencia artificial fallan o se comportan de manera impredecible. Esto es particularmente cierto para la IA agente : sistemas que realizan tareas complejas e independientes como codificación o configuración del sistema.

La propia experiencia de Bakker ilustra este riesgo. Mientras usaba un asistente de IA (OpenClaw, impulsado por Codex) para solucionar un problema de Wi-Fi de Linux, la IA sugirió una serie de comandos para modificar los controladores de red. El resultado fue catastrófico: la máquina se negó a arrancar. Si la IA se hubiera detenido para explicar el problema subyacente y guiar al usuario a través de un proceso de diagnóstico, el resultado podría haber sido diferente. En cambio, el usuario se quedó con un sistema roto y sin una comprensión más profunda de cómo solucionarlo.

Este escenario refleja las preocupaciones entre los desarrolladores de software que utilizan herramientas como Claude Code o Codex. Si los codificadores dependen completamente de la IA para generar y depurar código, pueden perder la capacidad de identificar y corregir los errores sutiles y extraños que pueden introducir los agentes autónomos.

Conclusión

El estudio no exige un rechazo de la IA, sino más bien un compromiso más intencional con ella. Para mantener la resiliencia cognitiva, los usuarios y desarrolladores deben priorizar las herramientas que fomentan el aprendizaje y la perseverancia sobre aquellas que simplemente brindan respuestas instantáneas. El objetivo debería ser una IA que mejore la capacidad humana, no una que reemplace el esfuerzo mental necesario para desarrollarla.