Ловушка 10 минут: как кратковременное использование ИИ подрывает навыки критического мышления

13

Новое исследование, в котором приняли участие ученые из Карнеги-Меллонского университета, MIT, Оксфордского университета и UCLA, выявило парадоксальный побочный эффект искусственного интеллекта: использование ИИ даже в течение 10 минут может существенно ухудшить способность человека мыслить и решать задачи.

Исследование показывает, что, хотя ИИ повышает немедленную производительность, это может происходить за счет фундаментальных когнитивных навыков. Когда участники полагались на ИИ-ассистентов для выполнения простых задач — например, решения дробей или ответов на вопросы по пониманию прочитанного — они становились менее устойчивыми к трудностям, когда инструмент удаляли. Без «страховочной сети» ИИ эти люди гораздо чаще сдавались или давали неверные ответы по сравнению с теми, кто работал самостоятельно.

«Вывод заключается не в том, что мы должны запретить ИИ в образовании или на рабочих местах, — говорит Михель Баккер, доцент MIT и соавтор исследования. — ИИ, безусловно, может помочь людям лучше справляться с задачами в данный момент, и это может быть ценно. Но нам следует более тщательно относиться к тому, какую помощь оказывает ИИ и когда».

Когнитивная цена удобства

Исследование, состоявшее из трех экспериментов с участием нескольких сотен человек, подчеркивает критическую разницу между краткосрочной эффективностью и долгосрочными возможностями.

Участники получали оплату за решение задач через онлайн-платформу. В некоторых сценариях ИИ-ассистент мог автономно решать проблемы. Когда исследователи внезапно отключили эту помощь, группа, зависевшая от ИИ, испытала значительные трудности. Это указывает на то, что готовность преодолевать трудности — ключевой предиктор обучения и приобретения навыков — снижается, когда решения предоставляются слишком легко.

Баккер, ранее работавший в Google DeepMind, отмечает, что это явление укоренено в когнитивной психологии. Речь идет не только о получении правильного ответа, но и о том, как люди реагируют на сопротивление и трение. Когда ИИ устраняет все препятствия, он также устраняет возможность для роста.

Переосмысление ИИ: учитель, а не просто решатель задач

Результаты исследования вызывают срочные вопросы для разработчиков ИИ и преподавателей: Как нам согласовать модели ИИ с человеческими ценностями, не лишая пользователей самостоятельности?

Баккер выступает за смену подхода к проектированию систем ИИ. Вместо того чтобы всегда предоставлять прямые ответы, ИИ должен функционировать скорее как квалифицированный человеческий репетитор — поддерживая, направляя и бросая вызов пользователю, чтобы тот самостоятельно пришел к решению.

  • Системы прямых ответов: Приоритет отдается скорости и точности, что со временем может приводить к деградации навыков пользователя.
  • Системы с опорным обучением (скэффолдинг): Приоритет отдается обучению, направляя пользователя через процесс решения проблемы.

Хотя этот «патерналистский» подход к дизайну сложен в реализации, он необходим для предотвращения долгосрочной когнитивной атрофии. Баккер подчеркивает, что понимание того, как ИИ взаимодействует с человеческой настойчивостью и обучением, — это фундаментальный когнитивный вопрос, который нельзя игнорировать.

Риски в реальном мире: когда автоматизация дает сбой

Опасность перекладывания критического мышления на машины становится особенно очевидной, когда системы ИИ отказывают или ведут себя непредсказуемо. Это особенно актуально для агентного ИИ — систем, выполняющих сложные независимые задачи, такие как программирование или настройка систем.

Личный опыт Баккера иллюстрирует этот риск. Используя ИИ-ассистента (OpenClaw, работающего на базе Codex) для устранения проблемы с Wi-Fi в Linux, ИИ предложил серию команд для настройки сетевых драйверов. Результат оказался катастрофическим: компьютер отказался загружаться. Если бы ИИ сделал паузу, чтобы объяснить базовую проблему и направить пользователя через диагностический процесс, исход мог бы быть иным. Вместо этого пользователь остался с неработающей системой и без глубокого понимания того, как ее исправить.

Этот сценарий отражает опасения среди разработчиков программного обеспечения, использующих такие инструменты, как Claude Code или Codex. Если программисты полностью полагаются на ИИ для генерации и отладки кода, они могут потерять способность выявлять и исправлять тонкие, странные ошибки, которые могут вносить автономные агенты.

Заключение

Исследование не призывает к отказу от ИИ, а скорее к более осознанному взаимодействию с ним. Для поддержания когнитивной устойчивости пользователям и разработчикам необходимо отдавать приоритет инструментам, которые способствуют обучению и настойчивости, а не тем, которые просто предоставляют мгновенные ответы. Цель должна заключаться в создании ИИ, который усиливает человеческие возможности, а не заменяет ментальные усилия, необходимые для их развития.