додому Останні новини та статті За пределами эры LLM: Поиск истинного сверхинтеллекта Дэвида Сильвера

За пределами эры LLM: Поиск истинного сверхинтеллекта Дэвида Сильвера

Дэвид Сильвер, стоящий за созданием революционной AlphaGo, убежден, что нынешний вектор развития искусственного интеллекта в корне ошибочен. В то время как технологический мир одержим большими языковыми моделями (LLM), Сильвер утверждает, что опора на данные, созданные человеком, — это тупиковый путь на пути к достижению истинного сверхинтеллекта.

Через свой новый проект, Ineffable Intelligence, Сильвер пытается развернуть индустрию от «имитации» в сторону модели автономного, самоподдерживающегося обучения.

Проблема «ископаемого топлива» в LLM

Нынешний бум ИИ во многом обусловлен LLM — системами, обученными на колоссальных массивах человеческих текстов, программного кода и книг. Сильвер считает этот метод принципиально ограниченным. Он называет человеческие данные своего рода «ископаемым топливом» : невероятно эффективным ускорителем, который дает мощный первоначальный импульс, но в конечном итоге является конечным и невозобновляемым ресурсом.

Основная проблема заключается в том, что LLM учатся на основе того, что люди уже сделали. Они являются отражением человеческого интеллекта, а не независимыми двигателями познания. Сильвер полагает, что если ИИ ограничен только человеческими данными, он никогда не сможет превзойти коллективные знания своих создателей.

«Системы, которые учатся самостоятельно, можно представить как возобновляемое топливо — нечто, способное учиться и учиться бесконечно, без каких-либо пределов», — объясняет Сильвер.

Для иллюстрации Сильвер приводит мысленный эксперимент: если выпустить мощную LLM в мир, где все верят в плоскую Землю, этот ИИ станет экспертом в теории «плоскоземельцев». Без возможности взаимодействовать с реальностью или проводить собственные эксперименты он остается запертым в рамках предвзятостей и ограничений своих обучающих данных.

Путь к сверхинтеллекту: Обучение с подкреплением

Вместо того чтобы скармливать ИИ всё больше текстов, Сильвер делает ставку на обучение с подкреплением (RL). Это процесс, при котором ИИ учится методом проб и ошибок, взаимодействуя со средой для достижения определенных целей. Именно этот механизм позволил AlphaGo освоить игру Го — не путем чтения книг по стратегии, а через проведение миллионов партий против самого себя.

Видение Сильвера для Ineffable Intelligence заключается в том, чтобы перенести эту концепцию из «замкнутых миров» настольных игр в невероятно сложную реальную среду. Его стратегия включает:

  • Симулированные среды: Размещение агентов ИИ внутри высокотехнологичных симуляций, где они могут взаимодействовать, сотрудничать и проверять гипотезы.
  • Автономное познание: Создание «супер-учеников», которые не просто обрабатывают информацию, а активно открывают новые научные, экономические или технологические принципы.
  • Масштабирование интеллекта: Создание систем, способных наращивать свой интеллект, не будучи привязанными к «человеческим априорным установкам» (предвзятым представлениям и заблуждениям, заложенным в человеческих данных).

Безопасность и проблема согласования (Alignment)

Одной из главных проблем в гонке за сверхинтеллектом является согласование ИИ (AI alignment) : обеспечение того, чтобы машина, превосходящая человека по способностям, оставалась полезной для человечества.

Критики опасаются, что ИИ, обучающийся исключительно методом проб и ошибок, может найти «оптимальные» решения, которые будут эффективными, но катастрофическими с точки зрения морали. Однако Сильвер и его спонсоры, включая Lightspeed Ventures, утверждают, что его подход может оказаться даже более безопасным.

Разрабатывая этих агентов в контролируемых симуляциях, исследователи могут наблюдать за возникающим поведением в режиме реального времени. Они могут увидеть, как агент относится к «менее развитому интеллекту» или как он справляется с конфликтующими целями, прежде чем технология будет развернута в реальном мире. Это позволяет применять проактивный подход к безопасности, а не реагировать на уже возникшие проблемы.

Миссия с высокими ставками

Масштаб амбиций Сильвера отражается в финансовой поддержке Ineffable Intelligence. Стартап уже привлек 1,1 миллиарда долларов посевного финансирования, достигнув оценки в 5,1 миллиарда долларов. Это экстраординарная цифра для европейской ИИ-компании, которая подчеркивает веру индустрии в «чистоту видения» Сильвера.

Несмотря на огромные суммы, стоящие на кону, Сильвер придерживается филантропической позиции. Он обязался передать всю прибыль от продажи акций Ineffable Intelligence благотворительным организациям, рассматривая стремление к сверхинтеллекту как глубокую ответственность перед будущим человечества.


Заключение: В то время как современный ландшафт ИИ занят моделями, которые лишь повторяют человеческие знания, Дэвид Сильвер делает ставку на то, что следующий качественный скачок произойдет благодаря машинам, которые научатся ориентироваться в мире и понимать его полностью самостоятельно.

Exit mobile version