Дэвид Сильвер, стоящий за созданием революционной AlphaGo, убежден, что нынешний вектор развития искусственного интеллекта в корне ошибочен. В то время как технологический мир одержим большими языковыми моделями (LLM), Сильвер утверждает, что опора на данные, созданные человеком, — это тупиковый путь на пути к достижению истинного сверхинтеллекта.
Через свой новый проект, Ineffable Intelligence, Сильвер пытается развернуть индустрию от «имитации» в сторону модели автономного, самоподдерживающегося обучения.
Проблема «ископаемого топлива» в LLM
Нынешний бум ИИ во многом обусловлен LLM — системами, обученными на колоссальных массивах человеческих текстов, программного кода и книг. Сильвер считает этот метод принципиально ограниченным. Он называет человеческие данные своего рода «ископаемым топливом» : невероятно эффективным ускорителем, который дает мощный первоначальный импульс, но в конечном итоге является конечным и невозобновляемым ресурсом.
Основная проблема заключается в том, что LLM учатся на основе того, что люди уже сделали. Они являются отражением человеческого интеллекта, а не независимыми двигателями познания. Сильвер полагает, что если ИИ ограничен только человеческими данными, он никогда не сможет превзойти коллективные знания своих создателей.
«Системы, которые учатся самостоятельно, можно представить как возобновляемое топливо — нечто, способное учиться и учиться бесконечно, без каких-либо пределов», — объясняет Сильвер.
Для иллюстрации Сильвер приводит мысленный эксперимент: если выпустить мощную LLM в мир, где все верят в плоскую Землю, этот ИИ станет экспертом в теории «плоскоземельцев». Без возможности взаимодействовать с реальностью или проводить собственные эксперименты он остается запертым в рамках предвзятостей и ограничений своих обучающих данных.
Путь к сверхинтеллекту: Обучение с подкреплением
Вместо того чтобы скармливать ИИ всё больше текстов, Сильвер делает ставку на обучение с подкреплением (RL). Это процесс, при котором ИИ учится методом проб и ошибок, взаимодействуя со средой для достижения определенных целей. Именно этот механизм позволил AlphaGo освоить игру Го — не путем чтения книг по стратегии, а через проведение миллионов партий против самого себя.
Видение Сильвера для Ineffable Intelligence заключается в том, чтобы перенести эту концепцию из «замкнутых миров» настольных игр в невероятно сложную реальную среду. Его стратегия включает:
- Симулированные среды: Размещение агентов ИИ внутри высокотехнологичных симуляций, где они могут взаимодействовать, сотрудничать и проверять гипотезы.
- Автономное познание: Создание «супер-учеников», которые не просто обрабатывают информацию, а активно открывают новые научные, экономические или технологические принципы.
- Масштабирование интеллекта: Создание систем, способных наращивать свой интеллект, не будучи привязанными к «человеческим априорным установкам» (предвзятым представлениям и заблуждениям, заложенным в человеческих данных).
Безопасность и проблема согласования (Alignment)
Одной из главных проблем в гонке за сверхинтеллектом является согласование ИИ (AI alignment) : обеспечение того, чтобы машина, превосходящая человека по способностям, оставалась полезной для человечества.
Критики опасаются, что ИИ, обучающийся исключительно методом проб и ошибок, может найти «оптимальные» решения, которые будут эффективными, но катастрофическими с точки зрения морали. Однако Сильвер и его спонсоры, включая Lightspeed Ventures, утверждают, что его подход может оказаться даже более безопасным.
Разрабатывая этих агентов в контролируемых симуляциях, исследователи могут наблюдать за возникающим поведением в режиме реального времени. Они могут увидеть, как агент относится к «менее развитому интеллекту» или как он справляется с конфликтующими целями, прежде чем технология будет развернута в реальном мире. Это позволяет применять проактивный подход к безопасности, а не реагировать на уже возникшие проблемы.
Миссия с высокими ставками
Масштаб амбиций Сильвера отражается в финансовой поддержке Ineffable Intelligence. Стартап уже привлек 1,1 миллиарда долларов посевного финансирования, достигнув оценки в 5,1 миллиарда долларов. Это экстраординарная цифра для европейской ИИ-компании, которая подчеркивает веру индустрии в «чистоту видения» Сильвера.
Несмотря на огромные суммы, стоящие на кону, Сильвер придерживается филантропической позиции. Он обязался передать всю прибыль от продажи акций Ineffable Intelligence благотворительным организациям, рассматривая стремление к сверхинтеллекту как глубокую ответственность перед будущим человечества.
Заключение: В то время как современный ландшафт ИИ занят моделями, которые лишь повторяют человеческие знания, Дэвид Сильвер делает ставку на то, что следующий качественный скачок произойдет благодаря машинам, которые научатся ориентироваться в мире и понимать его полностью самостоятельно.






























