Глава Google DeepMind Демис Хассабис на AI-саммите в Нью-Дели объяснил, почему современные системы еще не дотягивают до искусственного общего интеллекта. Год назад он прогнозировал появление AGI через 5-10 лет, а на этой неделе перечислил три барьера, которые мешают сделать это быстрее, и предложил пути их решения.
1. Непрерывное обучение (Continual Learning)
Проблема: Современные AI-модели «замораживаются» после тренировки — они не учатся на новом опыте в реальном времени. ChatGPT, например, проходит обучение, после чего запускается без дальнейшего развития. Чтобы добавить новые знания, компании приходится переобучать модель с нуля — процесс, который стоит миллионы долларов и занимает месяцы. Исследователи называют это «потерей пластичности» и «катастрофическим забыванием» (catastrophic forgetting).
Решение: Хассабис видит выход в архитектурах с внешней памятью и локальным обновлением весов, которые позволят системам меняться со временем, не разрушая старые знания. Это похоже на то, как AlphaGo учился, играя сам с собой, но адаптировано для языковых моделей.
2. Долгосрочное планирование (Long-term Planning)
Проблема: AI справляется с тактическими задачами здесь и сейчас, но не умеет планировать на годы вперед. Современные LLM просто предсказывают следующее слово, не обладая стратегическим мышлением для построения сложных многоходовок в меняющейся среде (например, на финансовых рынках).
Решение: Внедрение «Моделей мира» (World Models). Хассабис предлагает добавить к языковым моделям модуль планирования (как в AlphaZero), который позволит AI прокручивать в «голове» варианты будущего и последствия своих действий, прежде чем совершить ход в реальности.
3. Непоследовательность (Inconsistency) — «Jagged Frontier»
Проблема: Системы берут золотые медали на Международной математической олимпиаде, но сыпятся на элементарных бытовых вопросах. Свежий пример: на вопрос «Мойка в 50 метрах от дома, мне пойти пешком или поехать?», AI часто советует идти пешком ради здоровья, забывая, что машину нужно взять с собой.
Решение: Отказ от статических бенчмарков, которые модели просто «заучивают», в пользу динамических сред (Game Arena). А также создание гибридных систем, где нейросетевая интуиция подстраховывается жесткой символьной логикой (Search/Reasoning), чтобы исключить глупые ошибки в простых задачах.
Контекст
Хассабис основал DeepMind в 2010 году (Google купил лабораторию в 2014-м). В 2024 году он получил Нобелевскую премию по химии за AlphaFold — систему предсказания структуры белков. По его текущим оценкам, до настоящего AGI — 5-8 лет.