Исследователи из Университета Пенсильвании провели серию экспериментов с 1372 участниками (более 9500 индивидуальных испытаний) и зафиксировали явление, которое назвали «когнитивной капитуляцией» — массовый отказ от самостоятельного мышления при работе с ИИ.
Суть эксперимента
Участникам давали тесты когнитивной рефлексии (CRT) — задачи, спроектированные так, чтобы интуитивный ответ был неверным, а правильный требовал вдумчивого размышления. Опционально предлагался ИИ-помощник, который в 50% случаев намеренно давал ошибочные ответы.
Ключевые цифры
- Когда ИИ отвечал правильно — 93% участников принимали его ответ
- Когда ИИ отвечал **неправильно** — 80% всё равно принимали его ответ
- В среднем по всем испытаниям: 73,2% принимали ошибочные ответы ИИ, и лишь 19,7% их исправляли
- Группа с ИИ оценивала свою уверенность на 11,7% выше контрольной — хотя ИИ ошибался в половине случаев
Что влияло на результат
- Денежное поощрение за правильные ответы увеличивало вероятность исправить ИИ на 19 п.п.
- Ограничение по времени (30 секунд) снижало эту вероятность на 12 п.п.
- Люди с высоким «текучим IQ» (fluid IQ) реже полагались на ИИ и чаще исправляли ошибки
- Те, кто изначально считал ИИ авторитетным, ошибались значительно чаще
Почему это важно
Исследователи разделяют «когнитивную разгрузку» (cognitive offloading) — осознанное делегирование отдельных задач инструменту — и «когнитивную капитуляцию» — полный отказ от проверки. Калькулятор или GPS берут на себя конкретную задачу, но человек остаётся в контуре контроля. С LLM люди перестают контролировать вообще: уверенная, гладкая подача ответа снижает внутренний порог скептицизма.
Вывод авторов: качество решений при когнитивной капитуляции полностью определяется качеством ИИ. Когда ИИ точен — результаты лучше человеческих. Когда ошибается — хуже, причём пользователь этого даже не замечает.