Пентагон использовал Claude от Anthropic в операции по захвату бывшего президента Венесуэлы Николаса Мадуро. После этого стало известно, что руководство Anthropic обратилось к Palantir с вопросом, использовался ли их ИИ в рейде (а именно Palantir помогал с ИИ в этой операции) — "вопрос был поставлен так, как будто Антропик не одобряет это", рассказал чиновник Пентагона.
Теперь военные угрожают разорвать контракт на $200 млн с Anthropic. Причина: компания отказывается снять ограничения на использование Claude для автономных систем вооружения и массовой слежки внутри страны.
Пентагон требует от четырех крупных AI-лабораторий доступ к их технологиям "для всех законных целей" — включая разработку оружия, разведку и боевые операции. Anthropic оказалась самой упрямой из всех. Глава компании Дарио Амодеи публично заявлял, что не позволит превратить США в «автократию через массовую слежку».
Внутри компании тоже неспокойно: на прошлой неделе глава отдела по безопасности Anthropic ушел в отставку с предупреждением, что "мир в опасности". Сотрудники недовольны военным сотрудничеством. И буквально готовы к забастовке.
Парадокс: компания, которая больше всех беспокоится о безопасности ИИ, создала модель, которой Пентагон доверяет самые чувствительные операции. И теперь ее наказывают за то, что она спросила, как именно ее используют.