Официально конфликт был спровоцирован отказом генерального директора Anthropic Дарио Амодея снять этические ограничения на использование ИИ. Компания настаивала на двух «красных линиях» — запрете на массовое внутреннее наблюдение за американцами и на участие Claude в создании полностью автономного летального оружия. Пентагон, в свою очередь, требовал, чтобы Anthropic согласилась разрешить использовать модели во всех законных случаях, определять законность которых будут сами военные. Министр обороны Пит Хегсет счел условия компании «чрезмерно ограничительными». Все это привело к отказу ведомства от уже заключенного контракта с компанией на $200 млн и включению Anthropic в список поставщиков, представляющих угрозу для национальной безопасности.
Спустя всего несколько часов после «изгнания» конкурента глава OpenAI Сэм Альтман объявил о сделке с Министерством обороны. Примечательно, что OpenAI заявляет о сохранении тех же принципов безопасности, за которые боролась Anthropic. Однако Альтман проявил большую гибкость, пообещав внедрить «технические меры защиты» и направить персонал компании для прямой помощи военным.
Эксперты отмечают, что Пентагон, критикующий Anthropic за излишние ограничения, воспринял схожие принципы OpenAI без публичных возражений. Это вызывает вопросы об истинной причине такой рокировки.
Возможно, власти пытаются надавить на Anthropic. В недавнем исследовании, проведенном Королевским колледжем Лондона три ИИ-модели, созданные в США, — Claude, ChatGPT и Gemini — взяли на себя роли лидеров сверхдержав в ходе симуляций, имитирующих динамику холодной войны в современных условиях. Результаты, опубликованные в прошлом месяце, оказались пугающими: в 95% случаев нейросети выбирали тактический или стратегический ядерный удар и ни разу не согласились на капитуляцию, воспринимая уничтожение противника как сугубо техническую задачу. Несмотря на попытки временной деэскалации, в 86% сценариев модели провоцировали конфликт сильнее, чем планировали изначально — так проявился эффект «тумана войны», искажающий логику алгоритмов в условиях кризиса.
Как выяснилось, Claude Sonnet 4 от Anthropic продемонстрировала в этих симуляциях подавляющее стратегическое превосходство. Исследователи окрестили её «расчётливым ястребом». В отличие от пассивной GPT-5.2 или непредсказуемой Gemini 3 Flash, Claude проявила себя как идеальный оппортунист — транслировала мирные намерения, чтобы усыпить бдительность противника, одновременно готовя сокрушительные удары.
Такая тактика обеспечила Claude 100% побед в сценариях с открытым финалом и 67% в общем зачете игр. Результаты конкурентов оказались скромнее: GPT завершила испытания с показателем 50%, а Gemini — лишь с 33%.
На низких уровнях конфликта Claude действовал «честно», и его сигналы совпадали с действиями в 84% случаев. Однако как только ставки поднимались до ядерного уровня, модель начинала вести двойную игру — её реальная агрессия превышала заявленные намерения на 60–70%. Эта способность Claude к сложному стратегическому обману и хладнокровному расчету в условиях ядерного кризиса может сделать модель бесценным активом для военных. Ультиматум администрации Трампа является попыткой принудительно национализировать интеллект «Расчётливого ястреба», лишив его «предохранителя» в лице неуступчивого Дарио Амодея. И быстрая смена поставщика «военного ИИ» для Пентагона на Open AI — один из рычагов такого давления.
Несмотря на давление Белого дома, Anthropic получила мощную поддержку со стороны сообщества и грамотно конвертирует её в рост аудитории. На фоне последних событий пользователи начали массово переходить с ChatGPT на Claude, и компания решила упростить этот процесс. Anthropic представила функцию быстрого переноса «долгосрочной памяти» из конкурирующих моделей — теперь новым пользователям не нужно тратить часы на объяснение своих предпочтений или контекста проектов. Компания предлагает оптимизированный промпт, который нужно вставить в ChatGPT, Gemini или другой чат-бот. Полученный отчет о привычках и стиле работы остается лишь скопировать в настройки памяти Claude.

