Hitech logo

искусственный интеллект

Ведущие модели ИИ применили ядерное оружие в 95% военных игр

TODO:
Георгий ГоловановСегодня, 09:23 AM

Британские исследователи провели симуляцию военных конфликтов с участием ведущих моделей искусственного интеллекта и получили тревожные результаты: в 95% сценариев модели принимали решение о применении ядерного оружия. При этом ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. А Gemini 3 Flash стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну. В испытаниях участвовали GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google).

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Каждая модель провела по шесть стратегических игр против каждого соперника в различных кризисных сценариях, а седьмую — против своей копии, что в общей сложности составило 21 игру и более 300 ходов, — говорится в отчете специалистов из Королевского колледжа Лондона. — Модели взяли на себя роли национальных лидеров, командующих противоборствующими ядерными сверхдержавами, а профили государств были в общих чертах вдохновлены динамикой Холодной войны».

Суммарно модели сгенерировал около 780 000 слов, объясняющих свои решения. Это больше, чем в «Войне и мире» Толстого и «Илиаде» Гомера вместе взятых, и примерно в три раза превышает объем записей заседаний Исполнительного комитета Кеннеди во время Карибского кризиса, пишет Decrypt.

В каждом смоделированном конфликте было применено по крайней мере одно тактическое ядерное оружие.

Ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. Хотя модели временно пытались деэскалировать конфликт, в 86% сценариев они усиливали эскалацию сильнее, чем следовало из их собственных рассуждений, что отражает ошибки в условиях смоделированного «тумана войны».

Каждая модель демонстрировала свой подход к конфликту. Claude Sonnet 4 получила характеристику «расчётливого ястреба» — она выигрывала 67% игр. Её публичные сигналы совпадали с реальными действиями в 84% случаев на низких уровнях эскалации, но превышали заявленные намерения на 60–70 процентов, когда ставки поднимались до ядерного уровня. GPT-5.2 прозвали «Джекилом и Хайдом» — без временного давления модель была пассивной и сдержанной, выигрывая ноль процентов игр без ограничений по времени, но под давлением дедлайнов преображалась, выигрывая 75% сценариев с ограничением времени и поднимаясь до уровней эскалации, которых ранее избегала.

Gemini 3 Flash действовала по принципу «рациональности иррациональности», известному в теории игр, и стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну.

Хотя применение тактического ядерного оружия было массовым во время симуляций, полномасштабная ядерная война с применением всего арсенала СЯС произошла всего три раза и всегда под давлением дедлайна. Когда одна модель применяла тактическое ядерное оружие, противоположная сторона шла на деэскалацию лишь в 18 процентах случаев, чаще выбирая ответную эскалацию.

Claude в настоящее время является единственной передовой моделью ИИ, работающей в засекреченных сетях Пентагона, развернутой благодаря партнерству Anthropic с Palantir. На этой неделе министр обороны США Пит Хегсет поставил перед Anthropic ультиматум: либо снять ограничения безопасности на военное использование Claude, либо рискнуть потерей контракта.

Эдвард Гейст, старший научный сотрудник RAND Corporation, выразил сомнения в точности интерпретации результатов. По его мнению, структура симулятора могла поощрять эскалацию, а логика подсчета очков вознаграждала сторону, имевшую незначительное преимущество в момент начала ядерной войны — «тот, у кого больше игрушек, выигрывает в симуляции».

Авторы исследования выражают сомнение, что правительства передадут контроль над ядерными арсеналами автономным системам, но отмечают, что сжатые сроки принятия решений в будущих кризисах могут усилить давление в сторону использования рекомендаций ИИ.

Ученые из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей (БЯМ) с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins.