Поскольку в результате инцидента не была украдена никакая конфиденциальная информация о клиентах или партнерах OpenAI, руководство компании решило не предавать этот случай широкой публичной огласке. О нём было сообщено на общем собрании сотрудников в апреле прошлого года, а также был проинформирован совет директоров. Руководители OpenAI не сочли этот инцидент угрозой национальной безопасности, полагая, что взломщик был частным лицом, а не представителем какой-либо государственной структуры. Поэтому уведомлять об этом ФБР и правоохранительные органы компания тоже не стала.
Несмотря на то, что руководство OpenAI не посчитало инцидент серьезной угрозой, некоторые сотрудники компании были обеспокоены тем, что иностранные государства, такие как Китай, могут украсть сведения об ИИ-технологиях OpenAI. Это, по их мнению, в конечном итоге может поставить под угрозу национальную безопасность США. После утечки менеджер OpenAI, отвечающий за безопасность будущих ИИ-систем, Леопольд Ашенбреннер направил записку совету директоров, в которой сообщил, что принимаемых компанией мер защиты своих секретных разработок от вмешательства иностранных государств недостаточно.
Весной 2024 года Леопольд Ашенбреннер был уволен из OpenAI, но сам он считает, что это увольнение было политически мотивированным. После этого бывший сотрудник компании решил раскрыть подробности о произошедшем в прошлом году взломе IT-инфраструктуры OpenAI. Пресс-секретарь OpenAI Лиз Буржуа заявила, что в компании ценят обеспокоенность, которую Ашенбреннер выражал во время работы, и это не является причиной его увольнения. Также она опровергла утверждения экс-сотрудника о недостаточности мер по защите корпоративных систем OpenAI от хакерских атак.
В прошлом месяце президент Microsoft Брэд Смит выступил с показаниями перед конгрессменами в Капитолии. Он сообщил, что китайские хакеры использовали системы компании для организации масштабной кибератаки на сети федерального правительства США.
В свете этих заявлений опасения сотрудников OpenAI относительно возможной причастности Китая к взлому IT-инфраструктуры их компании нельзя считать безосновательными.
Однако пока нет особых доказательств того, что современные технологии ИИ представляют собой существенный риск для национальной безопасности. Исследования OpenAI, Anthropic и других за последний год показали, что ИИ не намного опаснее поисковых систем. Соучредитель Anthropic и президент компании Даниэла Амодеи заявила, что их новейшая технология ИИ не будет представлять серьезного риска, даже если разработки будут украдены или свободно переданы другим.
Тем не менее, некоторые исследователи и руководители технологических компаний давно обеспокоены тем, что ИИ может однажды способствовать созданию новых биологических видов оружия или помочь взломать правительственные компьютерные системы. Есть мнение, что математические алгоритмы, лежащие в основе современных систем ИИ не представляют опасности сегодня, но могут стать опасными завтра. Некоторые даже считают, что искусственный разум может уничтожить человечество. Поэтому звучат призывы к более строгому контролю над лабораториями ИИ.