Кульминацией противоречий стало кратковременное увольнение Альтмана в ноябре 2023 года. Инициатором выступил главный научный сотрудник OpenAI и член совета директоров Илья Суцкевер, который разослал членам совета секретные меморандумы объёмом около 70 страниц. В них утверждалось, что Альтман систематически вводил руководство в заблуждение, в том числе по вопросам безопасности моделей и внутреннего управления. Совет уволил его, сославшись на «недостаточную откровенность», однако уже через пять дней вернул на пост под давлением инвесторов и сотрудников. Сам Альтман в тот период угрожал временному CEO Мире Мурати: его союзники искали компрометирующую информацию, чтобы уничтожить её репутацию. Позже он заявил, что «не помнит» этого.
Согласно документам и свидетельствам, Альтман годами давал разным сторонам противоречивые обещания и представлял решения как согласованные, хотя это было не так. Он заверил совет, что спорные функции GPT-4 прошли одобрение панели безопасности, — это оказалось ложью. Он «забыл» сообщить, что Microsoft выпустила ChatGPT в Индии без обязательной проверки. Подобные эпизоды, по словам источников, носили не единичный, а системный характер.
Один из членов совета описал Альтмана так: «У него две черты, которые почти никогда не встречаются в одном человеке. Первая — сильное желание нравиться людям. Вторая — почти социопатическое отсутствие заботы о последствиях обмана».
Схожие оценки давали и бывшие сотрудники. Один из ключевых исследователей OpenAI Дарио Амодеи в личных записях описывал повторяющиеся ситуации, в которых Альтман отрицал очевидные факты или менял позицию в зависимости от аудитории. В 2020 году, после того как Альтман ложно обвинил его и его сестру в «планировании переворота», Амодеи покинул OpenAI и основал Anthropic — одного из ключевых конкурентов компании Альтмана. В своих заметках он прямо написал: «Проблема OpenAI — это сам Сэм».
Печальная судьба постигла и команду «супервыравнивания» (superalignment) во главе с Суцкевером — её задачей было разработать методы контроля за поведением сверхразумного ИИ, чтобы тот не вышел из-под контроля. Компания обещала выделить на это 20% всех вычислительных мощностей, но в 2024 году команду распустили. Группу AGI-готовности, созданную для адаптации общества к общему искусственному интеллекту, — тоже. В последней налоговой форме OpenAI слово «безопасность» вообще не упоминается как значимая деятельность. Независимая организация Future of Life Institute, изучающая риски от технологий, поставила OpenAI оценку F (то есть «полный провал») по шкале экзистенциальной безопасности. Для сравнения, Anthropic получил D, а Google DeepMind — D-.
Расследование изучило и более ранние места работы Альтмана. В 2005 году он основал стартап Loopt — приложение, которое показывало друзьям, где ты находишься. Бизнес не пошёл. Старшие сотрудники дважды просили совет директоров уволить Альтмана с поста CEO, потому что не доверяли его управлению, но совет отказался. В 2012 году Loopt продали — по словам источника, сделку организовали в основном для того, чтобы Альтман «сохранил лицо».
Затем Альтман возглавил Y Combinator. Там коллеги обвиняли его в том, что он лично инвестировал в самые перспективные проекты и не пускал туда других инвесторов. Пол Грэм, основатель Y Combinator, позже говорил, что Альтман «всё время лгал». Сам Альтман отрицает обвинения.
Значительное внимание в расследовании уделено международным связям Альтмана. В 2018 году, через неделю после убийства журналиста Джамаля Хашогги, в котором обвинили наследного принца Саудовской Аравии, Альтман вошёл в совет проекта «города будущего» Neom, который строил этот принц. Его тогда больше волновала не этика, а потенциальные санкции. Позже он сблизился с шейхом Тахнуном из ОАЭ — главой разведки и куратором фондов на $1,5 трлн, называл его «дорогим другом», принимал в подарок гиперкары за $2 млн и посещал его суперъяхту за $250 млн. Из-за этих связей администрация Байдена отказала ему в доступе к секретным данным. Ещё раньше, в 2017–2018 годах, внутри OpenAI обсуждался план прямого столкновения ядерных держав: сооснователь Грег Брокман предлагал устроить аукцион между США, Китаем и Россией за доступ к AGI. Даже с возможностью военного столкновения. Альтман не возражал. План свернули только после угроз массового увольнения.
С нынешней администрацией Альтман установил дружеские отношения. После победы Трампа на выборах 2024 года он перечислил миллион долларов в инаугурационный фонд. Через два дня после инаугурации, когда Трамп отменил указ Байдена о безопасности ИИ, Альтман стоял в Белом доме и анонсировал проект Stargate — строительство инфраструктуры для ИИ по всей Америке на $500 млрд. Позже он заключил с Пентагоном контракт на $50 млрд, заменив компанию Anthropic, которая отказалась снимать запрет на полностью автономные вооружения.
Расследование не выявило доказательств самых тяжелых обвинений, слухи о которых появлялись ранее, — половых контактов с несовершеннолетними и причастности к убийствам. Также не найдено финансовых махинаций. Однако десятки эпизодов систематического обмана, угроз сотрудникам, сделок с автократиями и уничтожения внутренних механизмов безопасности формируют, по мнению авторов, недопустимую модель управления для человека, который контролирует самую мощную технологию в истории.

