Суцкевер — один из ведущих специалистов в сфере ИИ, и его имя связано с основными достижениями в этой области, поэтому его авторитета достаточно, чтобы привлекать серьёзные инвестиции. В качестве ведущего ученого OpenAI Суцкевер внес значительный вклад в создание и развитие технологий, которые лежат в основе моделей ChatGPT. Его работа с алгоритмами глубокого обучения и развитием искусственного интеллекта сделала его одним из самых уважаемых исследователей в этой сфере.
В проекте Safe Superintelligence участвуют также Дэниел Леви и Дэниел Гросс, бывшие сотрудники OpenAI и Apple AI. Компания, не получающая дохода на текущий момент, заявляет, что не будет продавать ИИ-продукты в ближайшие годы. Вместо этого она сосредоточится на разработке технологий, направленных на создание безопасного и этичного искусственного интеллекта.
Компания уже привлекла средства от крупных венчурных фондов, таких как Sequoia Capital, Andreessen Horowitz и DST Global. На данный момент, сумма привлеченных Safe Superintelligence средств составляет примерно $1,5 млрд. Привлеченные инвестиции должны поддержать дальнейшую разработку и исследования в области ИИ.
Суцкевер покинул OpenAI в мае 2024 года. Точные причины его ухода не уточнялись. И Сэм Альтман, и сам Илья сказали, что пришло время двигаться дальше, а бывший ведущий научный сотрудник решил сосредоточиться на собственных проектах. Однако журналисты The Wall Street Journal утверждали, что причиной ссоры основателей OpenAI стало халатное отношение Альтмана к мерам безопасности. Ещё в 2022 Суцкевер говорил, что сверхмощный ИИ может начать относиться к людям так, как мы относимся к животным, и эта перспектива пугает его. В прессе также утверждали, что увольнение Суцкевера могло быть местью Альтмана за ведущую роль Ильи в несостоявшейся отставке основателя.
Чем именно занимается Safe Superintelligence неясно. Сайт компании очень лаконичен и содержит лишь общее описание: «Безопасный сверхразум — это наша миссия, наше имя и вся наша дорожная карта продукта, потому что это наш единственный фокус. Наша команда, инвесторы и бизнес-модель — все направлено на достижение безопасного сверхпроизводительного ИИ. Наша единая направленность означает отсутствие отвлекающих факторов, таких как управленческие расходы или циклы производства, а наша бизнес-модель подразумевает, что безопасность, надежность и прогресс не зависят от краткосрочного коммерческого давления».
Суцкевер и другие эксперты в области ИИ часто подчеркивают, что с развитием технологий искусственного интеллекта важно предусмотреть меры по предотвращению возможных рисков. Сверхмощный ИИ может вырваться за пределы человеческого контроля и представлять опасность, если его не ограничить специальными принципами безопасности. Поэтому в Safe Superintelligence, возможно, работают над тем, чтобы создать такие методы контроля, а не над самим сверхпроизводительным ИИ.