В документе на 145 страниц, соавтором которого стал сооснователь DeepMind Шейн Легг, говорится, что AGI может появиться уже к 2030 году, и это может принести «серьёзный вред». Авторы даже упоминают «уничтожение человечества». Общий искусственный интеллект компания определяет так: система, чьи способности сопоставимы с 99-м процентилем квалифицированных взрослых в широком спектре нефизических задач, включая метакогнитивные, такие как освоение новых навыков.
DeepMind сравнивает свой подход к управлению рисками AGI с методами Anthropic и OpenAI. Авторы считают, что Anthropic уделяет недостаточно внимания безопасности обучения и контроля, а OpenAI слишком полагается на автоматизацию исследований безопасности ИИ — так называемого «согласования».
Недавно OpenAI заявила, что переключает фокус с AGI на сверхразум. В документе DeepMind ставится под сомнение возможность создания сверхразумного ИИ — то есть ИИ, который превосходит человека во всех задачах. Авторы считают, что без серьёзных изменений в архитектуре искусственного интеллекта, сверхразумные системы вряд ли появятся в ближайшем будущем, а может, и вообще не появятся.
Однако авторы считают вполне вероятным, что существующие технологии позволят ИИ самостоятельно совершенствоваться. То есть искусственный интеллект будет сам себя обучать и создавать более продвинутые версии себя. Это может быть крайне опасно, подчеркивается в документе.
В компании предлагают стратегию защиты гипотетического общего ИИ, основанную на трех принципах: ограничение доступа злоумышленников, повышение прозрачности решений ИИ и создание защищенных сред для его работы. Хотя многие технические решения находятся в стадии разработки, авторы настаивают на необходимости уже сейчас принимать превентивные меры против потенциальных угроз.
Эксперты выразили скептицизм относительно положений исследования. Одни отмечают, что концепция AGI пока слишком размыта для научной оценки, другие считает самоулучшение ИИ недоказанной гипотезой. Специалисты указывают на более насущную проблему — воспроизводство ИИ-галлюцинаций. По мере того как сгенерированный контент, не всегда полностью достоверный, заполняет интернет, ИИ-модели начинают обучаться на собственных искаженных выводах, создавая замкнутый круг дезинформации.