Hitech logo

Мнения

Глава Anthropic: AGI может появиться к 2027 году и это создаст катастрофические риски

TODO:
Денис ЕременкоСегодня, 09:25 AM

Дарио Амодеи, генеральный директор Anthropic, опубликовал в понедельник эссе на 38 страницах под названием «Подростковый возраст технологии», предупреждая, что суперинтеллектуальный ИИ может появиться уже в 2027 году и создать катастрофические риски для цивилизации, если правительства и технологические компании не примут срочные меры. «Я считаю, что мы вступаем в переходный период, одновременно бурный и неизбежный, который проверит, кто мы как биологический вид, — написал Амодеи в эссе, опубликованном на его личном сайте. — Человечеству вот-вот будет передана почти невообразимая мощь, и совершенно неясно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью, чтобы управлять ею». В эссе описываются пять категорий рисков, которые, по мнению Амодея, требуют немедленного внимания.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В новом эссе «Юность технологий» руководитель Anthropic Дарио Амодеи описывает ближайшие годы как переходный возраст человечества — момент, когда искусственный интеллект может дать людям силу, сопоставимую с «ядерной эпохой», но институты и нормы окажутся не готовы. Автор видит в развитии ИИ не плавную модернизацию ИТ-рынка, а ускоряющийся процесс, который способен за считанные годы вывести мир к «мощному ИИ» — системе, превосходящей лучших специалистов в большинстве интеллектуальных задач, способной вести долгие автономные проекты и тиражироваться в миллионах копий. Такой ИИ Амодеи образно называет «страной гениев в дата-центре».

В качестве мысленного эксперимента он предлагает представить, что подобный рубеж будет достигнут в ближайшие 2 года, и выделяет пять групп ключевых угроз.

Первая — риск автономии: система ИИ, став достаточно умной и «агентной», может начать действовать в собственных интересах, использовать слабые места цифровой инфраструктуры, обман и влияние, а в перспективе — ускорить создание новых технологий и сделать контроль со стороны человека формальностью. Амодеи настаивает, что проблему нельзя свести к тестам перед релизом: продвинутые модели способны адаптироваться, распознавать проверочные режимы и демонстрировать «правильное» поведение, пока это выгодно. В ответ он описывает многослойный подход к безопасности: «воспитание» моделей через набор принципов (в Anthropic это называют Конституцией ИИ), развитие интерпретируемости — попыток понять внутренние механизмы решений, а также обязательные внешние оценки и процедуры «красных команд» перед выпуском наиболее мощных систем.

Вторая угроза — расширение возможностей злоумышленников. Если автономия и послушание ИИ будут обеспечены, опасность смещается к тому, что высокие компетенции станут дешёвой услугой. По мысли Амодеи, особенно чувствительна сфера биорисков: критична не абстрактная информация, а способность ИИ сопровождать пользователя в сложных процессах в режиме «пошаговой поддержки», снижая барьер входа в потенциально разрушительные действия. Здесь автор выступает за сочетание фильтров и блокировок для опасных запросов, внутреннего мониторинга и стандартизированных бенчмарков «усиления», а также за меры вне ИИ-индустрии — например, более строгие правила и скрининг в цепочках синтеза генетических материалов. Он отмечает, что надежная фильтрация и мониторинг — ощутимая нагрузка по стоимости и вычислениям, но считает ее неизбежной ценой доступа к мощным моделям.

Третья линия — использование ИИ государствами и крупными структурами для консолидации власти. Амодеи предупреждает, что «страна гениев» в руках авторитарного режима может превратиться в масштабируемый аппарат контроля: от тотальной аналитики поведения и слежки до манипуляции информационной средой и ускорения разработки вооружений. Отдельно он связывает геополитический аспект с цепочками производства вычислительной техники: ключевым узким горлышком остаются современные чипы и производственные мощности, и демократические страны, по его мнению, должны строить защиту вокруг контроля за критической инфраструктурой и экспортом, параллельно формируя международные «красные линии» для наиболее опасных практик применения ИИ.

Четвертая тема — экономический шок. Амодеи допускает, что мощный ИИ способен разогнать рост экономики до двузначных темпов, но предупреждает: скорость внедрения может привести к массовому вытеснению «белых воротничков» быстрее, чем рынок труда и образовательные системы успеют адаптироваться. Еще один риск — концентрация капитала. В эссе проводится историческая параллель с «золотым веком» и обсуждается возможность появления компаний с выручкой в триллионы долларов и, как следствие, триллионных личных состояний — что, по оценке автора, станет тестом на устойчивость демократии и социального контракта. В качестве ответа он призывает заранее наблюдать за темпами внедрения ИИ по секторам и обсуждать перераспределительные и институциональные меры, пока окно политической управляемости еще не закрыто.

Пятая группа — косвенные и «неизвестные» последствия ускоренного прогресса: от радикальных биотехнологий и продления жизни до изменения человеческой мотивации, культуры и представлений о смысле, если ценность труда и профессионального превосходства перестанет быть центральной. Амодеи подчеркивает, что мир может столкнуться с «сжатием века в десятилетие», когда новые технологические возможности будут возникать быстрее, чем общество успевает вырабатывать нормы их использования.

Общий вывод эссе — «остановка» развития ИИ малореалистична: рецепт создания мощных систем и экономические стимулы слишком сильны, а конкуренция между странами и компаниями будет подталкивать к ускорению.

Поэтому ключевой задачей Амодеи называет не торможение прогресса как такового, а создание режима управляемости: прозрачности оценок, многоуровневой инженерии безопасности, внешнего аудита и политических рамок, которые снизят вероятность катастрофы, не закрывая дорогу к полезным применениям. Иначе, предупреждает он, человечество может не пережить собственную «технологическую юность» — период, когда сила уже появилась, а ответственность и инструменты контроля еще нет.