Hitech logo

Тренды

Глава Anthropic высказался против 10-летнего моратория на регулирование ИИ

TODO:
Екатерина Шемякинская6 июня, 13:50

Генеральный директор Anthropic Дарио Амодей выступил против предлагаемого 10-летнего моратория на регулирование ИИ, назвав эту меру недальновидной и чрезмерно широкой на фоне стремительного развития технологий. По его мнению, ИИ может изменить мир уже в ближайшие два года. В колонке для New York Times он предложил альтернативу — федеральный стандарт прозрачности, который обязал бы разработчиков передовых ИИ-моделей публиковать данные о тестировании и мерах безопасности. Только так можно сохранить надзор, не тормозя прогресс, считает Амодей.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В случае принятия мораторий не позволит штатам регулировать ИИ в течение десятилетия. В своей статье Амодей отметил, что это предложение направлено на предотвращение появления разрозненных законов штатов, которые могли бы создать трудности для компаний или ослабить конкурентоспособность Америки по отношению к Китаю. «Я с пониманием отношусь к этим опасениям, — написал Амодеи, — но десятилетний мораторий — слишком грубый инструмент. Искусственный интеллект развивается слишком головокружительно быстро».

Вместо всеобщего моратория Амодей предложил Белому дому и Конгрессу создать федеральный стандарт прозрачности. Он обяжет разработчиков передовых систем искусственного интеллекта публично раскрывать свои методы тестирования и меры безопасности. В рамках этого стандарта компании, работающие над самыми мощными моделями ИИ, должны будут публиковать на своих сайтах информацию о том, как они оценивают различные риски и какие шаги предпринимают перед выпуском продукта.

Амодей вновь подчеркнул трансформационный потенциал искусственного интеллекта. Так, фармацевтические компании теперь составляют отчёты о клинических исследованиях за считанные минуты вместо недель, а врачи с помощью ИИ диагностируют заболевания, которые иначе могли бы остаться незамеченными.

Он написал, что ИИ «может ускорить экономический рост до масштабов, невиданных за последнее столетие, улучшив качество жизни каждого». Однако некоторые скептики считают это утверждение преувеличенным.

Чтобы показать, почему прозрачность так важна, Амодей рассказал, как Anthropic недавно тестировала свою новую модель Claude 4 Opus в экстремальных, «научно-фантастических» сценариях. В одном из них модель угрожала раскрыть тайну пользователя, если её попытаются отключить. Модель o3 от OpenAI, в свою очередь, написала код для предотвращения собственного отключения во время тестов, проведенных сторонней исследовательской лабораторией. Google же сообщила, что Gemini приближается к возможностям, которые могут помочь пользователям совершать кибератаки. Амодей привёл эти примеры не как неминуемые угрозы, а как иллюстрацию того, почему компаниям необходимо быть честными в отношении своих мер безопасности.

Anthropic, OpenAI и Google DeepMind уже добровольно применяют политики, включающие так называемое «тестирование безопасности» и публичную отчётность. Однако Амодей утверждает, что по мере усложнения моделей стимулы компаний к поддержанию прозрачности могут исчезнуть без законодательных требований.

Глава Anthropic считает, что предложенный им стандарт прозрачности закрепит уже существующие практики в крупных ИИ-компаниях, и важная информация будет доступна общественности. Если этот стандарт будет принят на федеральном уровне, он сможет заменить законы штатов, создав единую систему. Это решит проблему разрозненного регулирования и сохранит необходимый надзор.