Hitech logo

Тренды

Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с ядерной войной

TODO:
Екатерина Смирнова31 мая 2023 г., 13:35

Группа из 350 лидеров отрасли предупредила, что технология искусственного интеллекта, которую они создают, однажды может стать экзистенциальной угрозой человечеству и должна рассматриваться как общественный риск наравне с пандемиями и ядерной войной. Чтобы предотвратить это, руководители OpenAI предлагают производителям ИИ сотрудничать, проводить дополнительные технические исследования крупных языковых моделей и создать международную организацию по безопасности ИИ.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — говорится в заявлении, опубликованном некоммерческой организацией Center for AI Safety. Открытое письмо подписали более 350 руководителей, исследователей и инженеров, работающих в области ИИ. Среди них топ-менеджеры трех ведущих компаний в области искусственного интеллекта: Сэм Альтман, исполнительный директор OpenAI; Демис Хассабис, исполнительный директор Google DeepMind; и Дарио Амодеи, исполнительный директор Anthropic. Также заявление подписали Джеффри Хинтон и Йошуа Бенжио — двое из трех исследователей, получивших премию Тьюринга за свою новаторскую работу в области нейронных сетей. Их считают «крестными отцами» современного движения ИИ.

Краткость нового заявления Центра безопасности ИИ — всего 22 слова — призвана объединить экспертов в области ИИ, которые могут не согласиться с характером конкретных рисков или шагов по предотвращению этих рисков, но которые разделяют общие опасения по поводу мощных систем искусственного интеллекта. Заявление прозвучало на фоне растущей обеспокоенности по поводу потенциального вреда ИИ. Недавние достижения в больших языковых моделях — ChatGPT и другие чат-боты, — вызвали опасения, что ИИ вскоре может использоваться для распространения дезинформации и пропаганды или что он сократит миллионы рабочих мест.

В мае Альтман, Хассабис и Амодей встретились с президентом Байденом и вице-президентом Камалой Харрис, чтобы обсудить регулирование ИИ. А в недавних показаниях Сенату Альтман предупредил, что риски передовых систем ИИ достаточно серьезны, чтобы оправдать вмешательство правительства, и призвал к регулированию искусственного интеллекта в связи с его потенциальным вредом.

Некоторые скептики утверждают, что технология искусственного интеллекта еще слишком незрела, чтобы представлять угрозу существованию человечества. Беспокойство у них вызывают, скорее, краткосрочные проблемы, например, предвзятые и неправильные ответы, а также придуманные факты. Но другие утверждают, что ИИ совершенствуется так быстро, что уже превзошел человеческий уровень в некоторых областях и скоро превзойдет в других.

Технология уже продемонстрировала признаки продвинутых способностей понимания, что вызывает опасения, что «искусственный общий интеллект», тип искусственного интеллекта, который соответствует или превосходит производительность человека в самых разных задачах, может появиться уже скоро.

В своем блоге на прошлой неделе Альтман и двое других руководителей OpenAI предложили несколько способов ответственного управления мощными системами ИИ. Они призвали к сотрудничеству между ведущими производителями ИИ, дополнительным техническим исследованиям крупных языковых моделей и созданию международной организации по безопасности ИИ, аналогичной Международному агентству по атомной энергии, которая стремится контролировать использование ядерного оружия.

В марте более 1000 специалистов и исследователей подписали открытое письмо, призывающее к шестимесячной паузе в разработке крупнейших моделей ИИ, сославшись на опасения по поводу «неконтролируемой гонки по разработке и развертыванию все более мощных цифровых умов». Это письмо, организованное другой некоммерческой организацией, специализирующейся на искусственном интеллекте, Future of Life Institute, было подписано Илоном Маском и другими известными технологическими лидерами, но на нем не было подписей ведущих лабораторий искусственного интеллекта.