Hitech logo

Искусственный интеллект

Илон Маск и более 1300 экспертов призвали приостановить разработку ИИ

TODO:
Георгий Голованов30 марта 2023 г., 09:13

Свыше 1300 специалистов в области искусственного интеллекта и информационных технологий — а также Илон Маск — подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GTP-4 из-за «значительных рисков для общества и человечества». В воззвании, опубликованном некоммерческим Институтом будущего жизни, говорится, что многие команды исследователей ИИ вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто — даже их создатели — не способны понять, предсказать или уверенно контролировать».

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Поэтому мы призываем все ИИ-лаборатории немедленно прекратить как минимум на шесть месяцев обучение систем ИИ, мощность которых превышает GTP-4, — говорится в письме. — Эта пауза должна быть публичной и проверяемой, охватывать всех ключевых фигур. Если эта мера не будет введена быстро, правительства должны вмешаться и ввести мораторий».

Среди подписавших петицию Стив Возняк, Йошуа Бенжио, Гэри Маркус, Стюарт Рассел, Эмад Мостак, Яан Таллинн, Юваль Харари, Эндрю Ян и Илон Маск. Полный список можно увидеть тут, однако издание Verge предупреждает, что некоторые имена добавлены в список явно в виде шутки — например, имя Сэма Альтмана, руководителя OpenAI, частично ответственного за нынешнюю гонку генеративных моделей.

Учитывая стремление Google, Microsoft и Baidu как можно скорее вывести на рынок новые ИИ-продукты в обход конкурентов, невзирая на декларированную ранее приверженность безопасности и этике, обращение едва ли возымеет должный эффект. Однако оно является признаком растущей оппозиции принятому подходу «отправим сейчас, исправим потом». Эта оппозиция может со временем убедить законодателей принят соответствующие правила.

Как отмечается в письме, даже OpenAI заявляла о необходимости «независимого контроля» над будущими системами ИИ, которые должны соответствовать стандартам безопасности. Подписавшие утверждают, что это время пришло.

«ИИ-лаборатории и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов для проектирования и разработки передового ИИ, который был бы открыт для тщательной проверки и надзора сторонними экспертами. Эти протоколы должны гарантировать, что системы, которые им следуют, безопасны вне всяких сомнений», — говорится в документе.

Появление дешевых и мощных генеративных моделей вроде GPT уже начинается. В Стэнфордском университете создали доступный аналог ChatGPT. ИИ Alpaca по многим параметрам не уступает нашумевшему ChatGPT, но создан на языковой модели с открытым кодом, а его обучение стоит менее $600.