Hitech logo

Искусственный интеллект

Ученые требуют немедленных действий по ограничению языковых моделей ИИ

TODO:
Георгий Голованов10 февраля 2021 г., 17:19

В прошлом году разработчики из OpenAI и Центра искусственного интеллекта Стэнфордского университета обсудили вопросы создания и применения больших языковых моделей вроде GPT-3. Специалисты в области информатики, лингвистики, философии, политологии и социологии постарались определить, каковы технические ограничения языковых моделей, и какое воздействие они оказывают на общество.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В статье, опубликованной на днях на сайте arXiv.org, авторы собрали мнения участников октябрьской конференции и высказались за то, чтобы как можно скорее дать ответы на поставленные вопросы.

Масштабные языковые модели вроде GPT-3, созданной OpenAI, или появившейся в конце 2020 еще более крупной модели Google обучаются при помощи громадного объема текстов, собранных с ресурсов вроде Reddit или Wikipedia. В результате в них проникает предвзятость против различных групп, включая женщин и людей с ограниченными возможностями. К примеру, GPT-3 имеет весьма нелицеприятное мнение о чернокожих и считает, что все мусульмане террористы. Также большие модели усиливают распространение дезинформации, пишет Venture Beat.

По мнению ряда авторов, применение таких моделей оказывает неблагоприятное воздействие на общество, причем в большей мере — на маргинализированные сообщества. И если такие инструменты попадут в руки бизнеса, это будет иметь негативные и опасные последствия.

В качестве рекомендации участники предложили разработать законы, требующие от компаний сообщать, когда текст сгенерирован ИИ — по аналогии с калифорнийским законом о чатботах, предписывающим им оповещать людей, что они говорят с машиной. Среди других предложений:

  • обучение специальной модели, которая будет работать фильтром для контента, создаваемого языковой моделью;
  • разработка набора тестов на предвзятость, которые должна будет проходить языковая модель прежде, чем будет готова к открытой работе.
  • В 2018 компания Accenture представила первый алгоритм для анализа того, насколько справедливо выносят вердикты ИИ-алгоритмы. При этом разработчики признаются, что они не нашли «волшебную кнопку, способную научить ИИ справедливости».