В статье, опубликованной на днях на сайте arXiv.org, авторы собрали мнения участников октябрьской конференции и высказались за то, чтобы как можно скорее дать ответы на поставленные вопросы.
Масштабные языковые модели вроде GPT-3, созданной OpenAI, или появившейся в конце 2020 еще более крупной модели Google обучаются при помощи громадного объема текстов, собранных с ресурсов вроде Reddit или Wikipedia. В результате в них проникает предвзятость против различных групп, включая женщин и людей с ограниченными возможностями. К примеру, GPT-3 имеет весьма нелицеприятное мнение о чернокожих и считает, что все мусульмане террористы. Также большие модели усиливают распространение дезинформации, пишет Venture Beat.
По мнению ряда авторов, применение таких моделей оказывает неблагоприятное воздействие на общество, причем в большей мере — на маргинализированные сообщества. И если такие инструменты попадут в руки бизнеса, это будет иметь негативные и опасные последствия.
В качестве рекомендации участники предложили разработать законы, требующие от компаний сообщать, когда текст сгенерирован ИИ — по аналогии с калифорнийским законом о чатботах, предписывающим им оповещать людей, что они говорят с машиной. Среди других предложений:
В 2018 компания Accenture представила первый алгоритм для анализа того, насколько справедливо выносят вердикты ИИ-алгоритмы. При этом разработчики признаются, что они не нашли «волшебную кнопку, способную научить ИИ справедливости».