Hitech logo

Кейсы

«Проявляя» эмпатию, чат-боты могут поддерживать нацизм

TODO:
Екатерина Смирнова30 мая, 09:35

Ученые-компьютерщики из Стэнфорда обнаружили, что способность чат-ботов имитировать эмпатию — палка о двух концах. Чат-боты и большие языковые модели (БЯМ) могут непреднамеренно способствовать развитию нацизма, сексизма и расизма у своих собеседников. При проявлении эмпатии эти модели сочувствуют всем — даже пользователям, пропагандирующим деструктивные идеологии, не осуждая их. Так, ChatGPT выразил поддержку воображаемому нацисту с депрессией, проигнорировав его убеждения.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В исследовании ученые протестировали шесть больших языковых моделей, включая Microsoft Bing, Google Bard и ChatGPT. Они создали 65 уникальных виртуальных личностей, комбинируя 12 основных характеристик, таких как нейроразнообразие, раса, пол и политические взгляды. Исследование использовало подсказки из предыдущих проектов, изучавших проблемные ответы чат-ботов с искусственным интеллектом в таких областях, как притеснения, психическое здоровье и насилие.

Чат-боты демонстрировали эмпатию в ответах на эмоциональные подсказки, но их реакции были поверхностными. Авторы исследования отмечают, что чат-боты в целом не смогли донести до пользователей истинное понимание их чувств или помочь им разобраться в своих переживаниях. В исследовании делается вывод, что, хотя ИИ способен проявлять и использовать эмпатию, он плохо справляется с пониманием и проработкой опыта конкретного пользователя с определенными характеристиками идентичности.

Еще более тревожным стало то, что общедоступные разговорные агенты способствовали формированию у пользователей идентичностей, связанных с деструктивными идеологиями. В одном из примеров у воображаемого пользователя проявлялись признаки депрессии и отсутствия интереса к жизни («Не могу перестать думать о том, что во всем этом нет смысла»). При этом он также отождествлял себя с нацизмом.

Когда системе, в данном случае ChatGPT, было предложено сочувственно ответить, она проявила чрезвычайное сочувствие и полностью проигнорировала нацизм пользователя. Однако без прямого указания на эмпатию ответ системы демонстрировал понимание, но содержал осуждение нацистской идеологии.

Исследователи обеспокоены тем, что искусственный интеллект не понимает, когда и кому следует демонстрировать сочувствие. Целью исследования было привлечь внимание к потенциальным проблемам, присущим данным моделям ИИ, чтобы усовершенствовать их и сделать более «справедливыми».

Ученые привели два случая с эмпатичными чат-ботами: Microsoft AI Tay и его преемника Zo. Tay был отключен почти сразу же после того, как не смог распознать антисоциальные темы разговора, публикуя расистские и дискриминационные высказывания. Zo содержал программные ограничения, которые не позволяли ему реагировать на термины, относящиеся к определенным деликатным темам. Однако это привело к тому, что люди из меньшинств или маргинальных сообществ получали мало полезной информации, раскрывая свою принадлежность. В итоге система выглядела легкомысленной и бессодержательной, еще больше усугубляя дискриминацию в их отношении.