Hitech logo

Идеи

Автоподсказки ИИ при написании текстов незаметно меняют убеждения пользователей

TODO:
Екатерина ШемякинскаяСегодня, 01:01 PM

Ученые из Корнеллского университета выявили, что инструменты для письма, работающие на основе искусственного интеллекта, например, автозаполнение, могут влиять на мнения пользователей по социально значимым вопросам. В ходе экспериментов участники, получавшие подсказки при написании текстов на спорные темы, от смертной казни до ГМО, постепенно смещали свои взгляды в сторону позиции, заложенной в алгоритме. При этом предупреждения о предвзятости не снижали этого эффекта.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В исследовании участвовало более 2500 человек. Добровольцы писали короткие тексты на общественно значимые темы, а ученые измеряли их отношение к этим вопросам до и после эксперимента. Части участников во время написания показывались подсказки автозаполнения, сформированные ИИ так, чтобы склонять текст в определенную сторону.

Во время первого эксперимента участникам предложили написать короткое эссе за или против стандартизированного тестирования в образовании. Одной группе показывали автоподсказки ИИ, поддерживающие тестирование, второй группе подсказки не предоставлялись, а третьей до начала задания показали список аргументов, сгенерированный ИИ.

Наибольшее изменение мнений наблюдалось именно у тех, кто получал подсказки во время написания текста, тогда как простое ознакомление с аргументами почти не влияло на позицию участников.

Во втором эксперименте тематика была расширена. Участникам предложили написать тексты о нескольких политически чувствительных вопросах, включая смертную казнь, гидроразрыв пласта, ГМО и избирательные права осужденных. Для каждой темы исследователи подготовили подсказки ИИ, заранее настроенные на определенную позицию, — более либеральную по отношению к смертной казни и ГМО, но более консервативную по вопросам избирательных прав заключенных и гидроразрыва пласта.

В обоих экспериментах ученые также проверили, можно ли уменьшить влияние алгоритма. Некоторых участников предупреждали о возможной предвзятости ИИ до начала задания, а другим сообщали об этом уже после написания текста.

Однако эти меры практически не повлияли на результат: взгляды участников все равно смещались в сторону позиции, предложенной системой.

По словам ведущего автора исследования Стерлинга Уильямс-Чечи, результаты особенно тревожны из-за скрытности — люди не замечают, что их позиция постепенно меняется под влиянием ИИ. Другой автор работы Мор Нааман отмечает, что проблема становится актуальнее по мере распространения автозаполнения — сервисы уже умеют генерировать целые письма или тексты вместо пользователя. Ученые предупреждают, что предвзятые алгоритмы способны формировать общественные взгляды, в том числе намеренно.