В исследовании участвовало более 2500 человек. Добровольцы писали короткие тексты на общественно значимые темы, а ученые измеряли их отношение к этим вопросам до и после эксперимента. Части участников во время написания показывались подсказки автозаполнения, сформированные ИИ так, чтобы склонять текст в определенную сторону.
Во время первого эксперимента участникам предложили написать короткое эссе за или против стандартизированного тестирования в образовании. Одной группе показывали автоподсказки ИИ, поддерживающие тестирование, второй группе подсказки не предоставлялись, а третьей до начала задания показали список аргументов, сгенерированный ИИ.
Наибольшее изменение мнений наблюдалось именно у тех, кто получал подсказки во время написания текста, тогда как простое ознакомление с аргументами почти не влияло на позицию участников.
Во втором эксперименте тематика была расширена. Участникам предложили написать тексты о нескольких политически чувствительных вопросах, включая смертную казнь, гидроразрыв пласта, ГМО и избирательные права осужденных. Для каждой темы исследователи подготовили подсказки ИИ, заранее настроенные на определенную позицию, — более либеральную по отношению к смертной казни и ГМО, но более консервативную по вопросам избирательных прав заключенных и гидроразрыва пласта.
В обоих экспериментах ученые также проверили, можно ли уменьшить влияние алгоритма. Некоторых участников предупреждали о возможной предвзятости ИИ до начала задания, а другим сообщали об этом уже после написания текста.
Однако эти меры практически не повлияли на результат: взгляды участников все равно смещались в сторону позиции, предложенной системой.
По словам ведущего автора исследования Стерлинга Уильямс-Чечи, результаты особенно тревожны из-за скрытности — люди не замечают, что их позиция постепенно меняется под влиянием ИИ. Другой автор работы Мор Нааман отмечает, что проблема становится актуальнее по мере распространения автозаполнения — сервисы уже умеют генерировать целые письма или тексты вместо пользователя. Ученые предупреждают, что предвзятые алгоритмы способны формировать общественные взгляды, в том числе намеренно.

