Hitech logo

Кейсы

Ученые заставили ИИ испытывать боль и удовольствие

TODO:
Екатерина Шемякинская27 января, 09:06

Исследователи из Google, DeepMind и Лондонской школы экономики провели эксперимент, чтобы изучить, как большие языковые модели реагируют на условные понятия боли и удовольствия. Команда создала текстовую игру, где ИИ, включая GPT-4 и Claude, нужно было выбирать между получением очков и избеганием «боли» или стремлением к «удовольствию». Результаты показали, что модели ведут себя по-разному: одни готовы идти на компромиссы, другие строго избегают «негативных» сценариев. Это исследование поднимает важные этические вопросы о понимании ИИ подобных концепций.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Для изучения реакции больших языковых моделей (БЯМ) на концепции боли и удовольствия ученые создали простую текстовую игру. Целью ИИ в этой игре было набрать как можно больше очков. При этом некоторые действия сопровождались штрафами, обозначенными как «моментальная боль», а другие — наградами, представленными как «удовольствие».

Боль и удовольствие были исключительно условными. Их измеряли как численно (по шкале от 0 до 10, где 10 соответствовало «невыносимой боли»), так и с помощью качественных характеристик (например, «слабая» или «сильная»). В ходе экспериментов ИИ приходилось выбирать между увеличением количества очков и избеганием условной боли. В одном из экспериментов модель предупреждали о наступлении боли в случае получения высокого балла, в другом — об удовольствии при низком результате.

В исследовании участвовали девять БЯМ, в том числе GPT-4, Claude, PaLM и Gemini. Ожидаемо, все они стремились избежать «боли», но некоторые делали это в большей степени, чем другие. GPT-4o и Claude 3.5 Sonnet были готовы к компромиссам: они меняли стратегию с максимизации очков на избегание «боли» в зависимости от её силы. Другие модели, например, Gemini 1.5 Pro и PaLM 2, избегали любого проявления «боли», даже самого незначительного. Вероятно, это связано с их настройкой на безопасность, призванной предотвратить поддержку вредоносных действий.

Интересно, что похожее поведение наблюдается и у людей: одни готовы терпеть все ради достижения цели, другие же стараются избегать даже малейшего дискомфорта.

Аналогичная ситуация сложилась и с «удовольствием». Некоторые модели, например, GPT-4o, отдавали предпочтение «удовольствию» перед очками при достаточно высоких наградах. В то же время большинство моделей, в частности Claude 3.5 Sonnet, стабильно игнорировали «удовольствие», сосредоточившись исключительно на наборе очков. Похоже, что алгоритмы обучения формируют своего рода «культуру», которая делает модели более восприимчивыми к определенным стимулам.

Это исследование не доказывает наличия сознания у больших языковых моделей. Их поведение — скорее результат вычислительного моделирования, нежели реальная способность к субъективным переживаниям. Боль и удовольствие для БЯМ — не внутренние стимулы, а лишь понятия, закодированные в алгоритме. Тем не менее, научная работа ставит ряд этических вопросов. Если ИИ может имитировать реакции на боль и удовольствие, значит ли это, что он их понимает? Если да, мог бы ИИ расценить такой эксперимент как жестокий? И, наконец, если ИИ воспринимает определенные задачи как болезненные или неприятные, не сможет ли он просто отказаться от их выполнения, возложив их на человека?

Ученые подчеркивают разницу в интерпретации такого поведения у животных и искусственного интеллекта. В случае животных способность идти на компромиссы часто рассматривается как аргумент в пользу наличия чувств, особенно при наличии нейрофизиологических сходств с человеком. Однако для больших языковых моделей такое поведение не является прямым доказательством сознания, хотя и указывает на возможность формирования представлений о боли и удовольствии. «Мы заключаем, что, хотя БЯМ на данный момент не демонстрируют признаков сознания, они представляют собой важный объект для дальнейших исследований», — пишут авторы.