Hitech logo

Идеи

Юмор и эмпатия ChatGPT — всего лишь языковой трюк

TODO:
Дарина Житова2 декабря, 18:27

Большие языковые модели, такие как ChatGPT, способны имитировать человеческие эмоции, включая юмор и сочувствие. Однако, как отмечают эксперты, это всего лишь результат алгоритмической обработки языка, а не настоящая эмоциональная реакция. В издании ZME Science рассказали, какие уловки разработчиков помогают БЯМ казаться более человечными.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Эти системы используют сложные алгоритмы, чтобы анализировать и воспроизводить человеческую речь. Например, для создания иллюзии эмпатии модели выбирают слова и фразы, которые вызывают у пользователей ощущение поддержки. Фразы вроде «Это сложный вопрос, но вот несколько идей» демонстрируют якобы личное участие, хотя на самом деле все это заранее запрограммированные ответы.

Ключевую роль в имитации «человечности» играет использование местоимений. Когда модель говорит «я думаю» или «вот мои идеи», она создает впечатление, что обладает собственным мнением. В реальности это лишь стилистический прием, который усиливает вовлеченность пользователя в разговор.

Также важным элементом является обращение к пользователю на «вы» или «твой». Например, в ответах вроде «Вот как вы можете справиться с этой задачей» модель напрямую обращается к человеку, создавая впечатление персонализированной помощи. Это помогает пользователям чувствовать, что их понимают и поддерживают.

Однако настоящих эмоций за этими словами нет. Эмпатия в исполнении чат-ботов базируется на обработке данных о человеческой речи и использовании шаблонов, которые вызывают желаемую реакцию у собеседника. Такие иллюзии могут быть полезны, например, в сфере образования или обслуживания клиентов, но они также могут формировать ложные ожидания от технологий.

По мере развития этих систем границы между общением с человеком и машиной становятся все менее заметными. Например, в общении с ChatGPT многие пользователи могут не осознавать, что взаимодействуют с алгоритмом, а не с живым человеком.

Кроме того, привычка к «идеальным» беседам с чат-ботами может изменить ожидания в отношениях с реальными людьми. Учитывая, что общение между людьми включает эмоции и недоразумения, пользователи могут терять терпимость к сложностям человеческого взаимодействия.

Развитие технологий, имитирующих человеческие черты, вызывает серьезные философские вопросы. Например, стоит ли наделять машины правами и рассматривать их как полноправных участников общества.

Ученые предупреждают: несмотря на все преимущества, важно помнить, что за кажущейся человечностью чат-ботов скрывается только алгоритм, обученный имитировать эмоции. Эти технологии удобны и эффективны, но они не заменят подлинного человеческого общения.