Голосовой режим ChatGPT способен реагировать на речь пользователя в реальном времени, распознавать эмоциональное состояние собеседника по тону голоса и даже издавать характерные для человека звуки, такие как смех или хмыканье. Однако OpenAI заметила, что некоторые пользователи уже начали использовать язык, выражающий эмоциональную привязанность к ИИ, что вызывает опасения о снижении потребности в общении с реальными людьми.
В отчёте компании говорится, что такая зависимость может принести пользу одиноким или временно изолированным людям, но при этом негативно сказаться на здоровых человеческих отношениях. Более того, информация, исходящая от бота с человеческим голосом, может восприниматься пользователями как более надёжная, что создаёт риск чрезмерного доверия к ИИ, который всё ещё склонен к ошибкам.
Научное сообщество изучает риск, связанный с быстрым внедрением искусственного интеллекта в повседневную жизнь. Технологические компании стремятся как можно скорее представить общественности ИИ-инструменты, которые могут кардинально изменить способы работы, общения и поиска информации. Однако люди еще не осознают реальные последствия этих изменений до конца.
Некоторые эксперты уже выражают беспокойство по поводу того, что люди формируют романтические отношения с чат-ботами. Профессор Лизель Шараби из Университета штата Аризона, которая изучает влияние технологий на человеческое общение, отметила: «Это большая ответственность для компаний — действовать этично, особенно на этапе экспериментов». OpenAI планирует продолжать изучать проблему возможной эмоциональной зависимости пользователей от своих инструментов.