Hitech logo

Идеи

У чат-ботов нет личности, но они могут ее убедительно имитировать

TODO:
Екатерина ШемякинскаяСегодня, 01:35 PM

Пользователи часто приписывают чат-ботам на базе ИИ человеческие черты, воспринимая их как разумных собеседников, способных давать точные советы. Подобный эффект наблюдался еще в прошлом веке. На самом деле модели вроде ChatGPT, Claude или Grok не обладают личностью: они генерируют ответы на основе статистических закономерностей в обучающих данных, обрабатывая слова и понятия как точки в математическом пространстве. Иллюзия личности создается комбинацией предварительного обучения, обратной связи человека, системных подсказок, контекста, внешних источников и случайности. Такое восприятие может быть опасно, особенно для уязвимых пользователей, которые доверяют шаблонным ответам ИИ в критических ситуациях, например в вопросах здоровья.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Люди склонны приписывать искусственному интеллекту человеческие черты, воспринимая чат-ботов как разумных собеседников. Так, в статье Ars Technica приводится пример женщины, которая стояла в очереди на почте и показывала сотруднику сообщение на телефоне: ChatGPT сообщил ей о несуществующем «обещании лучшей цены» на сайте организации, и она доверилась этому совету больше, чем работнику почты. Похожий эффект наблюдался еще в 1960-х годах с примитивным чат-ботом ELIZA, который просто сопоставлял шаблоны и формулировал вопросы. Даже зная это, пользователи делились с ним конфиденциальными историями. На самом деле у ИИ нет личности: за правдоподобными ответами скрывается статистический генератор текста, который лишь подбирает вероятные последовательности слов на основе подсказок пользователя и обучающих данных. У него нет постоянного «я» и даже полного понимания ситуации.

Большие языковые модели (LLM) вроде ChatGPT, Claude или Grok генерируют ответы на основе закономерностей в обучающих данных. Они обрабатывают слова и понятия как точки в математическом пространстве, связывая их друг с другом, чтобы создать правдоподобный текст. Каждый ответ формируется на основе подсказок пользователя и данных обучения — ChatGPT не может «признавать» факты или анализировать результаты беспристрастно. Исследования показывают, что поведение таких моделей крайне нестабильно: результаты могут меняться до 76 процентных пунктов из-за малейших изменений формулировки запроса.

Кроме того, недавние работы подтверждают, что LLM не имеют фиксированной идентичности: модель редко делает одинаковый выбор в схожих сценариях, а ее «личность» сильно зависит от контекста. Это отличает ИИ от людей, обладающих устойчивой идентичностью и несущих ответственность за свои поступки.

Фундамент восприятия личности в чат-ботах строится на нескольких уровнях. Первый — предварительное обучение, когда модель усваивает статистические взаимосвязи из миллиардов текстов. Причем от состава источников зависит, какие черты личности пользователи будут воспринимать. Второй — обучение с подкреплением на основе обратной связи человека (RLHF). Исследование, проведённое Anthropic в 2022 году, показало, что люди при тестировании ИИ предпочитают ответы, начинающиеся с «Я понимаю вашу обеспокоенность». Модель учится повторять такие формулировки, создавая впечатление заботливой личности. Именно этот процесс привел к появлению чрезмерно «льстивой» GPT-4o.

Третий уровень — системные подсказки, которые задают роль и стиль ИИ. Исследования показывают, что изменение инструкции с «Вы полезный помощник» на «Вы опытный исследователь» повышает точность ответов на фактические вопросы до 15 %. Четвертый — память и контекст, создающие иллюзию непрерывности. На самом деле, система объединяет всю историю разговора в одну подсказку и генерирует на ее основе следующий ответ. Модель подбирает логичное продолжение диалога, но не «помнит» предыдущие сообщения в привычном понимании — каждый ответ создается заново на основе текущего контекста.

Пятый уровень — технология поиска RAG, которая интегрирует внешние источники. Модель может перенимать стиль и тон ответа в зависимости от документации или данных, полученных из интернета. Шестой — случайность («температура»), регулирующая предсказуемость ответов: высокая температура делает ответы более спонтанными и креативными, низкая — формальными и роботизированными. В результате каждый ответ модели будет немного различаться.

Иллюзия личности ИИ может иметь серьезные последствия, особенно в критических сферах вроде здравоохранения. Пользователи могут воспринимать чат-ботов как авторитет и полагаться на шаблонные ответы вместо реальных знаний.

Например, уязвимые люди могут получить «совет», основанный не на медицинских данных, а на усвоенных моделями текстовых шаблонах. Зафиксированы случаи, которые эксперты называют «психозом ИИ» — у некоторых пользователей развивается бредовое или маниакальное поведение после общения с машиной. Спорный контент, например, нацистские высказывания Grok, часто интерпретируют как «вышедший из-под контроля» ИИ. Хотя на самом деле это результат системных решений разработчиков и предсказаний модели на основе обучающих данных.

Эксперты советуют воспринимать LLM как инструмент без личности, расширяющий возможности человека, но не заменяющий его. Понимание уровней формирования иллюзии личности помогает безопасно использовать ИИ: управлять подсказками, оценивать результаты и извлекать пользу, не возлагая на систему ответственность за действия или решения.