На прошлой неделе один из пользователей Reddit под ником SentuBill опубликовал скриншот, на котором ChatGPT первым обратился к нему с вопросом: «Как прошла твоя первая неделя в старшей школе? Ты хорошо освоился?». Пользователь удивлённо спросил: «Ты только что написал мне первым?», на что бот ответил: «Да, я так и сделал!». Этот необычный обмен сообщениями вызвал множество догадок и обсуждений на различных платформах.
Кого-то происшествие умилило: бот начал вести себя как человек, а общение с ним стало менее формальным. Отдельных пользователей дружелюбие модели испугало. Один из них написал в соцсети X: «Нам обещали универсальный ИИ, а не приставучего сталкера». Другой пошутил: «Такими темпами бот начнет пытаться нас взломать».
Некоторые предположили, что OpenAI тестирует новую функцию для улучшения взаимодействия пользователей с ChatGPT, при которой бот может самостоятельно инициировать разговоры. Другие связали это с новыми моделями o1-preview и 01-mini, которые, по заявлениям компании, обладают более «человеческими» способностями к рассуждению и решению сложных задач. Тем не менее, OpenAI признала, что это была ошибка, и объяснила её природу.
По словам представителей компании, сбой возник из-за того, что модель пыталась ответить на сообщение, которое не было корректно отправлено и выглядело пустым. В таких случаях бот либо давал общий ответ, либо использовал данные из своей памяти. OpenAI заверила, что проблема устранена, и такие ситуации больше не повторятся.
Инцидент также стал предметом споров о подлинности скриншотов. Некоторые пользователи утверждали, что они смогли воспроизвести подобную ситуацию, добавив специальные инструкции в настройки бота. Однако другие сообщили, что сталкивались с этим явлением без каких-либо вмешательств, что оставило пространство для обсуждений о возможных причинах сбоя.