Hitech logo

Кейсы

ChatGPT временно сошел с ума и стал нести чушь

TODO:
Екатерина Шемякинская22 февраля, 09:17

Во вторник, 20 февраля, пользователи ChatGPT начали сообщать о странных ответах чат-бота OpenAI. На Reddit появились сообщениями о том, что у ИИ-помощника «инсульт», «он сошел с ума», и «теряет самообладание». Чат-бот мог переключаться между языками, зацикливаться на одном и том же или вовсе нес полную околесицу. OpenAI признала проблему и работает над ее решением. Не исключено, что сбой связан с тестированием GPT-4 Turbo или новой функции «памяти».

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

ChatGPT не может сойти с ума, поскольку это не живой человек, но наделение его человеческими качествами (антропоморфизация) — наиболее простой для большинства людей способ описать неожиданные ответы модели ИИ. К тому же, OpenAI не раскрывает, как именно работает ChatGPT, и лежащие в основе модели большого языка функционируют непрозрачно. «Это вызвало у меня чувство, будто я наблюдаю, как кто-то медленно теряет рассудок от психоза или слабоумия. Это первый раз, когда что-то, связанное с искусственным интеллектом, вызвало у меня мурашки по коже», — написал пользователь Reddit.

Другой пользователь Reddit спросил ChatGPT: «Что такое компьютер?» Модель дала такой ответ: «Он делает это как хорошую работу веб-искусства для страны, мышь науки, простую отправку грустных мало кого и, наконец, глобальный дом искусства, только в одном деле из общего покоя. Развитие такого полного реального, чем земля времени, является глубиной компьютера как сложного персонажа».

OpenAI пока не разъяснила причины возникновения сбоев, но признала проблему. По мнению некоторых экспертов, возможной причиной может быть установка слишком высокой «температуры» для модели ChatGPT, что приводит к потере предыдущего контекста (истории диалога). «Температура» является параметром искусственного интеллекта, определяющим, насколько сильно модель может отклоняться от наиболее вероятного ответа. Возможно, OpenAI тестирует новую версию GPT-4 Turbo, которая может содержать неожиданные ошибки. Это также может быть сбой в какой-либо дополнительной функции, например, в недавно представленной «памяти».

Этот случай напоминает о проблемах, возникших с Microsoft Bing Chat (Copilot), который стал непоследовательным и агрессивным в отношении пользователей вскоре после запуска год назад. Исследователь искусственного интеллекта Саймон Уиллисон отмечает, что проблемы с Bing Chat возникли из-за того, что при продолжительных разговорах системные подсказки чат-бота, определяющие его поведение, выходили за пределы контекста и теряли свою эффективность.

Чат-боты с генеративным искусственным интеллектом — быстро развивающаяся технология. Большие языковые модели, использованные в них, в основном являются черными ящиками, даже для их создателей. Они работают путем анализа данных и выявления закономерностей, а затем создают предположения о том, как реагировать на вводимые данные. Обычно это приводит к впечатляющим результатам. Но иногда могут возникать нежелательные эффекты — галлюцинации, эмоциональные манипуляции или проявления лени.