Hitech logo

Кейсы

OpenAI представила модель CriticGPT для исправления ошибок GPT-4

TODO:
Екатерина Смирнова28 июня, 09:15

Исследователи OpenAI разработали CriticGPT — новую модель искусственного интеллекта, предназначенную для обнаружения ошибок в коде, генерируемом ChatGPT. Она помогает тренерам-людям в процессе проверки и оценки кода, повышая точность и эффективность. CriticGPT обучалась на наборе данных с образцами кода, содержащими недочеты, что позволяет ей распознавать и помечать разные типы ошибок программирования. В 63% случаев с естественными ошибками модель превзошла людей в точности оценки. Новый инструмент снижает количество ложных срабатываний и помогает писать более полные отчеты об ошибках.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

OpenAI создала CriticGPT в качестве помощника ИИ для тренеров-людей, которые проверяют программный код, сгенерированный ChatGPT. CriticGPT, основанная на семействе больших языковых моделей GPT-4, анализирует код и указывает на потенциальные ошибки. Таким образом, людям проще обнаружить недочеты, которые иначе могли бы остаться незамеченными.

Исследователи обнаружили, что в 63% случаев с естественными ошибками больших языковых моделей аннотаторы предпочли замечания CriticGPT замечаниям людей. Это предпочтение отчасти объясняется тем, что CriticGPT реже выдавал бесполезные «мелкие замечания» и генерировал меньше ложных срабатываний, то есть выдуманных проблем. Кроме того, команды, состоящие из людей и CriticGPT, писали более полные отчеты об ошибках по сравнению с работой только людей. При этом использование CriticGPT совместно с людьми позволило снизить уровень галлюцинаций по сравнению с работой только CriticGPT.

Разработка CriticGPT включала обучение модели на большом количестве данных, в которые вносились ошибки. Экспертов попросили модифицировать код, написанный ChatGPT, внося ошибки, а затем предоставлять примеры обратной связи, как будто они сами обнаружили эти недочеты. Этот процесс позволил модели научиться выявлять и критиковать различные типы ошибок кодирования.

В ходе экспериментов CriticGPT продемонстрировала способность обнаруживать как преднамеренно внедренные ошибки, так и естественные ошибки в выходных данных ChatGPT.

Исследователи также разработали новую технику под названием Force Sampling Beam Search (FSBS). Этот метод помогает CriticGPT писать более подробные отчеты об ошибках в коде. Исследователи могут регулировать, насколько тщательно CriticGPT ищет проблемы, а также контролировать, как часто он может придумывать несуществующие ошибки. Этот баланс можно настраивать в зависимости от конкретных задач обучения ИИ.

Интересно, что возможности CriticGPT выходят за рамки простого анализа кода. В своих экспериментах ученые применили модель к подмножеству обучающих данных ChatGPT, которые ранее были оценены людьми-аннотаторами как безупречные. CriticGPT выявил ошибки в 24% случаев, которые впоследствии подтвердились экспертами.

В OpenAI полагают, что это демонстрирует потенциал модели переносить знания на задачи, не связанные с кодом, и подчеркивает ее способность обнаруживать тонкие ошибки, которые могут остаться незамеченными даже при тщательной человеческой оценке.

Несмотря на обнадеживающие результаты, у CriticGPT есть ограничения. Модель обучалась на относительно коротких ответах ChatGPT, что может оказаться недостаточным для оценки более длинных и сложных задач, которые предстоит решать будущим системам ИИ. Хотя CriticGPT и снижает количество ложных срабатываний, полностью устранить их не удается. Тренеры-люди все равно могут ошибаться в маркировке на основе этих ложных результатов. Наконец, CriticGPT наиболее эффективен при обнаружении ошибок, локализованных в определенной точке кода. Однако на деле ошибки в выходных данных ИИ часто распределены по нескольким частям ответа, что представляет собой проблему для будущих версий модели.

OpenAI планирует использовать модели, подобные CriticGPT, для помощи своим тренерам в оценке выходных данных больших языковых моделей. Это позволит улучшить инструменты оценки, но даже с помощью ИИ сложные задачи могут быть проблемой для людей.