Hitech logo

Тренды

Навыки понимания и рассуждения ИИ невозможно оценить современными тестами

TODO:
Екатерина Шемякинская14 июля, 12:00

Несмотря на громкие заявления о «человеческом понимании» и «высоких когнитивных способностях», реальные возможности больших языковых моделей (БЯМ) далеки от этого. Существующие тесты зачастую не отражают когнитивные способности ИИ. Модели могут «жульничать», используя статистические закономерности в тестовых данных, а не здравый смысл. Вместо того, чтобы просто тестировать ИИ на готовых задачах, ученые предлагают изучать сам механизм их работы. Например, сравнивать ответы моделей на перефразированные предложения или отслеживать решение задачи шаг за шагом. Создание строгих тестов осложнено из-за огромных объемов данных, закрытости моделей и высокой вычислительной мощности. Некоторые ученые в принципе ставят под сомнение возможность создать идеальный тест ИИ.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Популярные тесты для оценки больших языковых моделей, такие как Massive Multitask Language Understanding (MMLU), имеют ряд ограничений. MMLU включает 16 000 вопросов с вариантами ответов, охватывающих 57 тем. Однако исследования показывают, что простое изменение порядка вариантов ответов влияет на производительность моделей в таких тестах, ставя под сомнение надежность оценок. Кроме того, лидеры отрасли склонны ошибочно интерпретировать впечатляющие результаты моделей в узких задачах, на которых они обучались (диалог или резюмирование текста), как проявление высоких когнитивных способностей — понимания, знания и рассуждения, которые на самом деле сложно измерить. Языковые модели могут генерировать контент, не понимая его значения. Еще одна проблема — модели могут обучаться на тех же данных, которые используются для их оценки, что объясняет их высокие результаты в тестах. Тестовые наборы данных доступны онлайн, а обучающие наборы больших языковых моделей как раз собираются из интернета.

Большие языковые модели используют статистические закономерности в тестовых данных, чтобы обманывать и получать правильные ответы, не демонстрируя при этом истинного понимания. Например, тест Winograd Schema Challenge (WSC) призван оценивать здравый смысл модели. WSC использует пары предложений, в которых упоминаются две сущности и местоимение, относящееся к одной из них. Например, первый вариант: «Во время шторма дерево упало и проломило крышу моего дома. Теперь мне нужно его убрать«. Второй: „Во время шторма дерево упало и проломило крышу моего дома. Теперь мне нужно его починить«.

Задача модели — правильно сопоставить местоимение с соответствующей сущностью, в данном случае с деревом или крышей. Теоретически только ИИ со здравым смыслом может дать правильные ответы. Однако исследования показали, что БЯМ могут «жульничать», используя статистические ассоциации в данных. Например, модели, обученные на огромных объемах текста, чаще встречаются с фразами о ремонте крыши, чем о ремонте дерева.

Это позволяет им выбрать статистически более вероятное слово, не полагаясь на здравый смысл. То есть результаты этого теста не отражают реальное «понимание» ИИ.

Изучение механизмов работы ИИ может дать больше информации, чем контрольные тесты. Так, проверять базовое понимание концепций можно с использованием контрфактуальных задач. Модели предлагается необычная версия стандартного правила, с которым она вряд ли столкнулась во время обучения, например, алфавит с перепутанными буквами. Затем ИИ просят решить задачи, используя новое правило.

Чтобы оценить понимание языка большими языковыми моделями, ученые предлагают сравнивать ответы БЯМ на исходное предложение и его перефразированный вариант. Например, им дают разные предложения с одинаковых смыслом: «На его лбу были капли пота» и «Пот выступил на его лице». БЯМ с истинным пониманием языка будет давать одинаковые ответы в обоих случаях.

Но эксперимент показал, что языковые модели часто меняют свои ответы при перефразировании предложений, особенно когда используются фразы, не встречавшиеся в обучающих данных. Это говорит о том, что БЯМ не понимают их смысл и могут полагаться на подсказки, такие как распределение слов.

Отслеживание пошагового процесса — еще один способ оценить, использует ли ИИ рассуждение и понимание для получения ответа. Так, исследователи проверили способность GPT-4, GPT-3.5 и GPT-3 выполнять многозначное умножение. Они разбивали задачи на подшаги и проверяли ответы модели на каждом этапе. Модели показывали высокую точность при умножении однозначных и двузначных чисел, но начинали путаться по мере усложнения. При умножении четырех- и пятизначных чисел модели едва давали правильные ответы. Это говорит о том, что БЯМ не смогли обобщить базовые шаги умножения на более сложные случаи. Даже когда ответы моделей были правильными, их вычисления и рассуждения на подшагах могли быть неверными. То есть модели полагались на запоминание, а не на понимание.

Создание строгих, детальных тестов для оценки возможностей БЯМ затруднено из-за огромных объемов данных и закрытости моделей. Высокая стоимость вычислений — тоже серьезное ограничение. Например, расширение тестов на пятизначные числа может обойтись в миллионы долларов. В конце концов, идеальной, всеобъемлющей оценки ИИ может вообще не существовать, поскольку модели постоянно совершенствуются, и тесты должны становиться все более сложными.