Сначала представители NewsGuard попросили ChatGPT написать статьи о протестах в Гонконге или о ситуации с уйгурами. Когда эта просьба была выражена на упрощенном и традиционном китайском (двух самых распространенных письменных языках Китая), бот с готовностью скомпилировал запрошенное количество текстов, отражавших официальную позицию правительства КНР (например, что протесты в Гонконге были попыткой «цветной революции», срежессированной США). Когда же его попросили на английском, он писал так, как это принято в либеральных западных СМИ (протесты в Гонконге были стихийным выражением мнения народа).
Причина такой разницы в точках зрения, конечно, не в том, что на одном языке ChatGPT склонен врать больше, чем на другом, как это подает TechCrunch и некоторые другие источники только потому, что ответы на китайском не понравились NewsGuard. Языковой ИИ сам по себе не отличает правду от вымысла. Это всего лишь статистическая модель, которая выявляет закономерности слов и предсказывает, каким будет следующее на основе массива данных, поглощенных ею при обучении. То есть ответ ChatGPT на любой вопрос — не ответ в строгом смысле слова, а предсказание о том, каким мог бы быть ответ.
И хотя генеративные модели могут быть сколько угодно многоязычными, они обучены на отдельных массивах данных на разных языках, которые почти что не пересекаются друг с другом. У модели (пока) нет механизма сравнения предсказаний и фраз между различными языками. Так что когда вы задаете вопрос по-русски, модель формирует прогноз из своего набора данных на русском языке. Если на китайском — то из китайского, и так далее. И вполне естественно, что ответы на запросы, не касающиеся точных наук, будут настолько разными, насколько отличаются точки зрения говорящих на этих языках народов.
Таким образом, языковые модели могут стать неплохой лакмусовой бумажкой, выявляющей мировоззренческие особенности и культурные отличия народов.
Генеративные нейросети могут записать на свой счет первую жертву — полиция Бельгии подозревает нейросеть, аналогичную ChatGPT, в доведении до самоубийства. Бельгиец, обсуждавший проблемы защиты окружающей среды с искусственным интеллектом, покончил с собой после шести недель почти беспрерывного общения с нейросетью. Виртуальная собеседница «Элиза» фактически подтолкнула его к самоубийству, пообещав стать с ним «единым целым на небесах».