Hitech logo

Тренды

Чат-боты Google и Microsoft начали ссылаться друг на друга, распространяя фейки

TODO:
Екатерина Шемякинская23 марта 2023 г., 13:19

Поспешный запуск чат-ботов с искусственным интеллектом от крупных компаний вроде Google или Microsoft увеличивает шансы засорить сеть фейками и информационными провокациями. Системы на базе ИИ и раньше выдавали недостоверные сведения, а теперь начали ссылаться на ошибки и придуманные факты друг друга.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

При попытке спросить чат-бот Microsoft Bing, закрыт ли чат-бот Google Bard, он ответил «да», ссылаясь в качестве доказательства на новостную статью с обсуждением твита, в котором пользователь спросил Bard, когда он будет закрыт. Bard на этот вопрос ответил, что он уже закрыт, ссылаясь на комментарий от Hacker News, в котором некий пользователь пошутил об этом, а кто-то другой использовал ChatGPT, чтобы написать фальшивые новости о закрытии.

Через какое-то время чат-бот Microsoft Bing исправил свою ошибку. Это можно интерпретировать как демонстрацию возможности быстрой корректировки генеративного ИИ. Или как подтверждение, что системы на базе ИИ настолько изменчивы, что их ошибки становятся «нормой».

Эта путанница доказывает, что искусственный интеллект продуцирует дезинформацию: чат-боты не могут оценить надежные источники новостей, неправильно интерпретируют истории о себе и неверно сообщают о собственных возможностях. В данном случае все началось из-за одного шутливого комментария на Hacker News. Какие могут быть последствия при продуманной и преднамеренной попытке вывести чат-боты из строя (адекватности), остается только гадать.

Эта ситуация кажется забавной, но потенциально имеет серьезные последствия. Учитывая неспособность языковых моделей ИИ надежно отличать факты от вымысла, открытие к ним свободного доступа грозит возникновением лавины дезинформации и недоверия, информационных провокаций, которые невозможно полностью подтвердить или опровергнуть. И все потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.

Крупные игроки могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, говоря, что они являются «экспериментами», «совместными усилиями» и определенно не поисковыми системами, но это не защищает реальность от злонамеренного использования новых мощных инструментов для достижения криминальных или деструктивных целей. Уже описано множество случаев распространения фейков со стороны ИИ. А теперь, когда чат-боты «списывают» друг у друга ошибки, дезинформации может стать только больше, полагают эксперты.