При попытке спросить чат-бот Microsoft Bing, закрыт ли чат-бот Google Bard, он ответил «да», ссылаясь в качестве доказательства на новостную статью с обсуждением твита, в котором пользователь спросил Bard, когда он будет закрыт. Bard на этот вопрос ответил, что он уже закрыт, ссылаясь на комментарий от Hacker News, в котором некий пользователь пошутил об этом, а кто-то другой использовал ChatGPT, чтобы написать фальшивые новости о закрытии.
Через какое-то время чат-бот Microsoft Bing исправил свою ошибку. Это можно интерпретировать как демонстрацию возможности быстрой корректировки генеративного ИИ. Или как подтверждение, что системы на базе ИИ настолько изменчивы, что их ошибки становятся «нормой».
Эта путанница доказывает, что искусственный интеллект продуцирует дезинформацию: чат-боты не могут оценить надежные источники новостей, неправильно интерпретируют истории о себе и неверно сообщают о собственных возможностях. В данном случае все началось из-за одного шутливого комментария на Hacker News. Какие могут быть последствия при продуманной и преднамеренной попытке вывести чат-боты из строя (адекватности), остается только гадать.
Эта ситуация кажется забавной, но потенциально имеет серьезные последствия. Учитывая неспособность языковых моделей ИИ надежно отличать факты от вымысла, открытие к ним свободного доступа грозит возникновением лавины дезинформации и недоверия, информационных провокаций, которые невозможно полностью подтвердить или опровергнуть. И все потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.
Крупные игроки могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, говоря, что они являются «экспериментами», «совместными усилиями» и определенно не поисковыми системами, но это не защищает реальность от злонамеренного использования новых мощных инструментов для достижения криминальных или деструктивных целей. Уже описано множество случаев распространения фейков со стороны ИИ. А теперь, когда чат-боты «списывают» друг у друга ошибки, дезинформации может стать только больше, полагают эксперты.