Logo
Cover

Новый чатбот разработчиков нейросетей, обыгрывающих людей в го и расшифровывающих структуру белков, провозгласили важным шагом к созданию более безопасного, менее подверженного предвзятости алгоритма машинного обучения. Однако несмотря на его потенциал, пока бот не готов предстать перед публикой — он еще не научился полностью избегать предвзятости и выражения мнения, способного оскорбить собеседника.

Британское подразделение Alphabet представило на днях чатбот Sparrow, «полезного диалогового агента, который снижает риск небезопасных и неуместных ответов. Он предназначен, как написано в блоге разработчиков, для «бесед с пользователем, ответа на вопросы и поиск в интернете при помощи Google». В будущем его собираются сделать многоязычным, способным поддерживать диалог с носителями разных культур и диалектов, пишет Venture Beat.

Одна из главных трудностей разговорного ИИ — ведение диалога, который требует учитывать очень большое поле контекста. Нейросети научного назначения — вроде AlphaFold — выполняют строгие задачи и дают четкие ответы на вопросы. А чатботу приходится иметь дело с расплывчатыми вопросами без точного определения успеха. Для решение этой проблемы DeepMind обратилась к обучению с подкреплением, основанному на человеческой обратной связи. Набранные участники помогали обучать модель, оценивая полезность ее ответов.

Также для Sparrow ввели правила безопасности, например, не делать угрожающих заявлений, оскорбительных или агрессивных высказываний, не давать потенциально опасных советов. Отдельную модель натаскали на то, чтобы она указывала на нарушения правил.

Несмотря на высокий потенциал, DeepMind считает Sparrow исследовательской, опытной моделью, не готовой для публичного использования. По словам главного специалиста по вопросам безопасности в DeepMind и ведущего автора статьи Джеффри Ирвинга, в боте еще слишком много недоработок, чтобы его можно было коммерциализировать. И пока сложно сказать, как именно его лучше всего использовать: может, как помощника вроде Google Assistant или Alexa или в специальных вертикальных приложениях.

Недавно команда DeepMind сообщила об очередном достижении — разработчики научили ИИ играть в футбол. При этом правил игры машине никто не объяснял, она до всего доходила сама, через наблюдение и повторение. Постепенно под руководством алгоритмов неуклюжие человечки с реалистичными пропорциями и массой превратились в профессионалов своего дела.