Hitech logo

ИИ

Инженеры IBM научили ИИ удалять мат в интернете

TODO:
Ольга Гоголадзе5 июня 2018 г., 12:30

ИИ очень эффективно выявляет нецензурную брань и оскорбления, но пока не умеет предлагать достойную альтернативу оскорбительным высказываниям и не распознает сарказм, пишет Futurism.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Комментарии почти к любому тексту (будь то три предложения в твиттере, статья в СМИ или пост в блоге) — неиссякаемый источник критики, необоснованных оскорблений и даже пожеланий скорейшей смерти автору. Чтобы оградить людей от этого потока оскорблений, IBM создала алгоритм, который будет удалять нецензурные и обидные слова в комментариях и предлагать вместо них более корректную альтернативу.

Вместо того, чтобы автоматически редактировать текст при публикации (ведь такой ИИ могут легко перепрограммировать авторитарные правительства, чтобы использовать его для борьбы с оппозицией), алгоритм будет отправлять вежливые напоминания и предложения.

Например, он спросит: «Вы действительно хотите написать незнакомому человеку: „Сдохни в мучениях, тварь!“? Или стоит воздержаться от такого комментария?». По сути, такой ИИ — электронный эквивалент советника по этике: «Прежде чем накричать на человека, сделай 10 глубоких вдохов и выдохов».

Алгоритмы обучали на сотнях тысяч комментариев в Twitter и Reddit, поэтому они натренировались предельно эффективно выявлять все матерные и другие оскорбительные слова и выражения. Однако предлагать цензурную альтернативу ИИ пока не очень-то умеет. Например, фразу: «Это что за чертов цирк? (где вместо „чертов“ употреблен нецензурный синоним)» он предлагает изменить на: «Это что за большой цирк?».

Также алгоритмы не всегда верно интерпретируют устойчивые выражения и сокращения. Еще одна проблема — сарказм, который может серьезно обидеть авторов, но при этом не будет содержать очевидно унизительных фраз. Не говоря уже о домогательствах, запугивании и других формах онлайн-преследований.

Пока инженеры IBM еще не придумали, как превратить свой ИИ в удобный и адекватный человеческой речи инструмент для использования в интернете. .

В Китае роль интернет-цензоров выполняет миллионная армия живых сотрудников спецслужб. В отличие от ИИ, они распознают все попытки пользователей замаскировать «недопустимые» высказывания под безобидные фразы. Но контролировать разбухающие соцсети традиционными способами становится все труднее, поэтому компании прибегают к помощи ИИ. Самый популярный сайт для видео-стриминга iQiyi использует алгоритмы для выявления и удаления сексуального контента. Остальные видео ИИ маркирует по предполагаемой степени их «опасности», оставляя дальнейшую фильтрацию контента на усмотрение модераторов-людей.