О работе техдиректора Facebook Майка Шрейпфера рассказывает в своем лонгриде New Yotk Times. Сейчас собравший уникальную команду специалистов по ИИ Шрейпфер — «главнокомандующий» в битве за качественный контент. Хайтек+ выбрал самое важное из этого материала.
Собираясь в прошлом году в Конгресс, основатель FB Марк Цукерберг заявил о разработке автоматических систем фильтрации контента для «опознания определенных классов плохой активности» пользователей. По его оценке, разработка полноценного ИИ-инструментария займет «5-10 лет». Очевидно, это единственный способ отфильтровать контент от 2 млрд пользователей.
Но Шрепфер, возглавляющий этот проект и команду из 150 специалистов, называет свою работу Сизифовым трудом.
По его словам, даже просто определить эту «плохую активность» — уже крайне сложная для ИИ задача, ведь и уродство, и красота живут «в глазах смотрящего». И если убийства или угрозу смертью выявить легко, то границу дезинформации — порой крайне сложно.
Он уверен, что ИИ-проект можно довести до конца, но это не будет состояние «все решено», когда все модераторы могут собирать вещи и расходиться по домам.
При этом изначально фильтрация контента вовсе не была приоритетной задачей сильной команды Шрейпфера, которую Fаcebook начал собирать еще в 2013 году. Но плохой пиар заставил сменить приоритеты — особенно после того, как террорист из Крайстчерча транслировал бойню в прямом эфире.
Шрейпфер говорит, что груз нынешних проблем Facebook и мера ответственности за их решение его напрягают настолько, что иногда утром тяжело заставить себя идти на работу.
«Проблема брокколи»
Чтобы проиллюстрировать сложность задач ИИ, на одной из презентаций Шрейпфер показывал рядом два фото. На одном изображена брокколи, на другом — марихуана. И даже большинство людей в аудитории не могли с уверенностью указать, где какое растение.
Тем не менее, вопрос с фото марихуаны его команда решила: «Мы можем отлавливать эту вещь [объявления о продаже] в проактивном режиме», — говорит он. То же касается порнографии и террористического контента.
Но решение «проблемы брокколи» подчеркивает не только потенциал нынешних технологий ИИ, и в частности распознавания образов, но и ее ограничения.
Независимо от упорства Шрейфера и его команды, небольшой процент нестандартных изображений преодолевает все ИИ-фильтры. В масштабах Facebook это означает миллионы изображений голых людей, а также связанных с марихуаной и терактами, которые появляются в лентах пользователей. И это притом, что идентификация изображений — одна из давно и устойчиво развивающихся областей применения ИИ, а ресурсы Facebook практически безграничны.
Гонка вооружений
Глава A.I. Foundation Делип Рао говорит, что та же гонка вооружений разворачивается и в области трансляции дезинформации. Один из первых тяжелых публичных скандалов Facebook связан со сбором личных данных и их использованием для политической пропаганды компанией Cambridge Analytica. И в преддверии следующих президентских выборов в США ситуация на этом направлении будет все жестче.
Шрейпфер говорит, что алгоритмы вычищают 96% запрещенной наготы, но лишь около 60% того, что позже люди-модераторы обозначают как риторику ненависти.
Лучшая и наиболее болезненная иллюстрация пределов возможного — уже упомянутый теракт в Крайстчерче. ИИ тренируют на больших выборках изображений или видео. В случае с насилием львиная часть изображений — люди, бьющие котов и собак, атакующие людей домашние животные, сцены ДТП или угрозы с помощью бейсбольной биты. «Ничто из этого не похоже на то видео [из Крайстчерча]», — указывает Шрейпфер.
Беспрецедентный характер происходящего обманул ИИ, и потому террорист вел прямую трансляцию больше 10 минут. Шпейпфер говорит, что просматривал видео много раз в попытке вычленить новые полезные для работы системы элементы: «Хотел бы я это развидеть».
Недавно сооснователь Fаcebook миллиардер-филантроп Крис Хьюз обрушился с критикой на главу крупнейшей соцсети мира Марка Цукерберга и призвал власти разделить его «империю», пока не стало слишком поздно.