Facebook — крупнейшая социальная сеть в мире, которая планирует и дальше расширяться. При этом контент, который генерируют пользователи ежедневно — это одна из угроз существования компании, считают эксперты, с которыми поговорил Motherboard.
Сейчас модерацией контента в Facebook занимаются люди и искусственный интеллект.
ИИ очень точно справляется с выявлением спама, порнографии, фейковых страниц, постов террористического содержания и сцен жестокости. Но алгоритмы не могут точно распознавать призывы к ненависти и вражде — тут в дело вступают 7500 людей-модераторов.
В Facebook понимают, что разработать единые правила для такой огромной системы цензуры очень сложно. Решать задачу пытаются с помощью бесконечного количества совещаний.
Ужины у Цукерберга
Весной несколько десятков исследователей, изучающих социальные сети, получили первое приглашение на ужин в доме основателя Facebook. Марк Цукерберг решил обсудить с экспертами главные проблемы, с которыми сталкивается соцсеть на целой серии таких ужинов.
Те, кто побывал на них, сообщили, что Цукерберг расспрашивал об эффективных способах модерации контента в Facebook. Какие выводы были сделаны после этих встреч, неясно.
О том, что руководитель компании вовлечен в самые сложные случаи интернет-цензуры, ранее сообщала New York Times. По данным газеты, Марк Цукерберг, например, лично принял решение об удалении с Facebook постов конспиролога Алекса Джонса.
Совещания у исполнительного директора
Вопросом модерации активно занимается и исполнительный директор компании Шерил Сандберг. Она распорядилась каждую неделю проводить брифинги по самым главным проблемам, с которыми столкнулись модераторы. Участники этих совещаний решают, какие вопросы нужно передать Цукербергу для принятия окончательного решения.
Экстренные совещания
Для решения сложных задач в Facebook решили поступать так: на всех уже запланированных совещаниях обсуждают вдруг образовавшуюся проблему. В таком режиме компания может работать неделями.
Именно так происходило в период с апреля по июнь 2017 года, когда был запущен сервис трансляций Facebook Live. Тогда компании пришлось срочно внедрять возможность модерации — из-за видео самоубийств и насилия.
Facebook все время работает над инструкциями для модераторов, чтобы успевать фильтровать контент. Для этого специалисты компании собираются два раза в месяц, обсуждают последние кейсы и решают, как следует изменить предписания модераторам.
Накапливаемый опыт модераторов-людей затем используется для обучения ИИ.
Не все эксперты верят, что Facebook удастся выработать универсальные правила для фильтрации контента. Главная проблема тут — в масштабах. Про каждое нововведение нужно рассказать тысячам модераторов по всему миру, которые затем должны придерживаться одинаковых инструкций, проверяя миллионы постов.