Logo
Cover

Отчет под названием «Я бы покраснела, если б могла» уверждает, что цифровые помощники с женскими голосами усиливают неравенство, заставляя пользователей думать, что женщина «доступна по нажатию кнопки» и что говорить с ней можно любым тоном.

«Я бы покраснела, если б могла» — это обычный ответ голосового помощника Apple Siri на провокационные вопросы или попытки флирта. Например, так Сири отзывается на фразу: «Ты шлюха». Алекса от Amazon в этом случае произносит: «Что ж, спасибо за обратную связь», отмечает Guardian.

Авторы отчета ЮНЕСКО считают, что женщин-помощников часто изображают как «жаждущих угодить», что подтверждает идею о том, что женщины «подчинены». Кроме того, цифровые ассистенты дают «слабые или извиняющиеся ответы» на злоупотребления или критику со стороны пользователя.

«Поскольку речь большинства голосовых помощников является женской, она посылает сигнал о том, что женщины… покорные помощники, доступные по нажатию кнопки или с помощью грубой голосовой команды, такой как „Эй“ или „Окей“».

Также авторам отчета не нравится, что цифровой ассистент «выполняет команды и отвечает на запросы независимо от их тона или враждебности». По их мнению, во многих сообществах это «усиливает общепринятые предрассудки в отношении пола и того, что женщины подчинены и терпимы к плохому обращению».

ЮНЕСКО подчеркивает, что молодость технологии дает хорошую возможность разработать и внедрить «менее вредные нормы», касающиеся ее применения.

Отметим, что «женскую» сущность своего голосового ассистента признает лишь Amazon. Остальные разработчики предпочитают избегать вопросов о гендере, утверждая, что их ассистенты — всего лишь ИИ.

В марте группа активистов представила голосового ассистента Q с неразличимым по полу абсолютно нейтральным голосом.