Правозащитники требуют обучить ИИ равноправию
Logo
Cover

Искусственный интеллект обучается на примерах, которые дают ему люди. И это может стать серьезной проблемой, опасаются правозащитники. На конференции RightsCon принята декларация с призывом обеспечить непредвзятость ИИ или прямо ограничить его, чтобы избежать закрепления расовых и социальных предрассудков. Ведь оспорить выводы автоматической системы будет значительно сложнее, чем сейчас, когда ошибки делают люди.

Конференция RightsCon в Торонто — место, где представители технологических компаний и правозащитные организации обсуждают проблемы, связанные с созданием этичного и справедливого будущего. В нынешнем году на первый план вышла проблема машинного обучения. Как сообщает TheVerge, накануне там был принят документ, призванный защитить людей от негативного воздействия самообучающихся машин. «Торонтская декларация о машинном обучении» (Toronto Declaration on Machine Learning) призывает к разработке алгоритмов, которые будут учитывать всю полноту прав человека. Ее подписали авторитетные организации, в том числе Amnesty International, Access Now, Human Rights Watch и Wikimedia Foundation. С полным текстом можно ознакомиться на сайте Access Now.

Как указывает Futurism, ИИ регулярно попадает впросак именно в вопросах политкорректности. Иногда последствия бьют больше по самолюбию — например, когда по запросу «CEO» (глава компании) в картинках Google появляются исключительно белые мужчины в дорогих пиджаках. Но по мере того, как машинное обучение проникает во все новые сферы, его воздействие станет более серьезным: ИИ решит, куда направить ресурсы полиции или кому отказать в кредите.

Социальная стигматизация будет углубляться благодаря новым технологиям, если немедленно не принять меры, подчеркивают правозащитники. Торонтская декларация не является обязывающей с точки зрения закона, но это важный шаг, обозначающий глобальный характер проблемы и необходимые усилия, указывает Futurism.

Wired напоминает, что некоторые крупные ИТ-компании тоже уделяют внимание этой проблематике. Глава направления ИИ-исследований в Microsoft Эрик Хорвиц пролоббировал создание внутреннего совета по этике в 2016 году. Произошло это после того, как ряд клиентов MS указывали на необходимость ограничить и «очеловечить» бездушные алгоритмы. Но обычно вопросами этики технологические компании озабочены отнюдь не в первую очередь.