Конференция RightsCon в Торонто — место, где представители технологических компаний и правозащитные организации обсуждают проблемы, связанные с созданием этичного и справедливого будущего. В нынешнем году на первый план вышла проблема машинного обучения. Как сообщает TheVerge, накануне там был принят документ, призванный защитить людей от негативного воздействия самообучающихся машин. «Торонтская декларация о машинном обучении» (Toronto Declaration on Machine Learning) призывает к разработке алгоритмов, которые будут учитывать всю полноту прав человека. Ее подписали авторитетные организации, в том числе Amnesty International, Access Now, Human Rights Watch и Wikimedia Foundation. С полным текстом можно ознакомиться на сайте Access Now.
Как указывает Futurism, ИИ регулярно попадает впросак именно в вопросах политкорректности. Иногда последствия бьют больше по самолюбию — например, когда по запросу «CEO» (глава компании) в картинках Google появляются исключительно белые мужчины в дорогих пиджаках. Но по мере того, как машинное обучение проникает во все новые сферы, его воздействие станет более серьезным: ИИ решит, куда направить ресурсы полиции или кому отказать в кредите.
Социальная стигматизация будет углубляться благодаря новым технологиям, если немедленно не принять меры, подчеркивают правозащитники. Торонтская декларация не является обязывающей с точки зрения закона, но это важный шаг, обозначающий глобальный характер проблемы и необходимые усилия, указывает Futurism.
Wired напоминает, что некоторые крупные ИТ-компании тоже уделяют внимание этой проблематике. Глава направления ИИ-исследований в Microsoft Эрик Хорвиц пролоббировал создание внутреннего совета по этике в 2016 году. Произошло это после того, как ряд клиентов MS указывали на необходимость ограничить и «очеловечить» бездушные алгоритмы. Но обычно вопросами этики технологические компании озабочены отнюдь не в первую очередь.