Logo
Cover

Microsoft — одна из немногих крупных технологических компаний, которая всерьез озабочена растущим влиянием предвзятости алгоритмов машинного обучения на судьбы людей. Простая «приборная панель» покажет, насколько справедливо ИИ обрабатывает данные. Ведь если для создания модели использовались неверные примеры, их влияние может распространиться на сотни и тысячи других случаев.

MIT Technology Review называет попытку Microsoft самой серьезной инициативой в этой сфере. Продажа облачных алгоритмов машинного обучения для использования клиентами — одна из основных задач для многих лидеров индустрии. Однако по мере того, как все больше компаний автоматизируют процесс принятия решений, необходимо убедиться, что вердикт выносится справедливо. И если использование предвзятого ИИ станет тотальным, это может усилить социальное расслоение.

Работу над созданием «инспектора ИИ» в MS возглавил Рич Каруана. Он подчеркивает, что прозрачность принятия решений и объяснение мотивов — необходимый этап для того, чтобы понять, как предвзятость проникает в автоматические модели.

«Крайне важно, чтобы сейчас компании обучали своих сотрудников так, чтобы те ориентировались во множестве путей, которыми предвзятость проникает в алгоритмы и проявляет себя. И создавали инструменты для понимания этих моделей и их недостатков», — говорит Каруана.

Его «приборная панель» — лишь один из вариантов. «Конечно, совершенства мы не достигнем. Всегда будут изъяны, которые мы не сможем выявить или не сможем устранить. Но работу надо делать так хорошо, как это только возможно», — сетует он.

MIT Technology Review напоминает, что в начале мая аналогичный алгоритм представила соцсеть Facebook. Он получил название Fairness Flow и призван выявлять несправедливые решения, вынесенные в чей-либо адрес на основании расы, пола или возраста.

Эксперты, впрочем, считают эти усилия недостаточными. Специалист в области машинного обучения Бин Ю говорит, что «проверяющие» алгоритмы тоже необходимо проверять. MS и FB делают шаг в правильном направлении, но если они действительно хотят добиться справедливости, все алгоритмы надо подвергнуть внешнему аудиту.

В середине мая в Торонто на конференции правозащитных организаций и технологических компаний была принята «Торонтская декларация о машинном обучении», в которой отражена озабоченность о воздействии алгоритмов машинного обучения на общество будущего. Участники конференции призвали  обеспечить непредвзятость ИИ или прямо ограничить его, чтобы избежать закрепления расовых и социальных предрассудков.