Hitech logo

ИИ

IBM раскрыла код инструментов для предотвращения предвзятости ИИ

TODO:
Дарья Бердникова19 сентября 2018 г., 12:56

В ходе машинного обучения ИИ могут начать отдавать предпочтение мужчинам, а не женщинам, или людям с белой кожей, а не этническим меньшинствам. В IBM разработали и показали эксперта по предвзятости — AI Fairness 360.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

AIF360 — это комплексное решение с открытым кодом, с помощью которого можно проверить, есть ли у используемого алгоритма нежелательные предубеждения. Пакет состоит из девяти алгоритмов, среди которых программа для вынесения решений о выдаче кредитов, для прогнозирования медицинских расходов и для определения пола по фотографии.

Релиз должен помочь компаниям, использующим ИИ, не попадать впросак из-за того, что алгоритмы недостаточно хорошо обучены работать с представителями другой расы, отмечает Fortune. Такое может происходить, если обучающая выборка недостаточно велика или плохо сбалансирована.

ИИ-алгоритмы могут быть предвзяты, поскольку за их обучение отвечают люди. А значит, инженеры рискуют невольно им передать свои расовые, гендерные, половые и прочие предрассудки. Противники технологии считают, что повсеместное внедрение алгоритмов приведет не только к дискриминации, но и к другим пугающим последствиям.

Войну дискриминации объявили и другие разработчики ИИ. Программу защиты от предвзятости алгоритмов разрабатывают в Microsoft. Консалтинговая компания Accenture тоже предложила решение проблемы в виде ИИ-ревизора.