IBM раскрыла код инструментов для предотвращения предвзятости ИИ
Logo
Cover

В ходе машинного обучения ИИ могут начать отдавать предпочтение мужчинам, а не женщинам, или людям с белой кожей, а не этническим меньшинствам. В IBM разработали и показали эксперта по предвзятости — AI Fairness 360.

AIF360 — это комплексное решение с открытым кодом, с помощью которого можно проверить, есть ли у используемого алгоритма нежелательные предубеждения. Пакет состоит из девяти алгоритмов, среди которых программа для вынесения решений о выдаче кредитов, для прогнозирования медицинских расходов и для определения пола по фотографии.

Релиз должен помочь компаниям, использующим ИИ, не попадать впросак из-за того, что алгоритмы недостаточно хорошо обучены работать с представителями другой расы, отмечает Fortune. Такое может происходить, если обучающая выборка недостаточно велика или плохо сбалансирована.

ИИ-алгоритмы могут быть предвзяты, поскольку за их обучение отвечают люди. А значит, инженеры рискуют невольно им передать свои расовые, гендерные, половые и прочие предрассудки. Противники технологии считают, что повсеместное внедрение алгоритмов приведет не только к дискриминации, но и к другим пугающим последствиям.

Войну дискриминации объявили и другие разработчики ИИ. Программу защиты от предвзятости алгоритмов разрабатывают в Microsoft. Консалтинговая компания Accenture тоже предложила решение проблемы в виде ИИ-ревизора.