По мере того как искусственный интеллект становится все более умелым в решении сложных задач, мы начинаем ему доверять принимать важные решения. Но насколько справедливые решения он принимает? Работа специалистов Бостонского университета «From Soft Classifiers to Hard Decisions: How fair can we be?», которая будет представлена на этой неделе на конференции Ассоциации вычислительной техники ACT FAT, пытается дать ответ на этот вопрос. Она основана на изучении исследований последних лет, посвященных предвзятости ИИ, сообщает VentureBeat.
Ученые, которые занимаются этой темой, сталкиваются с отсутствием четкого критерия оценки непредвзятости ИИ. У разный научных групп — разные определения справедливости. Каждое по отдельности кажется верным, но они абсолютно не совместимы друг с другом.
Невозможно создать систему, которая удовлетворяла бы всем сразу, говорит профессор Адам Смит, соавтор статьи.
Бостонская группа использовала в качестве отправной точки данные, опубликованные в рамках исследования программы оценки рецидивизма COMPASS. Проводившая исследование организация ProPublica пришла к выводу, что COMPASS предвзята к афроамериканцам и рекомендует осуждать их на более продолжительные сроки тюремного заключения.
На основании этих данных ученые разработали новый подход к оценке риска повторного совершения преступления. Он снижает и ложно положительные и ложно отрицательные значения, то есть добивается большей объективности для различных групп населения. Кроме того, платформа научилась отмечать случаи, в оценке которых она не уверена.
Протестировав свой алгоритм на данных расследования ProPublica, ученые обнаружили, что только 75% случаев получили верную оценку программы COMPASS. Четверть нуждается в перепроверке.
Осенью прошлого года IBM выпустила эксперта по предвзятости — пакет программ AI Fairness 360. Это комплексное решение с открытым кодом, с помощью которого можно проверить, есть ли у используемого алгоритма нежелательные предубеждения.