Вердикт экспертов: «Все судебные алгоритмы работают не так, как надо»
Logo
Cover

Эксперты Partnership on AI выбрали криминальное право в качестве темы первого исследования. Там ИИ доверяют решать вопросы свободы людей. Но ни одного справедливого алгоритма аналитики не нашли.

263

Консорциум Partnership on AI опубликовал первый доклад. Эксперты объявили о несостоятельности алгоритмов, применяемых в судебной практике для определения залога или решения о заключении обвиняемого под стражу. Они получают все более широкое распространение в США.

The Partnership on AI — консорциум, созданный в 2016 в попытке объединить таких крупных игроков в области ИИ, как Amazon, Google, Facebook и Nvidia с общественными организациями Международная амнистия, Американский союз защиты гражданских свобод, Фонд электронных рубежей и Human Rights Watch.

PAI выявил целый ряд недостатков: скудная аргументированность решений, предвзятость в сборе данных и в статистических прогнозах, а также проблемы интерфейса компьютер — человек и нечеткость определений высокого и низкого риска для общества, сообщает VentureBeat.

Аналитики PAI сейчас советуют законодателям либо полностью избегать использования алгоритмов в процессе принятия решений относительно заключения в тюрьму, либо добиваться повышения прозрачности.

Существует множество сомнений относительно непредвзятости алгоритмов. Но криминальная юстиция — одна из тех областей, где этот вопрос стоит особенно остро, поскольку речь идет о принятии решений о свободе человека, говорит Элис Сян, исследователь PAI. Отчасти поэтому аналитики выбрали криминальное право в качестве темы первого исследования.

В докладе не называются компании (это примерно 30 — 40 партнерских организаций) или конкретные алгоритмы, которые подвергались исследованиям. Сян уверяет, что ни один из ныне действующих инструментов не соответствовал минимальным требованиям консорциума.

Подчеркивается, что использование ИИ в судопроизводстве имеет целью исправить систему, работающую с нарушениями, сделать ее более справедливой. Пока технология действительно приносит больше проблем, но исследователи надеются, что проблемы удастся преодолеть, и тогда ИИ раскроет свой потенциал.

Около года назад консалтинговая компания Accenture представила алгоритм анализа предвзятости ИИ-алгоритмов. Но даже ее разработчики подчеркивают, что проблему справедливости невозможно решить одним нажатием кнопки.