Правозащитники часто обвиняют полицейские алгоритмы в предвзятости к национальным меньшинствам. Подмоченную репутацию «коллег» должен исправить новый ИИ, который с 1 июля возьмет на вооружение полиция Сан-Франциско. Разработанная в Стэнфорде программа автоматически отредактирует рапорты сотрудников, чтобы получивший их прокурор не мог понять, к какой расе относится подозреваемый.
Как сообщает Verge, алгоритм удалит не только указание на национальность и цвет кожи, но и все упоминания цвета глаз и волос. Кроме того, будут изменены имена и названия мест, которые могут ассоциироваться с определенной расовой принадлежностью.
Инструмент также исключит возможную предвзятость прокуроров по отношению к отдельным сотрудникам полиции. Вся информация о них, включая номер удостоверения, будет удалена из рапорта и заменена нейтральными фразами.
В Сан-Франциско уже сегодня пытаются бороться с предвзятостью, вручную удаляя первые две страницы полицейских рапортов. Однако использование машинного обучения сделает этот процесс намного более эффективным.
По словам окружного прокурора, Сан-Франциско первым в стране запускает использование алгоритма, направленного на борьбу с национальными предрассудками.
Впрочем, скептики быстро усомнились, что алгоритм станет по-настоящему полезным. Например, его будут использовать только при первом решении о предъявлении обвинения. Затем прокурор, как и прежде, будет ориентироваться на неотредактированный рапорт. Кроме того, ИИ будет бесполезен, если к рапорту прикреплена видеозапись.
Искусственный интеллект — не единственная новая технология, которая меняет работу полиции. Например, генетическая генеалогия — поиск преступников по общедоступным базам ДНК — уже устанавливает подозреваемых во многих преступлениях, которые ранее считались безнадежными.