Logo
Cover

Внедрение технологии распознавания лиц для государственной слежки и полицейского наблюдения несет существенные риски. ИИ часто ошибается и плохо ориентируется в расовых и гендерных различиях. При этом ошибка используемого полицией алгоритма грозит человеку ложными обвинениями и потенциально может разрушить его жизнь. Так что применение распознавания лиц становится опасной и неэтичной практикой. Об этом в своей колонке в TechCrunch пишет эксперт Брайан Бракин.

362

Компания Amazon предоставляет полиции свои алгоритмы распознавания лиц Rekognition, а китайским полицейским выдают очки с функцией вычисления преступников. Государственная слежка приобретает все большие масштабы. Но коммерческие технологии, которые тестируются в разных странах, далеки от совершенства. Об этом говорят не только правозащитники, но и сами представители индустрии. Один из них — Брайан Бракин, глава компании Kairos, которая специализируется на разработке ПО для распознавания лиц.

Созданные в коммерческих целях технологии не предназначены для контроля за гражданами, уверен он.

Алгоритмы, предназначенные для распознавания постоянных клиентов кафе и магазинов, нельзя применять для поимки преступников. Слишком велик риск ложных обвинений и злоупотреблений технологией. 

ИИ совершенствуется с каждым годом, но по-прежнему плохо ориентируется в расовых и гендерных особенностях. Чаще всего обучают алгоритмы на стандартной базе данных, которая в основном состоит из снимком белых людей со стандартной внешностью. Темнокожее население остается для машины загадкой, и она постоянно ошибается.

Вес ошибки особенно велик, когда систему использует государство. Так, используемый полицией ИИ может ошибочно идентифицировать человека в толпе как подозреваемого в убийстве.

Бракин подчеркивает, что США уже занимают лидирующее место в мире по количеству заключенных, а полицию постоянно обвиняют в злоупотреблении полномочиями. «В Америке не место распознаванию лиц, которое провоцирует ложные аресты», — пишет эксперт. 

Глава Kairos считает, что государственная слежка нарушает право граждан на частную жизнь и представляет большую опасность. Сотрудничество компаний с правительством он называет «этическим кошмаром». В качестве примера Бракин приводит Китай, в котором системы слежения с распознаванием лиц широко распространены. Там собранные данные уже применяются для составления «рейтинга благонадежности» граждан. Весной технология помогла китайской полиции задержать разыскиваемого преступника в толпе из 60 тысяч человек. Это значит, что органы правопорядка уже применяют метод, несмотря на риск ошибки.

Еще один риск — возможность заложить в алгоритмы предвзятость и внушить им, что темнокожее население представляет большую угрозу, чем белое. В сфере прогнозирования преступлений по большим данным такую тенденцию уже удалось выявить.

Глава Kairos рассматривает распознавание лиц как инструмент дегуманизации и дискриминации.

Сейчас ИИ смотрит лишь на лица. Однако, предупреждает он, в будущем большинство подобных систем будет оценивать ваше поведение и внешние характеристики — эмоции, жесты, походку. 

«В руках правительства и правоохранительных органов ПО для распознавания лиц принесет гражданам только вред», — убежден автор колонки. По мнению Бракина, любая компания, которая добровольно сотрудничает с властями в этой сфере, ставит под угрозу жизни людей. И с этим необходимо бороться.

В Китае слежка за гражданами действительно приобретает все больший масштаб. Ежегодно правительство тратит $30 млрд на общественную безопасность. Большая часть этой суммы уходит на разработку и установку систем наблюдения. Китай устанавливает не только обычные камеры слежения, подключенные к алгоритмам распознавания лиц, но и созданные для Пентагона устройства с десятком объективов, которые создают огромную гигабитную панораму местности. Также КНР использует камеры слежения для контроля за потоками трафика. А с 2019 года в стране также начнет действовать закон, который обяжет оснащать все новые автомобили RFID-чипами для отслеживания.