В статье под названием «Глаз в небе» исследователи описывают свою систему. Он использует простой квадрокоптер Parcop AR стоимостью около $200 для передачи видеоматериалов по мобильному интернет-соединению и анализируют их в реальном времени. Алгоритм, использующий технологию глубокого обучения, , оценивает позы людей на видео и сопоставляет их с позами, которые исследователи обозначили как «жестокие». Для целей проекта включаются только пять поз-действий: душить, бить, пинать, стрелять и колоть.
Ученые надеются, что системы, подобные этой, можно будет использовать для обнаружения преступлений в общественных местах и на крупных мероприятиях.
Ведущий исследователь Амарджот Сингх из Кембриджского университета рассказал Verge, что задумался о создании системы в связи с такими событиями, как теракт на Манчестер-Арене в 2017 году. Сингх уверен, что такие атаки могут быть предотвращены в будущем, если камеры наблюдения автоматически обнаружат подозрительное поведение — например, что кто-то оставил сумку без присмотра в течение длительного периода времени.
Сингх и его коллеги сообщили, что их система имеет точность 94% при определении «жестоких» поз, но они отмечают, что чем больше людей появляются в кадре, тем ниже этот показатель. Он упал до 79%, когда в кадре появилось 10 человек.
Что еще более важно, эти цифры не могут быть использованы в реальных условиях. Для обучения и тестирования своего ИИ исследователи записали собственные видеоролики с добровольцами, которые лишь притворялись, что нападают друг на друга. Добровольцы сильно рассредоточены и акцентируют свои движения. Исследователи, работающие в этой области, часто отмечают, что существует огромная разница между тестами и практическими случаями в реальном мире. В последнем видеозапись часто размыта, толпы больше, а действия людей можно неправильно истолковать. Этот последний момент особенно примечателен, поскольку Сингх и его коллеги не приводят никаких цифр для ложно-положительной скорости системы — например, частота, с которой она идентифицирует ненасильственное поведение как насильственное.
Вопрос в том, как эта технология будет использоваться и кто ее будет использовать?
Опрошенные Verge ранее эксперты, говоря об автоматическом наблюдении, выказывали опасения, что системы можно использовать для злоупотребления со стороны правоохранительных органов и авторитарных правительств.
Джей Стэнли, старший политический аналитик ACLU, сказал, что эта технология окажет эффект холодного душа на гражданское общество. Он уверен: люди по праву опасаются, что их постоянно контролируют и все их действия анализируют. «Мы хотим, чтобы люди не просто были свободны, но и чувствовали себя свободными. И это означает, что им не нужно беспокоиться о том, как неизвестная, невидимая система может интерпретировать или неверно истолковать каждое их движение и высказывание», — сказал Стэнли.