Профессор Аркин, директор лаборатории мобильных роботов при Технологическом институте Джорджии считает, что полный запрет роботов-убийц — не самый лучший путь к прогрессу. Вместо того чтобы запрещать автономные системы в зонах боевых действий, следует регулировать их жесткими правовыми нормами.
Такие же правила следует ввести и для всех остальных роботов, без исключений, потому что люди боятся любых автономных машин, контактирующих с ними слишком близко, пишет ZDNet.
Согласно одному из опросов общественного мнения, 60% респондентов считают, что роботы не должны использоваться для ухода за детьми, стариками и больными. И все же, несмотря на этот страх, всего 7% опрошенных убеждены, что военных роботов стоит запретить.
Фатальные ошибки, вызванные стрессом или беспечностью, происходят на поле боя гораздо чаще, чем акты героизма и самопожертвования, и роботы вполне в состоянии исправить это, поскольку не обладают мешающими солдатам эмоциями.
При нынешнем развитии технологий вовсе не сложно научить машины отличать мирных жителей от представляющих угрозу противников, считает ученый.
В настоящее время над разработками в области боевого применения ИИ работает 60 государств. Ряд стран — в частности, Россия, Австралия, Израиль, США и Южная Корея — не согласны поддерживать декларацию ООН о важности сохранения человеческого контроля над автономными системами вооружения. Хотя бы потому, что нет четкого определения того, что такое смертоносное автономное оружие.
Профессор Аркин поддерживает такой подход. По его мнению, к таким системам надо относиться как к новому поколению самонаводящихся снарядов.
«Моя главная цель в исследованиях в этой области — сделать все возможное, чтобы минимизировать сопутствующие потери среди гражданского населения, — говорит он. — Массовые бойни случаются постоянно, почти ежедневно на поле боя гибнут невинные, и технологии могут, должны и обязаны сыграть роль в сокращении этих несчастных случаев».
В июле письмо-клятву с призывом запретить смертоносное автономное оружие с ИИ подписали 160 компаний из 90 стран и 2400 ученых и предпринимателей. Это произошло в Стокгольме на конференции, организованной некоммерческим Институтом «Будущее жизни», возглавляемым физиком Максом Тегмарком.
Обращение к правительствам, научным учреждениям и промышленным кругам призывало «создать будущее с прочными международными нормами, правилами и законами, препятствующими появлению летального автономного вооружения». И определяло такие системы как оружие, способное идентифицировать, наводиться и убивать людей без участия человека.