ИИ еще полностью подконтролен человеку, никаких примеров полностью автономного смертельного оружия нет, но страх перед роботами-убийцами растет. Долгое время его подогревали фантасты и футурологи, а последние годы тему активно разгоняют отдельные ученые и крупные бизнесмены. В прошлом году обсуждения этой проблемы дошли и до ООН. Для работы был выбран формат Конвенции по негуманному оружию. Именно такой механизм в свое время запретил использование кассетных боеприпасов, напалма, ослепляющих лазеров и противопехотных мин, пишет «Коммерсант».
Но от смертоносного ИИ все это оружие отличалось тем, что уже существовало на момент запрета. А нынешнее даже самое автономное оружие по-прежнему контролируется людьми. И его свобода действий жестко ограничивается заранее написанной программой.
Именно в этом причина того, что Россия не поддержала мирную инициативу. «Речь идет о технике, не имеющей пока реально действующих образцов. Представление о таких системах имеется пока лишь весьма поверхностное и умозрительное», — комментировал МИД РФ свою позицию.
Также дипломаты отметили «сложности с четким разграничением гражданских и военных разработок в области автономных систем» и заявили, что существующие нормы международного права уже позволяют регулировать САС (смертоносные автономные системы).
По данным аналитиков американской исследовательской компании MarketsandMarkets, мировой рынок технологий искусственного интеллекта военного назначения в 2017 году составил $6,26 млрд, а к 2025 году этот показатель поднимется до $18,82 млрд. Неудивительно, что Россия, США, Израиль, Южная Корея и Япония выступили против.
Координатор глобальной кампании «Остановите роботов-убийц» Мэри Уэрем из Human Rights Watch выразила сожаление о том, что «кучка государств, активно развивающая собственные САС, не дала добиться прогресса на переговорах в ООН».