Logo
Cover

Ученые не решают этические вопросы, а сконцентрированы на разработке конкретных технологий. Если вы хотите избежать появления роботов-убийц, деятельность команд в этой сфере просто надо заморозить. Ученый Кристофер Хекман, деятельность которого финансирует Пентагон, рассуждает, как сделать это, не навредив прогрессу.

Кристофер Хекман — специалист в области компьютерных технологий, который работает в Колорадском университете в Боулдере и деятельность которого финансирует DARPA — агентство по разработке перспективных вооружений при Минобороны США. В своем эссе на ресурсе Conversation Хекман указывает на прогресс в области автоматизации, который в его сфере деятельности приближает серьезную и неконтролируемую опасность: появление роботов, которые сами принимают решение об убийстве людей.

Ученый призывает ограничить работы в этой области. Но для этого сначала надо решить вопрос о том, как сделать это правильно. «Потенциал добра [вследствие развития ИИ] слишком велик, чтобы его игнорировать. Однако я также обеспокоен рисками, которые несут новые технологии, особенно если они попадут в руки злоумышленников».

В эссе Хекман рассматривает несколько вариантов внедрить такие ограничения.

Большинство ученых согласны, что они нужны, но при этом сильнейшие государства — США, Китай, Россия, Британия — ведут активные разработки в области военных роботов, наделяя их все большей автономностью.

Законодательные ограничения или добровольные союзы ученых в этом случае не сработают, полагает он. В обоих сценариях преимущество получает наименее этичная сторона, а такого быть не должно.

По мнению Хекмана, единственный реализуемый вариант — саморегулируемые надзорные организации национального уровня, которые будут оценивать все исследования в данной области. С одной стороны, это не требует тотального запрета на разработку определенных тем, с другой — обеспечит квалифицированный контроль.

Отметим, что к созданию надзорного ведомства в области ИИ недавно призывал Илон Маск, традиционно очень обеспокоенный будущим человечества в эпоху всеведущих алгоритмов. Он также оговаривался: «Проблема в том, что правительство действует медленно, обычно лишь тогда, когда нечто ужасное уже произошло и в ответ на общественный резонанс». Академическая инициатива, внедрить которую призывает Хекман, позволила бы заняться проблемой до этого момента.

Один из самых последовательных сторонников запрета ИИ-убийств — бывший инженер Google Лора Нолан. Она работала над военным проектом Maven, после чего покинула компанию. И теперь, лично ознакомившись с перспективами и разработками, считает реальным риском массовое истребление мирного населения военными роботами или ядерный теракт с использованием дронов.