Logo
Cover

По мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными. Для предотвращения этой опасности правительство США составило документ с пятью принципами, которые должны направлять разработку и применение автономных систем.

«Проект билля о правах ИИ это руководство для общества, которое защищает всех людей от его угроз — и использует технологии таким образом, чтобы они поддерживали наши самые высокие принципы», — говорится в документе.

Билль о правах ИИ сводится к пяти интуитивно понятным принципам:

  • Системы ИИ должны быть безопасными и эффективными для граждан.
  • Люди должны быть защищены от дискриминации со стороны алгоритмов.
  • Встроенные системы должны защищать людей от злоупотребления их приватными данными и следить за тем, как эти данные используются.
  • Люди должны быть оповещены о работе автономных систем, им нужно объяснить, как и для чего они служат.
  • По возможности, у людей должна быть возможность отказаться от использования алгоритмов в любой момент.

Подобные законопроекты и руководства, регулирующие работу ИИ, уже сочиняли в Евросоюзе и других организациях, но не в США. Да и сейчас проект билля, хоть и может считаться началом разговора, ничего не может изменить в реальной ситуации, пишет Venture Beat.

Так, в документе нет никаких рекомендаций относительно ограничения в использовании противоречивых форм ИИ — например, таких, которые могут идентифицировать людей в реальном времени по биометрическим данным или изображениям. Не освещены в нем и важные вопросы разработки автономного летального оружия или технологии умных городов.

По мнению Луи Розенберга, специалиста в области ИИ и одного из создателей AR, появление сильного искусственного интеллекта невозможно предотвратить. И когда он появится, он станет таким же непонятным и опасным для человека, как разум инопланетянина.