Hitech logo

Искусственный интеллект

«СверхИИ может уничтожить человечество из лучших побуждений»

TODO:
Георгий Голованов4 февраля 2019 г., 12:27

Группа ученых различных вузов США призывает к немедленным действиям по предотвращению угроз, которые несет появление универсального искусственного интеллекта. Вскоре станет слишком поздно, уверены они.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Искусственный интеллект может играть в шахматы, водить машины и искать новые лекарства. Такой тип ИИ называют ограниченным, или слабым. Это всего лишь продвинутые алгоритмы, выполняющие определенные задачи. Их способности и сфера применения постоянно растет, но их опасность для человека ограничена потерей работы.

Новое поколение ИИ непременно повысит ставки, считают ученые. Сочетание вычислительных мощностей машин и человеческого интеллекта позволит сильному ИИ учиться, решать сложные задачи и самосовершенствоваться. И заниматься задачами, к которым их никто не готовил. Так ИИ сможет превратиться с искусственный суперинтеллект (ИСИ). По мнению некоторых экспертов, его появление возможно в период с 2029 года по конец столетия, сообщает Science Alert.

Когда бы это ни произошло, несомненно, что ИСИ изменит человечество. Возможно, он решит мировые проблемы нехватки ресурсов или изменения климата.

Но отсутствие должного контроля приведет к катастрофическим результатам. И речь не о роботах-убийцах.

ИИСИ вряд ли будет враждебен к людям. Но машина может прийти к выводу, что самая эффективная стратегия решить проблему, которую ей поручили люди — это избавиться от части людей.

Вот возможные сценарии. ИСИ, который разрабатывает лекарство от вируса, решает убить всех его носителей. Военный дрон приходит к мысли, что единственный способ обеспечить безопасность союзных войск — уничтожить все поселение вместе с гражданскими. А нейросеть, призванная защитить человечество от климатической катастрофы, стирает с лица Земли все технологии, которые ее загрязняют.

Сейчас такие расклады кажутся фантастическими, но даже в более скромном масштабе они способны причинить немало вреда. Чтобы избежать воплощения таких сценариев, ученые предлагают ввести три метода контроля:

  • Контроль над разработками ИСИ.
  • Встроенные в ИСИ механизмы контроля, такие как «здравый смысл», мораль и тому подобные протоколы.
  • Контроль систем, внутри которых будут работать ИСИ — законодательство, процессуальные кодексы, системы мониторинга и инфраструктуры.
  • Ближайшие десять лет станут критически важным периодом для нас, когда мы должны не упустить возможность создания рычагов контроля над искусственным интеллектом. В противном случае человечество может столкнуться с новой угрозой, указывают эксперты.

    Глава Google Сундар Пичаи разделяет опасения ученых. С одной стороны, он с оптимизмом смотрит на долгосрочные преимущества технологии ИИ. С другой — считает, что ИИ усугубит тотальную слежку, упростит создание смертоносного оружия и распространение дезинформации.