Армия США продолжает проводить модернизацию своих вооруженных сил и существенные ресурсы тратит на развитие алгоритмов машинного обучения, которые помогут принимать решения на поле боя. Однако знаний о возможностях ИИ явно не хватает, и неизвестно, окажется ли ИИ полезен в принятии решений или помешает, пишет EurekAlert.
Исследование, которое военные специалисты проводили совместно с учеными Калифорнийского университета в Санта-Барбаре, пришло к заключению, что большинство людей верят собственным суждениям гораздо больше, чем выводам, полученным от компьютера.
Таким образом, даже если будет создан безупречный ИИ, люди все равно не прислушаются к его советам.
Свои выводы исследователи подтвердили в ходе эксперимента, напоминающего «дилемму заключенного» — проблему из теории игр, где игрок должен выбрать, сотрудничать ему с оппонентом или нет, учитывая различные факторы.
В каждом раунде ИИ давал участникам советы, которые выводились отдельно от интерфейса игры, и всегда рекомендовал оптимальную стратегию. Но участники имели возможность включать и выключать советы вручную, и никто не заставлял их следовать подсказкам ИИ.
Также ученые создали несколько других версий ИИ — некоторые ошибались в советах, некоторые требовали ручного ввода информации, некоторые подробно описывали ход своих рассуждений.
Результаты эксперимента могут обескуражить сторонников ИИ: две трети принятых человеком решений не совпадали с советами машины вне зависимости от количества ошибок в подсказках.
Не помогла и «расшифровка» советов. «Рациональные объяснения тоже оказались неэффективными для некоторых людей, так что разработчикам следует быть более креативными в создании интерфейсов к таким системам», — пишут ученые.
Оказалось, что чем выше игрок оценивал собственный уровень понимания игры, тем меньше он прибегал к советам компьютера.
Итог закономерен: люди, которые считали себя умнее компьютера, на самом деле показали худшие результаты, чем их более скромные товарищи, которые пользовались подсказками.
Операционный директор IBM по ИИ и квантовым вычислениям Дарио Гил уверен, что в 2019 мы научимся доверять машинам. Но это интервью он давал до публикации нынешних результатов.