Logo
Cover

Несмотря на растущий спрос на инструменты ИИ, 65% компаний не могут объяснить, как их алгоритмы принимают те или иные решения или строят прогнозы. К такому выводу пришли авторы опроса, проведенного международными фирмами FICO и Corinium, которые пообщались с сотней директоров по аналитике и данным, чтобы понять, как организации используют ИИ и обеспечивают их этическое применение.

«За последние 15 месяцев все больше компаний инвестировали в инструменты ИИ, но понимание важности управления и ответственного отношения к ИИ не достигла еще уровня совета директоров, — написал главный аналитик FICO Скотт Зольди в пресс-релизе. — Организации все чаще применяют ИИ для автоматизации ключевых процессов, которые — в некоторых случаях — принимают важные для жизни решения за клиентов и акционеров. Высшее руководство и совет директоров должны понимать и насаждать поддающиеся проверке, неизменяемые правила управления моделями ИИ и мониторинга моделями продукции, чтобы решения были объяснимыми, справедливыми, прозрачными и ответственными».

Опрос показал, что 33% руководства не понимает в полной мере этики ИИ. В результате возникают существенные препятствия — 73% акционеров заявили, что не могут добиться от управляющих поддержки в ответственном использовании ИИ.

Понятие ответственности у компаний отличается. Для одних это значит, что решения ИИ должны быть этичными, прозрачными и проверяемыми. Для других — чтобы ИИ не нарушал законы, нормы, ожидания клиентов и ценности организации. В любом случае, «ответственное использование» в случае ИИ должно оградить от предвзятости данных или алгоритмов — по крайней мере, в теории, пишет Venture Beat.

Несмотря на то, что почти половина (49%) респондентов сообщила о росте выделенных на ИИ ресурсов, только 39% и 28% заявили, что их приоритет — управление и мониторинг или техническое обслуживание моделей, соответственно.

43% опрошенных не считают, что несут ответственность за решения ИИ, помимо того, что требует закон. Даже если эти решения могут влиять на жизни людей. Всего 38% компаний имеют встроенные в модели механизмы нейтрализации предвзятости. Только 20% активно следят за поддержанием справедливости и этичности моделей, и лишь у каждой третьей компании есть команда по утверждению новых моделей.

Однако, не все так безнадежно: почти две трети респондентов (63%) уверены, что этичность и ответственность ИИ станут центральным элементом стратегии их организации в ближайшие два года.

Эксперт по робоэтике Кейт Дарлинг предлагает относиться к ИИ как к животным, а не как к людям. В прошлом человек смог извлечь пользу из прирученных зверей, так и теперь мы можем решить, станут ли роботы дополнять нас или вытеснят человека из производства.