Hitech logo

Искусственный интеллект

ВОЗ опубликовала принципы этического ИИ

TODO:
Георгий Голованов4 июля 2021 г., 15:22

Всемирная организация здравоохранения перечислила шесть основных принципов этического использования искусственного интеллекта в сфере охраны здоровья. Двадцать экспертов в течение двух лет разрабатывали это руководство, в котором подчеркивается высокий потенциал технологии, особенно в регионах, испытывающих нехватку ресурсов. Но также авторы предостерегают от поспешного и необдуманного применения ИИ в медицине.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Способов применения ИИ в здравоохранении множество, от анализа снимков и историй болезни до устройств мониторинга состояния организма и систем предсказания вспышек инфекций. Но если внедрять этот инструмент без должной осторожности, вместо ожидаемой пользы пациенту может быть причинен вред, пишет Verge.

Примеров необдуманного использования ИИ хватает. В Сингапуре приложение для отслеживания контактов с зараженными ковидом стали использовать преступники для сбора данных о потенциальных жертвах. В больницах США алгоритм, прогнозирующий необходимость в интенсивной терапии, стали применять до того, как программа прошла испытания. «Крайняя необходимость не оправдывает внедрение непроверенных технологий», — говорится в докладе.

Шесть принципов этического ИИ, по версии ВОЗ:

  • Защита независимости: люди должны иметь возможность контроля и последнего слова во всех решениях, связанных со здоровьем — они не должны приниматься машинами полностью, и врачи должны иметь возможность в любой момент взять управление на себя.
  • Обеспечение безопасности людей: разработчики должны постоянно следить, чтобы инструменты ИИ не могли причинить вреда случайно или намеренно.
  • Гарантия прозрачности: разработчики должны публиковать информацию об устройстве инструментов ИИ. Пользователи и регуляторы должны иметь возможность заглянуть в «черный ящик» и понять, как там все работает.
  • Стимулирование ответственности: если что-то идет не так с технологией ИИ — например, решение приводит к ухудшению состояния здоровья пациента — должны существовать механизмы, определяющие, кто за это отвественен.
  • Обеспечение равенства: инструменты ИИ должны быть доступны на многих языках и обучены на разнообразных наборах данных, во избежание дискриминации.
  • Поддержка работоспособности: разработчики и организации должны иметь юридическую возможность обновлять свои инструменты, исправлять ошибки и заменять их, если они становятся неэффективными.
  • Для борьбы с супербактериями, устойчивыми к антибиотикам команда IBM Research прибегла к помощи ИИ. Всего через 48 дней ученые получили рецепт двух новых препаратов. Они уже протестированы на лабораторных животных и признаны крайне перспективными.