Искусственный интеллект все чаще используется в сфере здравоохранения. Например, алгоритмы уже выявляют ряд болезней — от рака до диабета — лучше врачей. Это помогает быстрее поставить диагноз и начать лечение.
Медицинские регуляторы и страховые компании также готовы взять ИИ на вооружение. Однако эксперты из Гарварда и Массачусетского технологического института уверены, что распространение подобных систем может иметь непредвиденные последствия. В своей статье в Science они подчеркивают: алгоритмы уязвимы перед манипуляциями.
По словам исследователей, для искажения работы диагностического алгоритма достаточно изменить всего несколько пикселей в снимке МРТ. ИИ увидит признаки болезни, которой на самом деле нет, или наоборот пропустит свидетельства имеющегося заболевания.
Авторы проверили это на практике, добавляя по несколько точек на изображение доброкачественного образования на коже. Диагностический алгоритм определял рак. То же самое произойдет, если просто перевернуть изображение. А заменив синонимами всего несколько слов в описании симптомов, можно получить от алгоритма совершенно иной диагноз — хотя человек вряд ли заметит разницу.
Ученые не ожидают, что действия хакеров могут стать причиной массовых диагностических ошибок. Но их всерьез волнует перспектива мошенничества с алгоритмами в страховании и на уровне регуляторов.
Например, руководство больницы может манипулировать данными, чтобы повысить страховые выплаты. Если FDA и другие регуляторы введут автоматизированную систему проверки заявок, фармацевты и производители технологий будут пытаться обмануть ее ради получения одобрения. В конечном счете от подобного мошенничества пострадают пациенты.
Авторы работы не призывают отказываться от использования алгоритмов. Однако они отмечают, что учитывать вероятность ошибок и намеренных искажений невероятно важно для эффективного внедрения этой перспективной технологии.
Другие инновации в сфере медицины также могут стать причиной проблем. Например, пациенты выступают против распространяющейся практики врачей сообщать плохие новости не лично, а через роботов или видеосвязь.