Logo
Cover

После того, как отец сделал фотографии инфекции, возникшей в области паха его малолетнего сына, алгоритм Google пометил их как изображения сексуального насилия и сообщил об этом в организацию, занимающуюся вопросами защиты детей. Полицейское расследование не обнаружило никакого состава преступления, но аккаунт пострадавшему пользователю все равно не вернули. Историю Марка, программиста из Сан-Франциско, рассказало издание The New York Times.

Инцидент, описанный в NYT, произошел в феврале 2021 года, когда многие врачи не принимали из-за ковида. Марк, заметивший у своего сына опухоль в районе гениталий, сделал несколько снимков, чтобы показать их медсестре во время консультации по видеосвязи. Врач прописал антибиотики для лечения инфекции, однако проблемы для Марка и его семьи на этом не закончились.

Через два дня он получил оповещение от Google о том, что его аккаунт заблокирован из-за «вредоносного контента», который «серьезно нарушает политику Google и может нарушать закон», пишет Verge. Как и многие другие интернет-компании — Facebook, Twitter или Reddit — Google пользуется инструментами анализа загружаемых изображений и по закону обязана сообщать обо всех подозрительных случаях в NCMEC. За 2021 год Google сообщила о 621 583 случаях, из которых только 4260 послужили основанием для оповещения потенциальных жертв, в число которых попал и сын Марка.

В итоге отец лишился доступа к своему почтовому аккаунту, контактной информации, фотографиям и даже телефонному номеру, поскольку пользовался мобильным сервисом Google Fi. Марк сразу же обратился с апелляцией, но компания отклонила его заявление.

Тем временем полиция Сан-Франциско начала расследование и получила доступ ко всей информации, которую Марк хранил в Google. Следователи пришли к выводу, что инцидент не содержит состава преступления. Однако даже после этого Google не вернула Марку его аккаунт. Более того, вскоре он узнал, что его данные были полностью удалены. А расходы на услуги адвоката отбили у Марка желание судиться с ИТ-гигантом.

И это не единственный случай: через день после Марка подобное произошло с другой семьей в Техасе.

Разработчики искусственного интеллекта из команды DeepMind продолжают предлагать варианты практического применения своего ИИ для решения сложных научных проблем. В сотрудничестве со Швейцарским центром плазмы при университете Лозанны британская компания научила алгоритм управлять раскаленной материей внутри термоядерного реактора.