Московский стартап Ntech Lab разработал технологию распознавания лиц для высокоточного приложения FindFace, способного определить возраст человека с вероятностью 95% и пол — в 99% случаев. Алгоритм был признан лучшим в рамках тестирования ИИ для распознавания лиц, проводимого Национальным Институтом Стандартов и Технологий (NIST) при Министерстве торговли США, а также самым быстрым в мире и единственным — с сублинейным временем поиска. Сейчас на основе этой технологии работает московская сеть из 170 000 камер видеонаблюдения.
Недавно на сайте Ntech Lab во вкладке «Ближайшие релизы» появился раздел под заголовком «Распознавание этнической принадлежности человека». В описании нового алгоритма не содержится ничего, что намекало бы на расизм или другие проявления нетерпимости:
«Алгоритмы распознавания лиц анализируют лица на изображениях, извлекая характеристики, которые неспособен различить человеческий глаз. Мы с высокой точностью можем определить пол, возраст, эмоции, а также распознавать лица в условиях присутствия посторонних объектов — очков или усов. Эти характеристики могут с успехом применяться в ряде сфер, таких как розничная торговля, здравоохранение и медицина, развлечения и многих других, предоставляя массу ценной информации в виде точных и своевременных демографических данных и существенно улучшая качество услуг«, — указано на сайте компании.
Оказалось, что Ntech убрала все упоминания «этнической принадлежности» из описания алгоритма после скандала, спровоцированного журналистом Джоффом Уайтом. Он разместил в своем Твиттере скриншот заголовка «Ethnicity recognition» и фотографию с сайта компании, на которой ИИ подписывает людей как «араб», «европеец» и «африканец». За несколько дней запись ретвитнули 12 000 раз, сопровождая едкими комментариями.
Помимо прямых обвинений в расизме и ксенофобии, пользователи Твиттера интересовались, будут ли чересчур загорелых причислять к африканцам, а также каким образом алгоритмы намерены отличать этнических европейцев от австралийцев или аргентинцев.
Журналисты издания Outline уверены, что определение этнической принадлежности никак не поможет правоохранительным органам выявлять преступников, а организациям — лучше понимать своих клиентов. И единственное, чему будет способствовать такая технология — это распространению ксенофобии, расизма и предрассудков. По их мнению, само существование алгоритмов, автоматизирующих расовую идентификацию, содержит колоссальный потенциал для злоупотреблений.
Пресс-секретарь Ntech Lab немедленно ответил на все обвинения: «Мы приносим свои глубочайшие извинения за то, что упоминание этнической принадлежности заставило людей отрицательно отнестись к нашей новой технологии. Наши алгоритмы ни в коем случае не нацелены на выявление конкретных национальностей, они лишь помогают определить степень этнического разнообразия среди всех демографических групп. Мы немедленно удалим это с нашего сайта, чтобы устранить возникшее недоразумение».
И действительно, с сайта исчезло некорректное изображение, но сам заголовок «Распознавание этнической принадлежности человека» по-прежнему там.
Этические проблемы, связанные с применением ИИ, в скором времени затронут почти все сферы жизни. Поэтому Хельсинкский университет запустил бесплатные онлайн-курсы, чтобы развеять основные мифы, связанные с этой технологией. На курсах все желающие смогут разобраться в том, что такое нейронные сети, как они строятся и на каких принципах построена их работа, а также чем классификация отличается от регрессии и как это связано с распознаванием лиц в Facebook. После 30 часов, на которые рассчитан курс, любой человек начнет ориентироваться в базовых вопросах.