Свою работу исследователи из Университета Нью-Йорка представили на конференции по безопасности в Лос-Анджелесе. Они разработали алгоритм, который с помощью нейросети создает соответствующие настоящим поддельные отпечатки пальцев.
Такие отпечатки они назвали DeepMasterPrints, и они не только похожи на настоящие, но и преодолевают сканер отпечатка пальцев — распространенную защиту смартфонов. Как передает Guardian, в ходе первых тестов подошел примерно каждый пятый сгенерированный отпечаток. Успехи кажутся скромными, однако производители датчиков говорят, что сканер ошибается лишь один раз из тысячи. ИИ не оставляет от этой технологии защиты смартфонов камня на камне.
Создатели DeepMasterPrints надеются, что системы биометрической идентификации станут лучше, и потому подробно рассказывают о недочетах, которые использует алгоритм.
Во-первых, сканеры «бытового» уровня, как в смартфонах, не сканируют весь отпечаток пальца. Им достаточно лишь небольшого участка, который к нему прикасается. Но даже этот снимок при анализе подлинности датчик не пытается сопоставить с полной фотокопией отпечатка, а сравнивает с частичными копиями, полученными ранее.
Это значит, что при взломе достаточно подобрать отпечаток, который будет соответствовать одному из сотен или тысяч фрагментов, которые уже содержатся в системе.
Второе свойство, которым воспользовался алгоритм — то, что некоторые рисунки папиллярных линий гораздо шире распространены, чем другие. «Собрав» отпечаток из таких участков, получить работающую «отмычку» гораздо проще.
В ходе работы генеративная нейросеть DeepMasterPrints училась создавать отпечатки-фейки, которые бы «совпали» с как можно большим числом настоящих отпечатков. Первая версия создавала отпечатки, непохожие на реальные — хотя они и неплохо проходили сканирование.
Доработав алгоритм, исследователи получили копии, неотличимые от настоящих отпечатков пальцев невооруженным глазом.
Свой метод исследователи сравнивают с тем, как хакеры подбирают символьные пароли перебором — только в случае с отпечатками один вариант подходит сразу ко многим рисункам.
Отпечатки пальцев — не единственное свидетельство связи человека и его действий, которое подвергается сомнению из-за новых технологий подделки. Широкий резонанс получила технология создания поддельных видео — так называемых дипфейков — на которых человек «произносит» слова, которых на самом деле не говорил. В Конгрессе США их сочли угрозой нацбезопасности. Исследователи, впрочем, настаивают, что поддельные видео могут приносить пользу — например, при обучении алгоритмов робомобилей.