Hitech logo

искусственный интеллект

ИИ научился подделывать отпечатки пальцев для взлома смартфонов

TODO:
Александр Носков16 ноября 2018 г., 08:31

Сканер отпечатка пальца вскоре не сможет защитить ваш смартфон от взлома. В Университете Нью-Йорка нейросеть научили генерировать отпечатки. У DeepMasterPrints пока скромные достижения: подходит лишь один опечаток из пяти. Но человека — например, криминалиста — обмануть легче.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Свою работу исследователи из Университета Нью-Йорка представили на конференции по безопасности в Лос-Анджелесе. Они разработали алгоритм, который с помощью нейросети создает соответствующие настоящим поддельные отпечатки пальцев.

Такие отпечатки они назвали DeepMasterPrints, и они не только похожи на настоящие, но и преодолевают сканер отпечатка пальцев — распространенную защиту смартфонов. Как передает Guardian, в ходе первых тестов подошел примерно каждый пятый сгенерированный отпечаток. Успехи кажутся скромными, однако производители датчиков говорят, что сканер ошибается лишь один раз из тысячи. ИИ не оставляет от этой технологии защиты смартфонов камня на камне.

Создатели DeepMasterPrints надеются, что системы биометрической идентификации станут лучше, и потому подробно рассказывают о недочетах, которые использует алгоритм.

Во-первых, сканеры «бытового» уровня, как в смартфонах, не сканируют весь отпечаток пальца. Им достаточно лишь небольшого участка, который к нему прикасается. Но даже этот снимок при анализе подлинности датчик не пытается сопоставить с полной фотокопией отпечатка, а сравнивает с частичными копиями, полученными ранее.

Это значит, что при взломе достаточно подобрать отпечаток, который будет соответствовать одному из сотен или тысяч фрагментов, которые уже содержатся в системе.

Второе свойство, которым воспользовался алгоритм — то, что некоторые рисунки папиллярных линий гораздо шире распространены, чем другие. «Собрав» отпечаток из таких участков, получить работающую «отмычку» гораздо проще.

В ходе работы генеративная нейросеть DeepMasterPrints училась создавать отпечатки-фейки, которые бы «совпали» с как можно большим числом настоящих отпечатков. Первая версия создавала отпечатки, непохожие на реальные — хотя они и неплохо проходили сканирование.

Доработав алгоритм, исследователи получили копии, неотличимые от настоящих отпечатков пальцев невооруженным глазом.

Свой метод исследователи сравнивают с тем, как хакеры подбирают символьные пароли перебором — только в случае с отпечатками один вариант подходит сразу ко многим рисункам.

Отпечатки пальцев — не единственное свидетельство связи человека и его действий, которое подвергается сомнению из-за новых технологий подделки. Широкий резонанс получила технология создания поддельных видео — так называемых дипфейков — на которых человек «произносит» слова, которых на самом деле не говорил. В Конгрессе США их сочли угрозой нацбезопасности. Исследователи, впрочем, настаивают, что поддельные видео могут приносить пользу — например, при обучении алгоритмов робомобилей.