Hitech logo

искусственный интеллект

ИИ научили распознавать дипфейки на видео

TODO:
Александр Носков18 июня 2018 г., 07:16

В Университете штата Нью-Йорк создали алгоритм, который разоблачает дипфейки — замену лиц на видео. ИИ следит за тем, как глаза на видео моргают — пока этого достаточно. Но уже готовится следующая версия, которая научится видеть новые аспекты, отличающие сгенерированные нейросетью лица от настоящих.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Дипфейками» (deepfake) назвают видео, где мимику и речь одного человека воспроизводят при помощи лица другого. Технология уже породила новый жанр порноклипов, в которых лица актрис заменены на лица знаменитостей. Эксперты, однако, подчеркивают, что воздействие фейковых видео может быть намного глубже и, например, способно спровоцировать мировой политический кризис. Кроме того, это чревато тем, что однажды видео в качестве доказательств перестанут принимать в судах, что облегчит жизнь многим преступникам.

Вплоть до нынешнего дня распознавание фейковых видео было вопросом личного критического отношения и внимательности. Однако с распространением технологии и поддельных видеофайлов, и их источников, и обманутых ими людей становится все больше.

К счастью, для организации кризиса «компьютерным головам» придется научиться обманывать не только людей, пишет Next Web. В Университете штата Нью-Йорк представили первую версию алгоритма, который отличает отредактированные с помощью этой технологии видео от подлинных.

Исследователи обратили внимание, что deepfake-головы не умеют моргать. И научили свою программу следить за этим. Препринт работы опубликован на сайте Arxiv.

Очевидно, «гонка вооружений» в этой сфере только началась. Появление компьютерных голов, которые умеют моргать — лишь вопрос времени. Поэтому нью-йоркские специалисты уже работают над новой версией алгоритма: они планируют улучшить «детектор морганий», а также добавить к анализируемым компонентам дыхание и пульс говорящего.

Есть у deepfake-алгоритма и еще одно слабое место: авторы исследования «Deep Video Portraits» признавали, что пока не умеют моделировать голос «жертвы».