В Университете Карнеги-Меллона разработали более совершенный механизм переноса на видео свойств одного объекта на другой. Это та технология, которая позволяет создавать дипфейки. Свою разработку Ааюш Бэнсал, Шугао Ма, Дева Раманан и Язер Шейх назвали Recycle-GAN и наглядно продемонстрировали превосходство их программы над аналогом — Cycle-GAN.
Сотрудникам университета удалось с помощью нейросетей сгенерировать видео, на котором Дональд Трамп и Барак Обама копируют мимику друг друга. На другом ролике 44-й президент США двигается также, как Мартин Лютер Кинг на старом черно-белом видео.
При этом технологию можно использовать не только для дипфейков, но и для редактирования видео с цветами или облаками.
В основе программы лежит механизм GAN — генеративно-состязательной сети. Для создания таких видео используется алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей. Одна из них генерирует образцы, а другая — старается отличить правильные («подлинные») образцы от неправильных.
Эксперты считают, что подобные фейковые видео могут спровоцировать политический кризис. Впрочем в этой сфере тоже идет своя «гонка вооружений»: например, создана нейросеть, которая умеет отличать дипфейки по нюансам мимики.