Logo
Cover

Дипфейки — видео, на которых мимика одного человека переносится на лицо другого. Исследователи из Университета Карнеги-Меллона усовершенствовали и расширили ее: теперь можно редактировать видео не столько с людьми.

214

В Университете Карнеги-Меллона разработали более совершенный механизм переноса на видео свойств одного объекта на другой. Это та технология, которая позволяет создавать дипфейки. Свою разработку Ааюш Бэнсал, Шугао Ма, Дева Раманан и Язер Шейх назвали Recycle-GAN и наглядно продемонстрировали превосходство их программы над аналогом — Cycle-GAN.

Сотрудникам университета удалось с помощью нейросетей сгенерировать видео, на котором Дональд Трамп и Барак Обама копируют мимику друг друга. На другом ролике 44-й президент США двигается также, как Мартин Лютер Кинг на старом черно-белом видео.

При этом технологию можно использовать не только для дипфейков, но и для редактирования видео с цветами или облаками.

В основе программы лежит механизм GAN — генеративно-состязательной сети. Для создания таких видео используется алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей. Одна из них генерирует образцы, а другая — старается отличить правильные («подлинные») образцы от неправильных.

Эксперты считают, что подобные фейковые видео могут спровоцировать политический кризис. Впрочем в этой сфере тоже идет своя «гонка вооружений»: например, создана нейросеть, которая умеет отличать дипфейки по нюансам мимики.