Logo
Cover

Начавшись как развлечение для поклонников странного порно, дипфейки стали национальной угрозой, а теперь изображения расползаются по сети благодаря открытому Nvidia коду. Подделывают лица, котов, стартапы и квартиры в Airbnb. И для этого даже не надо специальных знаний, уверяют создатели таких сайтов.

История «дипфейк-вселенной» в ее нынешнем виде начинается в декабре 2018 года. Тогда разработчики Nvidia представили безупречный генератор виртуальных лиц. Код нейросети StyleGAN, в отличие от похожего текстового генератора от OpenAI, выложен в открытом доступе на Github. Он легко настраивается и обучается новым трюкам.

И теперь сайты с поддельными фото растут, как грибы после дождя, отмечает Business Insider. Пока это чаще всего иллюстрации концепции и страшноватые игрушки. Но использование изображений мошенниками — лишь вопрос времени.

Исторически самое знаменитое применение ИИ в этой сфере — создание дипфейк-видео. Прогресс можно отследить на примере нашумевшего выступления Дженнифер Лоуренс с лицом Стива Бушеми. Голливуд, кстати, возлагает на дипфейки большие надежды: это выведет спецэффекты на новый уровень, а смерть актера больше не положит конец съемкам.

Впрочем, создание видео все же требует серьезных ресурсов и компетенций. А вот использовать StyleGAN совсем просто, уверяют создатели многочисленных сайтов — генераторов подделок.

Самый знаменитый — ThisPersonDoesNotExist, при каждой загрузке он показывает созданные StyleGAN лица. Тему развивают TheCleverest, где можно проголосовать за самые привлекательные и отвратительные виртуальные образы, а также WhichFaceIsReal: там лишь одна из двух фото настоящая, и вам предстоит угадать, какая именно.

Но лица — лишь начало погружения в мир поддельных фото. Уже есть фейковые коты, стартапы и квартиры «в Airbnb».

Создатель последнего сайта — инженер Google Кристофер Шмидт. В компании он работает с открытым кодом и говорит, что у него не было никакого опыта с нейросетями или «огромных ресурсов». Но изучив сайты конкурентов, он настроил StyleGAN для создания поддельного контента в новой тематике. «Это означает, что буквально каждый, убив на это пару часов, может создать нечто столь же убедительное… Есть некоторые части, которые слабо [соответствуют реальности], но в целом предложение выглядит достаточно убедительным, чтобы выдержать мимолетный взгляд».

От поддельных фото к движущемуся изображению — один шаг. Алгоритм для превращения статики в 3D-анимации уже есть.