Logo
Cover

Законодатели обеспокоены, что фальшивые видео могут повлиять на «все аспекты американского общества» и просят разведывательное сообщество оценить степень опасности, исходящей от новой технологии.

156

Палата представителей Конгресса США направила официальное письмо директору Национальной разведки с просьбой предоставить подробный отчет о технологии дипфейков — правдоподобных видео, на которых, например, один политик произносит слова, которых никогда не говорил. Конгрессмены просят разобраться, как эту технологию могут использовать во вред и какие контрмеры можно предпринять для сдерживания, сообщает Engadget.

Весь мир узнал про дипфейки, когда пользователи Reddit начали менять лица порноактрис на лица голливудских звезд в видеороликах. Вскоре после этого стало понятно: технологию можно применить в политической борьбе, а также для шантажа.

«Технология становится все более совершенной и доступной, а значит, она может повлиять на общественный дискурс США. Несомненно, дипфейки представляют угрозу национальной безопасности.

Злонамеренное применение данной технологии повлечет за собой тяжелые последствия для всей страны», — уверены конгрессмены Адам Шифф, Стефани Мерфи и Карлос Курбело, составившие письмо для офиса Национальной разведки.

В своем письме законодатели требуют подробно разъяснить, как именно иностранные спецслужбы могут подорвать госбезопасность США с помощью этой технологии. Также их интересует, кто должен отвечать за выявление дипфейков. Конгрессмены попросили предоставить сведения о подтвержденных или предполагаемых попытках использования дипфейков во вред государству и рассказать, какие меры противодействия уже существуют. И есть ли у США преимущества в использовании данной технологии.

Предоставить ответ конгрессмены попросили до 14 декабря.

Ранее свое недовольство дипфейками озвучил сенатор Марко Рубио: «Я знаю наверняка, что Российская Федерация под руководством Владимира Путина пыталась посеять нестабильность и хаос во время предвыборной гонки в 2016. Им удалось это сделать с помощью ботов в Twitter и других инструментов, о которых постепенно становится известно. Но они не использовали дипфейки. А теперь представьте, что бы произошло, если бы у них была эта технология. И какое влияние она оказала бы на ход выборов».

Пока спецслужбы раздумывают, технология продолжает развиваться. Так, в Университете Карнеги-Меллона разработали еще более совершенный способ переноса свойств одного объекта на другой на видео. В основе программы лежит механизм GAN — генеративно-состязательной сети. Исследователям удалось, например, сгенерировать видео, на котором Дональд Трамп и Барак Обама копируют мимику друг друга. 

Появляются, впрочем, и новые средства противодействия. Так, в Университете штата Нью-Йорк выяснили, что распознать подделку можно, анализируя то, как человек на видео моргает.

В борьбу с дипфейками включилось и Управление перспективных исследовательских проектов Министерства обороны США (DARPA). Там хотят намерены создать ИИ, который будет учитывать странные движения головы, необычный цвет глаз и различные физиологические сигналы.