На протяжении последнего года технологии дипфейков — поддельных изображений или видеороликов, где политик говорит то, чего никогда не сказал бы на самом деле — прошли большой путь. Из забавы посетителей порносайтов они стали новой реальностью. Но потенциал — в том числе и потенциал ущерба — по-настоящему раскроет лишь редактирование спутниковых снимков, предупреждает Defence One.
Для того, чтобы посеять хаос в масштабах всего мира, достаточно пары простых шагов.
Первое: отредактируйте спутниковые фото так, чтобы на них появились несуществующие дороги или мосты. Второе: внедрите их в датасеты для обучения ИИ.
«Планируя миссию, вы обучаете свои отряды идти определенным маршрутом к мосту, но его там нет. Вас ждет большой сюрприз», — описывает сценарий Тодд Майерс, представитель американского Агентства спутниковой разведки.
Такие возможности дают генеративные состязательные нейросети (generative adversarial network, GAN). И, как подчеркивает Майерс, «ни для кого ни секрет», что в этой области Китай намного опережает США. По его мнению, военные там уже давно оценили потенциал технологии.
GAN может как рисовать на картах новые объекты, так и скрывать от ИИ существующие, внося незаметные для человеческого глаза изменения.
Алгоритм GAN состоит из двух частей. Первая часть — генератор — учится создавать изображения, которые распознает вторая часть алгоритма, арбитр. Когда арбитр начинает путать сгененрированные изображения и реальные фотоснимки, сеть считается рабочей.
Самым наглядным образом прогресс в сфере GAN проиллюстрировали разработчики из Nvidia, представив безупречный генератор виртуальных лиц.