Hitech logo

искусственный интеллект

Представлено ПО, защищающее голос от подделки системами ИИ

TODO:
Георгий Голованов29 ноября 2023 г., 10:46

Современные системы ИИ способны воспроизвести человеческий голос даже по короткому отрывку записи с ним. И все чаще эта технология используется для создания дипфейков не только для развлечения, но и с целью мошенничества. Новый инструмент AntiFake, созданный инженерами из США, защищает запись голоса от копирования алгоритмами ИИ путем добавления в запись неслышимых человеческим ухом искажений. В результате для человека запись звучит как прежде, но когда ИИ пытается воспроизвести голос, результат оказывается совершенно не похож на оригинал.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Случаи, когда люди переводили злоумышленникам крупные суммы, услышав в трубке голос родственника или начальника, уже известны. Кроме того, подделанный голос можно использовать для обхода систем безопасности с голосовой идентификацией. Не говоря уже о появлении в сети фейковых роликов с политиками или знаменитостями, которые произносят то, чего никогда не говорили.

Для определения голосов, подделанных с помощью программ создания дипфейков, технологии уже имеются. Однако AntiFake — одна из самых первых, которые предотвращают незаконное использование голоса пользователя. Суть метода в том, чтобы усложнить системам ИИ считывание ключевых голосовых характеристик из записей голоса, пишет New Atlas.

«Этот инструмент использует метод ИИ, который изначально был частью инструментария киберпреступников, но теперь мы применяем его для защиты от них, — сказал Чжан Нин, один из изобретателей, из Университета штата Вашингтон в Сент-Луисе. — Мы вносим мельчайшие изменения в записанный аудиосигнал, искажаем или возмущаем его совсем чуть-чуть, чтобы на слух это было незаметно, но для ИИ это будет совсем другой звук».

Это значит, что даже если ИИ сможет выполнить подделку, звучать она будет совсем не так, как оригинал. Проведенные тесты показали, что эффективность технологии AntiFake в предотвращении синтеза убедительных дипфейков — более 95%.

«Хоть я и не знаю, как будет развиваться голосовая технология ИИ — новые инструменты и функции изобретают постоянно — я думаю, что наша стратегия обращения оружия противника против него самого останется эффективной», — заявил Чжан.

В начале года Союз дикторов России попросил Госдуму установить специальное регулирование синтеза человеческого голоса с помощью технологий искусственного интеллекта. Дикторы боятся, что их голоса могут скопировать с помощью ИИ-инструментов, в результате чего они потеряют работу и доход.