Hitech logo

Кейсы

БЯМ превращают вредоносный код в невидимый для антивирусов

TODO:
Екатерина Шемякинская26 декабря 2024 г., 10:13

Исследователи из Palo Alto Networks Unit 42 показали, что большие языковые модели способны генерировать тысячи вариантов вредоносного JavaScript-кода, усложняя его обнаружение антивирусами. ИИ использует такие методы, как переименование переменных, фрагментация строк, вставка избыточного кода и полная переработка структуры, что делает вредоносный код менее подозрительным. В ходе эксперимента было создано более 10 000 модификаций, которые обходили системы защиты в 88% случаев. Это указывает на новые риски в сфере кибербезопасности.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Разработчики искусственного интеллекта принимают меры по повышению уровня безопасности своих платформ. Так, в октябре 2024 года OpenAI пресекла деятельность более 20 операций и мошеннических сетей, которые пытались использовать ее сервисы для разведки, поиска уязвимостей, поддержки скриптов и отладки программного обеспечения. Тем не менее, злоумышленники активно используют такие инструменты, как WormGPT, для автоматизации создания изощренных фишинговых атак и разработки новых, более опасных видов вредоносного ПО.

«Хотя БЯМ с трудом создают вредоносное ПО с нуля, преступники могут легко использовать их для перезаписи или маскировки уже существующего вредоносного ПО, что затрудняет его обнаружение. Злоумышленники могут давать БЯМ запросы на выполнение преобразований, которые выглядят гораздо более естественно, что усложняет обнаружение этого вредоносного ПО», — говорится в новом анализе исследователей Unit 42 из Palo Alto Networks.

Исследователи из Unit 42 применили большие языковые модели для генерации 10 000 новых вариантов вредоносного JavaScript-кода на основе существующих образцов. Полученные варианты сохраняли исходную функциональность, но при этом «притворялись» куда менее вредоносными, обходя такие системы обнаружения, как Innocent Until Proven Guilty (IUPG) и PhishingJS.

Примечательно, что даже собственная система классификации Unit 42 в 88% случаев ошибочно признавала модифицированный код безопасным. Аналогичные результаты были получены при проверке на платформе VirusTotal.

В методах ИИ нет ничего принципиально нового. Применяется ряд стандартных техник: переименование переменных, фрагментация строк, вставка избыточного кода, удаление избыточных пробельных символов и полная переработка исходного кода. Этот процесс повторяется до 10 000 раз, из-за чего антивирусы начинают считать измененный код безвредным.

Искусственный интеллект генерирует более естественные варианты кода по сравнению с библиотеками вроде obfuscator.io, которые из-за характерных изменений легче обнаруживаются и идентифицируются. В Unit 42 считают, что генеративный ИИ может значительно увеличить количество новых вариантов вредоносного кода. Однако те же методы переписывания можно использовать для создания обучающих данных и повышения устойчивости моделей машинного обучения. Появление новых угроз стимулирует развитие более совершенных методов защиты.