Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари. JavaScript.. JavaScript. llm.. JavaScript. llm. palo alto networks.. JavaScript. llm. palo alto networks. Антивирусная защита.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект. Исследования и прогнозы в IT.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект. Исследования и прогнозы в IT. код.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект. Исследования и прогнозы в IT. код. малварь.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект. Исследования и прогнозы в IT. код. малварь. обфускация.. JavaScript. llm. palo alto networks. Антивирусная защита. антивирусы. большие языковые модели. Информационная безопасность. искусственный интеллект. Исследования и прогнозы в IT. код. малварь. обфускация. переписывание.

Исследование Palo Alto Networks показало, что большие языковые модели (LLM) можно использовать для массовой генерации новых вариантов вредоносного JavaScript-кода, и это позволяет малвари лучше избегать обнаружения.

Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари - 1

«Хотя с помощью LLM сложно создать вредоносное ПО с нуля, преступники могут легко использовать их для переписывания или обфускации существующего вредоносного кода, что в итоге затруднит его обнаружение», — говорят эксперты.

Так, хакеры могут попросить LLM выполнять преобразования, при достаточном количестве которых производительность систем классификации вредоносного ПО может снижаться. Эти системы будут верить, что вредоносный код на самом деле является безвредным.

Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари - 2

Чтобы продемонстрировать это на практике, исследователи создали алгоритм, который использует LLM для пошагового переписывания вредоносного кода JavaScript, включая переименование переменных, вставку мусорного кода, удаление ненужных пробелов и т.д. Тестируя образцы вредоносного кода, они постоянно применяли эти шаги переписывания, чтобы обмануть статическую модель анализа. На каждом этапе также использовался инструмент анализа поведения для гарантии того, что поведение программы остаётся неизменным.

В 88% случаев такой подход позволял изменить вердикт классификатора малвари Palo Alto Networks, и вредоносный скрипт начинал выглядеть как безобидный. Кроме того, переписанные JavaScript успешно обманывали другие анализаторы вредоносного ПО, в том числе VirusTotal.

Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари - 3

Исследователи также выяснили, что множество переписанных фрагментов выглядят гораздо естественнее, чем результат работы таких библиотек, как obfuscator.io. Последние легче обнаружить и отследить, так как они вносят необратимые структурные изменения в исходный код.

Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари - 4

Чтобы защититься от этого типа атак с помощью LLM, в Palo Alto Networks переобучили классификатор вредоносов JavaScript на десятках тысяч переписанных образцов кода. Его уже развернули в службе Advanced URL Filtering.

Осенью OpenAI выпустила отчёт, в котором заявила, что пресекла более 20 вредоносных киберопераций, где чат-бот ChatGPT использовался для отладки и разработки вредоносного ПО, распространения дезинформации, уклонения от обнаружения и проведения фишинговых атак. Первые признаки такой активности были зарегистрированы в апреле, когда хакеров TA547 (Scully Spider) заподозрили в развёртывании написанного ИИ загрузчика PowerShell для конечной полезной нагрузки, инфостилера Rhadamanthys.

Автор: maybe_elf

Источник

Rambler's Top100