Большие языковые модели (LLM) доказали свою способность создавать тысячи версий вредоносного JavaScript-кода, который успешно уклоняется от антивирусных программ. Эксперты Palo Alto Networks Unit 42 показали, что ИИ генерирует более 10 000 вариантов, обходя защиту в 88% случаев. Это вызывает серьезные опасения, так как такие технологии могут использоваться для сокрытия вредоносного ПО.
Исследователи отмечают, что LLM пока не разрабатывают вредоносное ПО с нуля, но отлично маскируют уже существующие угрозы. Злоумышленники могут применять ИИ для переписывания кода, делая его сложным для обнаружения.
Несмотря на усилия разработчиков LLM, направленные на предотвращение злоупотреблений, преступники уже используют инструменты вроде WormGPT. Эти программы автоматизируют создание фишинговых писем и разработку нового вредоносного ПО.
В ходе тестирования специалисты Unit 42 выяснили, что ИИ создает варианты кода, которые остаются незамеченными такими защитными средствами, как IUPG и PhishingJS. При этом код сохраняет свой вредоносный потенциал, но выглядит более безобидно.
ИИ использует стандартные методы запутывания: переименовывает переменные, разбивает строки, добавляет или удаляет элементы кода. Такие действия позволяют обходить антивирусы, воспринимающие измененный код как безопасный.
Хотя эта ситуация вызывает тревогу, эксперты видят в ней и положительный потенциал. В будущем ИИ может стать не только инструментом для создания угроз, но и мощным помощником в их обнаружении и нейтрализации.
Читать далее:
ИИ за три недели спроектировал клиновоздушный ракетный двигатель: оказалось, он работает
Ученые нашли практически безграничный источник топлива
Ученые считают, что мы неправильно понимаем Вселенную: в чем причина
Обложка: AI | freepik