Хакеры начали применять искусственный интеллект (ИИ) для осуществления вымогательства. По словам экспертов, уже обнаружена первая программа-вымогатель, основанная на нейросетях, и в ближайшем будущем такие вирусы могут превратиться в серьезное и более часто встречающееся оружие для киберпреступников. В материале «Известий» подробно рассказано о том, как злоумышленники научились использовать ИИ в вымогательских атаках, в чем заключаются риски и какими методами можно защищаться от этих угроз.
Каким образом хакеры применяют ИИ в вымогательстве?Искусственный интеллект заинтересовал киберпреступников, поскольку помогает автоматизировать процессы, включая анализ и отбор файлов-жертв, что повышает эффективность и персонализацию атак, рассказывает начальник отдела информационной безопасности компании «Код Безопасности» Алексей Коробченко в интервью «Известиям».
— С одной стороны, алгоритмы позволяют усовершенствовать атаки, адаптируя их под особенности защиты и усложняя обнаружение вредоносного ПО, а с другой — делают возможным обход систем безопасности, — отмечает специалист.
Первую программу-вымогатель на базе ИИ уже выявили. Сообщение об этом поступило в конце августа от исследователей из международной компании ESET, которая занимается разработкой антивирусных решений и компьютерной безопасности.
Вирус под названием PromptLock пока не зафиксирован в реальных атаках, однако эксперты ESET уверены, что их находка демонстрирует потенциал использования доступных ИИ-инструментов для усиления существующих программ-вымогателей и других видов киберугроз.
В чем заключается угроза вирусов-вымогателей на базе ИИ?Применение нейросетей для создания вредоносного ПО не является новым явлением, отмечает ведущий эксперт Kaspersky GReAT Татьяна Шишкова в беседе с «Известиями». Например, в конце 2024 года была зафиксирована программа-шифровальщик FunkSec, атаковавшая организации из госсектора, IT, финансов и образовательной сферы в Европе и Азии.
— Данный шифровальщик был создан с помощью генеративного ИИ, и, судя по техническому анализу, большая часть кода была сгенерирована автоматически, а не вручную, — объясняет специалист.
PromptLock выделяется тем, что в него встроена ИИ-модель с открытым исходным кодом, которая запускается локально, уточняет Татьяна Шишкова. Это означает, что нейросеть генерирует вредоносный код непосредственно на зараженном устройстве, а не на стороне злоумышленников. На данный момент PromptLock не обладает полной функциональностью, и случаи заражения неизвестны.
Таким образом, данная программа либо находится в стадии разработки, либо является концептом.
— PromptLock использует модель GPT-OSS-20b через API Ollama для создания Lua-скриптов, совместимых с Windows, Linux и MacOS, — дополняет директор по ИИ «Группы Астра» Станислав Ежов.
Программа проводит сканирование файловой системы, анализирует содержимое и по предопределённым промптам принимает автономные решения о шифровании или краже данных.
— Главное отличие от предыдущих угроз — способность динамически генерировать код, что делает каждую атаку уникальной и затрудняет создание сигнатур для ее обнаружения, — подчеркивает эксперт. — Также нетипичным является применение алгоритма SPECK для шифрования информации.
Какие перспективы у ИИ-вымогательства в сети?Появление подобных вирусов стало возможным благодаря доступности языковых моделей, включая Open Source, рассказывает руководитель BI.ZONE Threat Intelligence Олег Скулкин. Также влияет использование обходных методов для формирования промптов, что разрешает получать вредоносный код даже от ИИ с ограничениями.
— Нейросети понижают барьер входа: теперь все больше потенциальных злоумышленников смогут создавать шифровальщики. Кроме того, они широко практикуют обход встроенных ограничений ИИ, используя косвенные команды и маскируя истинные цели запросов, — отмечает Олег Скулкин.
В будущем применение нейросетей в онлайн-вымогательстве, скорее всего, станет более распространенным, полагает AI-консультант и специалист Аналитического центра кибербезопасности компании «Газинформсервис» Татьяна Буторина. Одним из возможных вариантов развития является отладка, техническое совершенствование и дальнейшая доработка экспериментального варианта PromptLock.
— Впоследствии этот вирус-вымогатель могут предложить как услугу, включая технически неподкованных пользователей, что расширит круг киберпреступников, — говорит специалист.
Интеграция ИИ в вредоносный код станет логическим этапом развития киберпреступности, обеспечит автоматический поиск уязвимостей, обход защитных механизмов и адаптацию к инфраструктуре жертв, дополняет эксперт по кибербезопасности из Angara Security Никита Новиков.
— Такие вирусы-вымогатели могут стать гораздо опаснее классических вариантов и со временем занять значимое место на теневом рынке киберуслуг, — подытоживает он.
Каким образом защититься от вымогательства с применением нейросетей?Для противодействия ИИ-вымогателям необходим комплексный подход, советует Алексей Коробченко. Во-первых, следует регулярно обновлять операционную систему и приложения, а во-вторых, использовать антивирусные и антишпионские средства.
— Также важно создавать резервные копии важных данных на отдельном носителе или в облачном хранилище, чтобы в случае атаки можно было восстановить информацию без выплаты выкупа, — рекомендует эксперт «Известиям».
Для компаний критично проводить обучение сотрудников по кибербезопасности, включая распознавание фишинговых писем, а также внедрять многофакторную аутентификацию для защиты систем.
Постоянный мониторинг сети на наличие подозрительной активности поможет быстро реагировать на инциденты.
Алексей Коробченко выделяет один из эффективных методов борьбы с ИИ-вымогательством — гранулярную выдачу прав локальному программному обеспечению, работающему с нейросетями. Это означает, что установленное ПО должно иметь минимальные привилегии в операционной системе и ограниченный доступ к файлам.
— Следует понимать, что, несмотря на то, что ИИ может сгенерировать вредоносный код, он не осуществляет атаку самостоятельно. На данный момент нейросеть служит вспомогательным инструментом на разных этапах атаки, — поясняет Олег Скулкин. В случае с PromptLock злоумышленники использовали локальную GPT-модель, чтобы сгенерировать код по заданному промпту внутри вредоносной программы, добавляет эксперт.
На глобальном уровне противодействие ИИ-угрозам возможно при совместной работе разработчиков нейросетей, компаний информационной безопасности и регулирующих органов, а также при обмене информацией о новых видах атак и инструментах защиты, заключает «Известиям» собеседник.