Нейросети снизят утечки данных из приложений в 10 раз


Фото: ИЗВЕСТИЯ/Юлия Майорова

Нейросети помогут в 10 раз снизить утечки данных в российских приложениях уже в ближайшие годы

Нейросети помогут снизить количество утечек данных из приложений в десять раз. Российские разработчики уже начали использовать искусственный интеллект для автоматического выявления уязвимостей в отечественных приложениях, сообщили «Известиям» представители отрасли. Нейросеть анализирует код на наличие слабых мест, повышая эффективность выявления угроз и ускоряя процесс проверки в пять раз. При этом эксперты подчёркивают, что искусственный интеллект не совершенен и ошибки всё же возможны, поэтому контроль со стороны специалистов остается необходимым.

Каким образом ИИ поможет уменьшить утечки данных россиян

Российские разработчики применяют ИИ для автоматического поиска уязвимостей в российских приложениях, рассказали «Известиям» участники рынка. Этот метод постепенно перестает быть просто модным технологическим трендом и становится ключевым элементом стратегии повышения кибербезопасности.

Как отметил старший управляющий директор AppSec Solutions Антон Башарин, современные большие языковые модели (LLM) способны не только обнаруживать уязвимости, но и подробно объяснять суть проблемы, а также предлагать изменения для устранения риска.

— В реальных проектах объединение практик безопасной разработки и автоматизированного анализа существенно сокращает число критических уязвимостей в продуктах. При таком подходе отчёты белых хакеров выявляют намного меньше проблем по сравнению с проектами без подобных методов, — объяснил эксперт.

По его словам, при комплексном подходе — включающем автоматический ИИ-анализ, процессы безопасной разработки и контроль подрядчиков — через несколько лет можно ожидать сокращения утечек примерно в десять раз. Это позволит быстрее выявлять пробелы и уменьшать критические ошибки, что приведёт к снижению числа утечек.

Автоматизация поиска уязвимостей с помощью нейросетей способна не только заметно сократить количество инцидентов, связанных с утечкой данных, но и перестроить сам подход к обеспечению безопасности, отметил в интервью «Известиям» член комитета Госдумы по информационной политике, информационным технологиям и связи, федеральный координатор проекта «Цифровая Россия» Антон Немкин. В перспективе нескольких лет развитие подобных технологий может привести к созданию национальной платформы мониторинга уязвимостей в реальном времени, интегрированной с инфраструктурой госструктур и крупных корпораций.

Тем не менее искусственный интеллект не гарантирует абсолютной точности, поэтому эксперт подчеркнул, что роль специалиста остается важной — человек обязан перепроверять результаты работы ИИ для обеспечения надежности и правильности выводов.

Мобильные приложения остаются одной из наиболее уязвимых сфер для киберпреступников. К примеру, недавно в популярном сервисе «Tea», где женщины анонимно публикуют отзывы о мужчинах, произошла утечка данных: в сеть попали десятки тысяч изображений и документов пользователей из открытой базы.

Как компании внедряют ИИ для анализа кода

Руководитель информационной безопасности «Авито» Андрей Усенок рассказал «Известиям», что компания уже использует генеративный ИИ для защиты кода. Решение автоматизирует обнаружение потенциально чувствительных данных — таких как пароли к базам, API-ключи и токены доступа — которые могут угрожать безопасности при появлении в публичном коде. По словам Усенока, система улавливает 99% угроз и позволяет мгновенно удалять опасные данные из кода, экономя при этом до 25% времени специалистов по безопасности.

Похожие технологии внедряются и в других российских IT-компаниях. В Yandex Cloud, например, в сервисе Security Deck применяются AI-решения, которые выявляют риски утечки данных, рассказал директор по безопасности платформы Евгений Сидоров. ИИ сканирует публичные хранилища на наличие персональных, платежных и других конфиденциальных данных и предлагает рекомендации по снижению рисков — например, перемещение файлов или активацию шифрования.

В МТС также активно применяют ИИ для проверки кода: ИИ-ассистенты помогают программистам выявлять уязвимости и ошибки с высокой точностью и автоматически создают тесты для проверки, сообщили в пресс-службе MWS AI (входит в МТС Web Services). Для работы с большими языковыми моделями там используется дополнительный модуль — цензор, который контролирует запросы пользователей и ответы модели, обеспечивая безопасное взаимодействие с ИИ.

«Лаборатория Касперского» планирует выйти на рынок систем управления уязвимостями в 2026 году. Их решение с AI-функциональностью будет сочетаться с мультиагентной GenAI-системой «Сбера», предназначенной для автоматической проверки защищенности инфраструктуры.

Антон Башарин из AppSec Solutions отметил, что внедрение LLM в процессы безопасной разработки пока сопряжено с определёнными сложностями: для эффективной работы требуется большое количество вычислительных ресурсов, предварительная подготовка и нормализация данных. Кроме того, такие системы иногда уступают по скорости классическим сканерам.