Опасные веб-ресурсы для работы с ИИ оказались уязвимыми


Фото: ИЗВЕСТИЯ/Сергей Коньков

Опасные уязвимости в AI-сервисах могут привести к утечке переписок и вирусам

Компании, специализирующиеся на кибербезопасности, предупредили о том, что несколько платформ для общения с искусственным интеллектом оказались подвержены атакам мошенников. Вследствие этого переписка пользователей с нейросетями может стать уязвимой, а вредоносный код способен внедряться в веб-страницы. Ранее подобные угрозы выявлялись лишь в программном обеспечении, созданном с применением ИИ, однако в связи с ростом количества приложений на базе искусственного интеллекта проблемы перешли и на них. Подробнее о выявленных рисках — в материале «Известий».

Обнаруженные уязвимости в приложениях

В третьем квартале 2025 года специалисты зафиксировали резкое увеличение числа уязвимостей в AI-сервисах — веб-приложениях, построенных на базе искусственного интеллекта. До этого таких случаев не наблюдалось. Об этом «Известиям» сообщили в центре расследования киберугроз Solar 4RAYS, входящем в ГК «Солар».

— Обнаруженные случаи касались классических клиентских уязвимостей, например, внедрения вредоносного кода в веб-страницы и получения доступа к внутренним компонентам приложения, — отметил аналитик центра Сергей Беляев.

Отмечено также, что одна из найденных уязвимостей давала злоумышленникам возможность получать доступ к перепискам пользователей с нейросетью.

Проблемы были выявлены в платформах Aibox — для работы с различными нейросетями, Liner — ИИ-поисковой системе, Telegai — сервисе для ролевых игр с ИИ-персонажами, Deepy — ИИ-помощнике с открытым исходным кодом, Chaindesk — платформе для создания чат-бота ChatGPT AI для веб-сайтов, а также Ai2 Playground — онлайн-сервисе для создания и редактирования изображений с ИИ.

— Подобные уязвимости часто возникают, когда искусственный интеллект применяется для генерации кода без достаточной проверки и тестирования — процесс, известный в индустрии как вайбкодинг. Можно предположить, что недавний всплеск этих проблем связан с возросшим интересом к данному подходу в программировании, — пояснил Сергей Беляев.

Проблема усугубляется игнорированием стандартов и проверенных принципов безопасной разработки, добавил ведущий аналитик угроз компании WMX Павел Захаров.

— Сегодня в разработке популярны решения на основе ИИ, которые позволяют быстро получить нужный результат, однако зачастую без последующей проверки безопасности, — отметил он.

В таких сервисах встречаются как традиционные веб-уязвимости, так и специфические — новый тип угроз, направленных на AI в бизнес-логике приложений, называемый «промт-инъекциями», — подчеркнул эксперт.

Эксперты также всё чаще выявляют проблемы с обработкой пользовательских запросов, нарушениями в настройке прав доступа, утечками данных и ненадлежащим хранением персональной информации, подтвердил технический директор MD Audit (ГК Softline) Юрий Тюрин.

Ключевая сложность связана с характером данных, к которым могут получить доступ хакеры, уточнил Павел Захаров.

Особая опасность заключается в неопытных разработчиках, применяющих ИИ, которых называют «вайб-кодерами», уточнил ведущий специалист по уязвимостям в ИС «Бастион» Сергей Зыбнев.

— Они пользуются ChatGPT и аналогичными инструментами для генерации кода без проверки его безопасности, — пояснил эксперт. — В результате появляющиеся уязвимости часто повторяют ошибки, заложенные в обучающих данных ИИ. Еще одна лазейка связана с отсутствием у компаний соответствующих процессов безопасной разработки и эксплуатации AI-систем, а также мониторинга аномалий и контроля входных данных.

Какая информация может быть раскрыта через чат с ИИ

Переписки пользователей с искусственным интеллектом зачастую содержат конфиденциальную информацию, включая пароли, данные клиентов, коды программ, бизнес-планы и коммерческие тайны, что представляет серьезную угрозу для безопасности корпоративных данных, отметил Павел Захаров.

ИИ-модели получают доступ к различным данным, инструментам и файлам, и любая ошибка в настройках безопасности может вызвать утечку секретной информации, подчеркнул директор по цифровым проектам брендингового агентства BrandLab Юрий Зюзин.

— Речь может идти о личных данных пользователей, внутренних документах компаний, клиентских базах или системных паролях, которые нейросеть могла случайно обнаружить и передать наружу, — уточнил специалист. — Главные угрозы связаны с автоматическим выполнением вредоносных команд, заражением файлов, подменой инструментов и утечками через «безобидные» текстовые запросы.

На практике чаты с ИИ часто просматривают инженеры, обучающие отделы и службы безопасности, а также иногда сотрудники технической поддержки, напомнил основатель сервиса по разведке утечек информации и мониторингу даркнета DLBI Ашот Оганесян.

— Не говоря уже о случаях, когда пользователь по неосведомленности сам открывает доступ к чату через поисковик, распространяя его в интернете, — добавил он.

Для безопасного использования AI-сервисов специалисты советуют придерживаться строгих правил, аналогичных корпоративным стандартам кибербезопасности.

— Во-первых, запрещается вводить в языковые модели конфиденциальные сведения, включая коммерческие тайны, пароли и внутренние документы, — отметил Юрий Тюрин. — Во-вторых, важно использовать только проверенные платформы с прозрачной политикой обработки данных и открытым доступом к отчетам об уязвимостях.

Безопасность при работе с AI-помощниками обеспечивается регулярным удалением истории диалогов и использованием разных аккаунтов для профессиональной и личной работы, отметил Сергей Зыбнев.

Компании, внедряющие искусственный интеллект, должны проводить периодический аудит используемых моделей, внедрять системы анализа потоков данных и контролировать сетевую активность для предотвращения утечек. Кроме того, необходимо развивать культуру «безопасного ИИ», обучая персонал принципам цифровой гигиены при взаимодействии с нейросетями.