Эксперты предупредили о рисках бесконтрольного развития ИИ


Фото: РИА Новости/Максим Богодвид

Три ключевых тренда искусственного интеллекта и угрозы для бизнеса и безопасности

Искусственный интеллект перестал быть лишь инструментом для «умных» помощников и быстро выполняемых расчетов, отмечают эксперты Positive Technologies. Они исследовали три главных направления ИИ — агентский ИИ, edge AI и квантовый ИИ, выявив, что каждое из них несет не только бизнес-возможности, но и значительные киберугрозы.

Агентский ИИ, основанный на больших языковых моделях (LLM), представляет собой ботов, способных самостоятельно обрабатывать информацию, принимать решения и взаимодействовать с клиентами. По оценкам Gartner, к 2028 году такие решения смогут автоматизировать около 15% рутинных задач бизнеса, например, управление логистикой и персонализированное обслуживание. Вместе с тем, у этого подхода обнаружены и серьезные риски.

Злоумышленники уже научились манипулировать такими агентами — изменять данные в их памяти, вводить фейковую информацию (например, ложные заказы клиентов) или перегружать запросами. В результате может возникнуть цепочка ошибок: бот может начать нарушать политики безопасности, передавать конфиденциальную информацию неправомерным адресатам или даже выполнять вредоносные действия. Если внедрить вирусный код в фреймворки создания подобных агентов, под угрозой окажутся все связанные системы.

Edge AI — это искусственный интеллект, работающий непосредственно на устройстве: в умных камерах, медицинских сенсорах или бытовых приборах умного дома. Он обрабатывает данные без необходимости постоянного подключения к интернету, что особенно важно для медицинских решений в реальном времени и систем управления городским трафиком.

Однако подобные гаджеты часто имеют уязвимости: устаревшее железо и ненадежные настройки. Это позволяет злоумышленникам атаковать их через сеть (с помощью DDoS или подмены IP / MAC-адресов) или подделывать поступающие данные. В медицине такие атаки способны привести к неправильной диагностике, а в промышленности — к авариям оборудования.

Квантовый ИИ пока находится на ранних этапах применения, но его возможности огромны: он справляется с задачами оптимизации сложнейших процессов, например, в логистике и фармацевтике, а также моделирует молекулярные структуры для создания инновационных материалов. В настоящий момент такие технологии предлагаются через облачные сервисы, что создает дополнительные уязвимости.

Злоумышленники могут атаковать облачные платформы, чтобы получить архитектуру ИИ-моделей или учебные данные. Подмена входных данных может привести к опасным последствиям: в химии ядовитое вещество может быть неправильно классифицировано, а в финансовом секторе — мошеннические операции останутся незамеченными. Кроме того, квантовый ИИ усиливает традиционные методы атак, например, ускоряя подбор паролей.

«На текущий момент злоумышленникам проще использовать традиционные методы взлома корпоративных систем, чем атаковать ИИ-агентов или квантовые модели. Однако ситуация может измениться в скором времени», — отмечает Яна Авезова, ведущий аналитик Positive Technologies.

Эксперты советуют не поддаваться панике, но оставаться внимательными. При внедрении ИИ бизнесу необходимо интегрировать кибербезопасность в общую стратегию, следить не только за защитой моделей, но и контролировать взаимодействие ИИ с бизнес-процессами. Важно проводить обучение сотрудников, чтобы они понимали риски и умели обнаруживать подозрительную активность ИИ. Также следует защищать данные — ограничивать доступ и внедрять меры по предотвращению утечек.

31 июля стало известно, что цифровые собеседники становятся настоящими спутниками для множества россиян. В 2025 году число пользователей таких сервисов удвоилось, а средний трафик ИИ-помощников вырос в четыре раза, свидетельствуют данные аналитики компании Yota. Особенно заметным стал рост аудитории ботов психологической поддержки — она увеличилась почти в пять раз.

Лента

Все новости