Искусственный интеллект, который активно внедряют в бизнес-процессы для экономии времени на рутинных операциях, может оказаться источником утечки конфиденциальной информации. Как предупредил эксперт «МегаФона» Виталий Щербаков в беседе с «Известиями» 22 декабря, сведения, направляемые в нейросеть, в том числе документы и персональные данные, способны попасть в её обучающую выборку и потом использоваться при формировании ответов для других пользователей.
«Чтобы избежать рисков, связанных с передачей информации третьим лицам или конкурентам, необходимо придерживаться ряда правил безопасности. Первым шагом является настройка приватности в используемом сервисе: следует отключить в настройках функцию, разрешающую обучение модели на ваших запросах, например опцию «улучшить модель для всех», — отметил он.
Специалист также подчёркивает важность принципа «не отправлять реальное»: следует заменять конкретные сведения условными обозначениями и шаблонами. Например, вместо настоящих имен и номеров стоит применять маркировки вроде «Сотрудник Х» или «ID-123». Перед отправкой файлов в нейросеть рекомендуется очищать их с помощью инструментов анонимизации и применять шифрование.
При составлении запросов эксперт рекомендует ясно формулировать цель, исключать лишние детали, структурировать задачу и сокращать объём исходных данных, чтобы не допустить утечки чувствительного контекста. Кроме того, каждый ответ от нейросети нужно обязательно проверять и сверять с надёжными источниками, поскольку ИИ всё ещё может содержать фактические и логические ошибки. Платная подписка на сервис нередко даёт дополнительные средства контроля за обработкой данных.
По словам Щербакова, нейросети безопасно использовать для генерации и редактирования текстов, организации рабочих процессов, решения HR-задач, проведения аналитики на обезличенных данных и создания визуального контента.
«Для бизнеса дополнительными мерами защиты могут стать внедрение LLM-решений во внутреннюю инфраструктуру без доступа в интернет и разработка систем, изначально исключающих обработку конфиденциальных данных. Ключевым фактором безопасности остается осознанный подход пользователя: не следует отправлять в нейросеть информацию, которую вы не хотели бы увидеть в открытом доступе», — заключил специалист.
Ранее, 11 декабря, руководитель отдела управления качеством и внедрения искусственного интеллекта компании «АКФИКС-РУС» Дмитрий Титов рассказал «Известиям», как ИИ помогает в выборе подарков на Новый год. По его словам, чёткий алгоритм с описанием человека, контекста и бюджета позволяет нейросети точнее понять задачу и предложить персонализированные идеи, которые не лежат на поверхности.