Экономия на ChatGPT приводит к утечке данных у россиян


Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Экономия на ChatGPT грозит утечкой личных данных и потерей конфиденциальности.

Желающие сэкономить на использовании ChatGPT рискуют стать жертвами утечки персональных данных — в интернете найдено свыше 2000 объявлений о совместном использовании подписок на этот чат-бот и другие ИИ-сервисы, сообщает «Известия». Такие методы экономии набирают популярность, однако эксперты предупреждают о серьезных угрозах: разделения доступа в сервисах нет, поэтому пользователи могут видеть запросы других. Подробнее об этом в публикации «Известий».

Причины утечек данных пользователей

В России всё больше людей приобретают подписки на ChatGPT и иностранные ИИ-сервисы, оформляя их сразу на несколько пользователей. По информации директора по продуктам VisionLabs Михаила Кузнецова, в русскоязычном сегменте Интернета опубликовано более 2000 предложений по продаже коллективных подписок. Один абонемент обычно стоит около 2600 рублей в месяц, поэтому при делении на четверых стоимость на пользователя составляет приблизительно 650 рублей в месяц.

Однако использование такой схемы сопряжено с риском утечки личной информации и данных пользователей.

— Многие ИИ-сервисы не предлагают функции разграничения ролей между участниками, из-за чего один подписчик может ознакомиться с историей запросов другого. Это делает подобные подписки неприемлемыми для работы или приватного использования, особенно если разговоры с ChatGPT носят откровенный характер, например, сравнимы с беседой с психологом или другом, — подчеркнул специалист.

Справка «Известий»

ChatGPT — это чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI, умеющий вести диалог на естественных языках. Его применяют для создания текстов и изображений, перевода и множества прочих задач. Модель постоянно обучается, используя новые данные. ChatGPT доступен во многих странах.

По словам Михаила Кузнецова, большие языковые модели способны «запоминать» введённые пользователями данные и в дальнейшем случайно воспроизводить их при общении с другими, так как информация из диалогов применяется для дополнительного обучения.

— При вводе личной информации, например, номеров телефона, паспорта или банковской карты, эти сведения могут стать частью обучающей базы. После этого кто-то другой рискует получить их в ответе, — пояснил эксперт.

Даже при том, что формально модель не сохраняет данные, возможность их утечки сохраняется. Михаил Кузнецов отметил, что на данный момент практически нет достоверной информации о мерах безопасности, используемых в этих технологиях.

— Нейросети не предназначены для хранения конфиденциальной информации. В отличие от банковских систем или мессенджеров с end-to-end шифрованием, здесь отсутствует надежная защита, при которой только отправитель и получатель имеют доступ к переписке, — добавил он.

Редакция обнаружила в интернете истории пользователей, столкнувшихся с подобными проблемами. Один из них рассказал, что при входе в свой аккаунт обнаружил сотни чужих чатов — среди них были диалоги на иностранных языках, включая китайский. Он предположил, что его аккаунт каким-то образом оказался объединён с профилями других людей. При этом пользователь не думал о взломе, так как диалоги походили на сообщения из разных стран — Камбоджи, Китая, США и других.

Другой человек сообщил, что коллега прислала ему ссылку на чат в ChatGPT. Войдя в свою учетную запись, он увидел в боковой панели заголовки всех ее диалогов. Хотя он не читал эти переписки, ситуация вызвала у него беспокойство, особенно учитывая, что он сам ранее делился подобными ссылками и теперь боится, что кто-то может получить доступ к его диалогам.

Рекомендации по защите данных

Любая технология, будь то для персонального пользования или для оптимизации бизнес-процессов, несет не только пользу, но и потенциальные риски. Независимо от того, используются ли веб-сайты, мобильные приложения или ИИ-помощники, критически важно применять принцип разумного использования и ограниченного раскрытия персональных или коммерчески чувствительных данных, считает директор по ИИ-продуктам AppSec Solutions Мария Усачева.

— Интерес к ИИ-сервисам растет и продолжит расти, поскольку это мощный источник данных, помогающий выполнить запросы пользователя за считанные секунды. Все «нейросети» обучаются с учетом пользовательских запросов и их реакции на полученную информацию, — отметила специалист.

Она добавила, что в настоящее время ведутся активные разработки для создания надежных и доверенных ИИ-систем. Пользователям доступны рекомендации и правила цифровой гигиены.

Эксперт по цифровым коммуникациям Ярослав Мешалкин высказал мнение, что вопрос доверия к ChatGPT остаётся личным выбором, однако следует понимать, что абсолютной безопасности в цифровом пространстве сегодня нет. Любая система может быть подвергнута взлому, а в случае отсутствия взлома владельцы платформ могут использовать полученные данные.

— Не стоит считать, что «личные» запросы никому не интересны: во-первых, их обрабатывают в обобщенном виде для анализа больших данных, во-вторых, нередко случаются ситуации, когда в нейросети отправляют конфиденциальную коммерческую информацию, например, таблицы для анализа. Если ChatGPT пользуется военный генерал или руководитель государственной корпорации, то с учетом нынешнего состояния международной обстановки риски становятся особенно серьезными, — отметил эксперт.

При работе с ИИ-сервисами важно придерживаться основных правил цифровой безопасности, подчеркнул глава группы исследований и разработки машинного обучения в «Лаборатории Касперского» Владислав Тушканов. В частности, не стоит раскрывать конфиденциальные сведения, необходимо критически оценивать предоставленные ответы и перепроверять их особенно по жизненно важным вопросам, использовать официальные приложения и платформы. Кроме того, важно защищать учетные данные, применяя сложные пароли и двухфакторную аутентификацию, подытожил он.