Несмотря на то, что факты утечек данных через нейросети находятся в стадии обсуждения и не подтверждены окончательно, риски нельзя игнорировать. Такое мнение в пятницу, 1 августа, озвучил руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.
Эксперт предупредил пользователей о том, что загрузка приватной информации в ChatGPT и другие нейросети создает потенциальные угрозы дальнейшего незаконного использования этих данных. Он отметил, что технологии постоянно совершенствуются, и вчерашние методы защиты могут завтра оказаться недостаточно надежными.
«Категорически запрещено загружать данные, которые могут нанести вред вам или другим людям. Под это подпадают паспортные данные, сетевые идентификаторы, платежные реквизиты карт, медицинские документы, логины и пароли от сервисов, а также любая другая информация, позволяющая идентифицировать человека и потенциально использовать это во вред», — рассказал он в интервью Lenta.Ru.
Кузьменко добавил, что самым безопасным вариантом взаимодействия с нейросетью является применение обезличенных данных. Это подразумевает удаление всех сведений, которые могут указывать на конкретного человека, перед загрузкой. Если предоставленная информация может быть использована во вред, лучше отказаться от запроса и решить задачу индивидуально, заключил специалист.
28 июля президент Союза адвокатов России Игорь Трунов сообщил НСН, что использование искусственного интеллекта при подготовке преступлений может рассматриваться в России как отягчающее обстоятельство, при этом «недружественные ИИ» остаются в открытой правовой зоне.
В тот же день глава OpenAI Сэм Альтман заявил, что органы власти смогут получить доступ к переписке пользователей с ChatGPT по судебному запросу, сообщают 360.ru.
Ранее, 23 июля, представители лаборатории искусственного интеллекта T-Bank AI Research объявили о разработке нового метода интерпретации и управления языковыми моделями, основанного на технологии SAE Match. Это позволяет напрямую корректировать ошибки и галлюцинации при генерации текста крупными языковыми моделями.
Языковые модели, вроде ChatGPT, строят свои ответы по многоуровневой архитектуре, где каждый слой последовательно обрабатывает и передает информацию дальше. До сих пор исследователи могли лишь отмечать признаки (концепты), появляющиеся в этих слоях, не понимая конкретно, как они изменяются.
12 июня психолог и заместитель директора Института клинической психологии и социальной работы Пироговского университета Екатерина Орлова предупредила, что недопустимо доверять чат-ботам самые личные переживания, страхи и травматический опыт, сообщает RT.
Все самые важные новости — на нашем канале в мессенджере MAX