Искусственный интеллект превратился в серьезное оружие манипуляции массовым сознанием в рамках информационных конфликтов. Поддельные ролики, якобы снятые в горячих точках или районах стихийных бедствий, моментально распространяются в интернете, собирая огромную аудиторию.
Эксперты подчеркивают, что нейросети все чаще применяются злоумышленниками. С их участием совершается около трети всех киберпреступлений. Злоумышленники получают доступ к Telegram-аккаунтам, создают поддельные голосовые записи и синтезируют фотографии.
«Как автоматизированная система способна отправить за решетку невиновного? Благодаря фальшивым биометрическим данным и голосовым копиям. Под ударом может оказаться любой», — отмечается в расследовании РЕН ТВ.
В специальном выпуске «Искусственный интеллект: скрытая опасность для всех» на канале РЕН ТВ эксперты обсудят возможности противостояния враждебному ИИ и расскажут о сохраняющихся уязвимостях нейронных сетей.
Заместитель главы IVA Technologies Максим Смирнов 29 июня сообщил, что главными угрозами ИИ остаются компрометация личной информации и мошеннические схемы с дипфейками. В РФ за январь-февраль текущего года было зафиксировано 19 масштабных утечек, затронувших данные 24 млн граждан. Для защиты персональных данных специалисты советуют минимизировать их публикацию в сети и применять криптографические методы. Бизнесу рекомендуется развертывать системы ИИ в изолированных корпоративных сетях.