В соцсетях резко выросло число фейковых видео катастроф


Фото: ИЗВЕСТИЯ/Сергей Коньков

ИИ создает фейковые видео катастроф — как не попасть на уловки мошенников в соцсетях

В социальных сетях зафиксирован резкий рост количества фейковых видео с природными катастрофами — землетрясениями, пожарами и наводнениями, созданных с помощью искусственного интеллекта. Согласно исследованию «Известий», за последний год их число увеличилось от двух до шести раз, в зависимости от тематики видео. Эксперты связывают эту тенденцию не только с быстрым развитием ИИ, но и с алгоритмами соцсетей, которые активно продвигают подобный контент, вызывающий сильные эмоции, повышая тем самым просмотры и репосты. Такие технологии уже перестали быть лишь развлечением и превратились в инструмент мошенничества и манипуляции общественным мнением. К примеру, известны случаи, когда дипфейки, показывающие последствия землетрясений, использовались для фальшивых благотворительных акций.

Как ИИ создает изображения катастроф

В соцсетях стремительно увеличилось число видеороликов с изображением якобы произошедших природных бедствий — пожаров, наводнений, землетрясений. Однако эти материалы являются подделками, созданными генеративным искусственным интеллектом. За год таких публикаций в России и мире стало в два-шесть раз больше, то есть рост составил 100–500%, сообщили «Известиям» в компании VisionLabs, работающей над технологиями распознавания дипфейков.

Эксперты отмечают, что увеличение связано не только с доступностью ИИ-инструментов, но и с тем, что алгоритмы соцсетей способствуют распространению таких роликов благодаря их эмоциональному воздействию и быстрому привлечению аудитории.

— Мы провели опрос среди россиян, предлагая им определить, какие из фотографий — дипфейки, а какие — настоящие. Большинство участников (от 62 до 80%) приняли изображения, созданные специализированным ИИ, за реальные, — заявили в VisionLabs.

К примеру, после землетрясения на Камчатке активно распространялись фейки о масштабных последствиях стихийного бедствия. Один из таких — ложное сообщение о повреждении атомной подводной лодки ВМФ России вследствие землетрясения. Эта информация была оперативно опровергнута Центром управления регионом (ЦУР) со ссылкой на Тихоокеанский флот и администрацию края. Другие примеры — видео с вертолетом, упавшим на беспилотник над Свердловской областью, или дипфейк, где водители слышат предупреждение по радио об угрозе нападения на предприятие в Ставрополе.

На прошлой неделе СМИ распространили информацию о вирусном ролике, показывающем обрушение огромного аквариума, из которого хлынула вода, смывая людей. Утверждалось, что это произошло в Калифорнии, однако данное происшествие не имело места в действительности.

Сценарии разрушений, которые раньше создавались исключительно в голливудских студиях, сейчас формируются за считанные минуты с помощью ИИ. По словам ИИ-креатора Сергея Бигулова, за последний год количество платформ и приложений для создания подобных видеороликов выросло с сотни до нескольких тысяч. Модели, такие как Runway Gen 4, Google Veo 3 и Seedance 1.0, позволяют генерировать видео в высоком разрешении 1080p (Full HD) только на основе текстового описания. Многие сервисы предоставляются по подписке по невысокой цене или бесплатно.

— То, что прежде требовало дорогостоящего оборудования и недель работы специалистов, теперь можно создать на смартфоне всего за несколько минут, — пояснил эксперт.

Прорывом стала новая модель Runway Aleph, представленная 25 июля 2025 года. В отличие от своих предшественников, Aleph может не только создавать фейковые кадры с нуля, но и редактировать уже существующие видеозаписи, добавил Сергей Бигулов. Достаточно взять обычное видео городской улицы, чтобы через несколько минут превратить её в зону катастрофы. Модель способна также скрывать из кадра элементы, которые выдают подделку — операторы, технику и декорации.

— Мы видим стремительное развитие технологий, которые стирают границы между реальностью и синтетическим контентом. Особенно тревожит демократизация подобных инструментов. То, что ранее требовало профессионального оборудования и навыков, стало доступно любому человеку с обычным смартфоном, — отметил эксперт.

Как выявлять дипфейки в соцсетях

Основной способ защиты — критически воспринимать видеоконтент. Не стоит доверять внезапно появившимся видео без упоминания источников: любое реальное происшествие сопровождается публикациями в СМИ, комментариями официальных ведомств или свидетелей, отметил специалист по цифровым коммуникациям Ярослав Мешалкин.

— Проверка даты и геолокации публикации часто помогает выявить несоответствия. Важно обращать внимание на технические детали: ИИ пока ошибается в нюансах — искривленные лица в толпе, неестественные движения, размытые объекты на заднем плане, — добавил он.

По мнению Ярослава Мешалкина, задача стоит не только в распознавании дипфейков, но и в формировании новой медиаграмотности. Если раньше студенты учились отличать желтую прессу от серьёзной журналистики, то теперь все пользователи интернета должны привыкать проверять источники и с осторожностью относиться к видео, вызывающим сильные эмоции. Помогут и изменения в политике крупных соцсетей, которые учатся распознавать ИИ-видео и планируют отмечать их соответствующим образом.

В пресс-службе компании MWS AI, занимающейся разработкой ИИ-решений, считают, что сейчас необходимы детекторы дипфейков, которые анализируют не только изображение, но и звук. Уже через год-два россиян ждут более сложные видеоролики, с комбинированными технологиями: наложением катастрофы, изображением реального человека и его голосом, а также криками толпы.

Цель таких видео — воздействовать на эмоции пользователей и получать охваты в соцсетях за счёт вирусного эффекта. Яркий пример — ролик об обрушении стеклянного моста в Китае, отметил руководитель отдела исследований и разработки машинного обучения «Лаборатории Касперского» Владислав Тушканов.

— В сфере онлайн-мошенничества злоумышленники могут использовать дипфейк-видео для кражи данных и денег пользователей. Например, мошенники применяют легенды с фальшивыми благотворительными акциями, как это было при землетрясении в Турции. При этом важно понимать, что поддельные видео — лишь часть социальной инженерии, своего рода приманка, — подчеркнул эксперт.

Для защиты от киберугроз он рекомендует придерживаться основных правил безопасности: всегда сверять, действительно ли организация проводит сбор средств или акцию, не переходить по сомнительным ссылкам и не отправлять деньги без проверки получателя.

Лента

Все новости