Нейросети копируют мимику и жесты


Фото: ИЗВЕСТИЯ/Анна Селина

Дипфейки: как ваши фото в соцсетях превращают в оружие

Генеративные нейронные сети могут копировать не просто облик человека, но также его мимику, жестикуляцию и манеру поведения, что делает дипфейки мощным средством для манипуляций. Такое мнение 5 апреля в беседе с «Известиями» высказал ИИ-режиссер и бизнесмен Алексей Рыков.

Он пояснил, что для генерации правдоподобных картинок и роликов нейросети используют реальные данные — фотографии и видео, анализируя и извлекая из них характерные поведенческие модели.

Специалист отметил, что эти технологии уже широко применяются преступниками. Частый пример — видеозвонки, в которых используется синтетическое лицо и голос, когда афессисты притворяются друзьями или членами семьи.

Рыков также указал, что открытый контент в социальных сетях стал ключевым источником информации для обучения алгоритмов. Таким образом, пользователи сами поставляют материал для формирования своих цифровых двойников.

«Особую опасность представляет распространение поддельных видео в публичном пространстве. Ролики со знаменитостями мгновенно привлекают внимание, тогда как опровержения появляются с задержкой и достигают меньшего числа зрителей. Помимо этого, дипфейки применяются как инструмент шантажа в деловых и личных спорах — для их изготовления хватает нескольких публичных фрагментов из открытого аккаунта», — сообщил Рыков.

По его словам, нейросети дают возможность воссоздавать образ человека практически в любой обстановке и масштабе. Эксперт добавил, что нынешние средства выявления дипфейков имеют ограниченную эффективность и не поспевают за растущим объемом подобного контента.

В завершение он предположил, что в перспективе возможно внедрение маркировки контента, созданного ИИ, ужесточение ответственности за его применение, а также развитие культуры цифрового согласия. Эта технология, по его оценке, повторит путь развития интернета, но в ускоренном темпе и с более глубоким влиянием на человеческую идентичность.

Психолог, участник ассоциации когнитивно-поведенческой терапии Вероника Ахметова 11 марта заявила, что взаимодействие с искусственным интеллектом способно привести к депрессии и профессиональному выгоранию у работников, если коммуникация с системой организована некорректно. В первую очередь, это связано с потерей смысла в выполняемой деятельности.