Вредные советы: как подростки используют ИИ для манипуляций с родителями


Фото: ИЗВЕСТИЯ/Павел Волков

Подростки используют ИИ для убеждения родителей, но это таит опасности.

Подростки начинают применять искусственный интеллект (ИИ) для влияния на родителей — данный тренд получает все большее распространение в социальных сетях. Школьники обращаются к нейросетям, чтобы аргументированно убедить родителей разрешить им сделать пирсинг или покрасить волосы в яркий цвет. Тем не менее специалисты предупреждают, что молодежь может использовать ИИ и для более опасных запросов, связанных, например, с изготовлением запрещенного контента или созданием рискованных вызовов. Подробности о причинах обращения школьников к нейросетям за сомнительными советами, потенциальных опасностях и способах выявления этого родителями изложены в статье «Известий».

Информация о применении подростками ИИ для манипуляций

В соцсетях все чаще появляется новый тренд — подростки рассказывают о своем опыте использования нейросетей для давления на родителей, что не так давно стало темой в новостных пабликах и Telegram-каналах. Как сообщает «Газета.ру», молодые люди утверждают, что сгенерированные с помощью ИИ доводы настолько убедительны, что родители не могут им отказать.

К примеру, одна из пользовательниц поделилась, что нейросеть помогла составить перечень весомых причин, подтверждающих безопасность временного окрашивания волос. Другая девушка рассказала, что благодаря поддержке ИИ сумела после двух лет убеждений добиться разрешения на пирсинг от родителей. Третья юная пользовательница отметила, что подсказки нейросети позволили ей уговорить отца разрешить сделать пирсинг септум — в нос.

Подростки отмечают, что искусственный интеллект помогает им четко формулировать мысли и приводить аргументы, которые оказываются неожиданными для взрослых и сложно оспоримыми.

— Нейросеть применяет продуманные, структурированные формулировки и нейтральные аргументы, которые зачастую подросток по причине эмоциональности сам выразить не в силах, — объясняет в интервью «Известиям» руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Высказывания, сгенерированные ИИ, создают впечатление разумных доводов, что облегчает подросткам давление на родителей.

Другие вредные рекомендации, которые получают подростки от нейросетей

Согласно ежегодному исследованию «Лаборатории Касперского», 63% детей задействуют нейросети для поиска информации, 60% используют ИИ для выполнения домашних заданий, а 53% просят объяснить сложные темы. Как отмечает в интервью «Известиям» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко, запросы к ИИ помогают школьникам получить ответы на волнующие их вопросы из реальной жизни, можно считать их аналогом обычных поисковых запросов.

— При этом нейросети иногда выдают вредные либо опасные рекомендации, например, советы по экстремальным диетам, предложения участвовать в рискованных челленджах или создавать нелегальный контент, — сообщает Анастасия Хвещеник. — Такие ситуации уже неоднократно фиксировались как в России, так и за рубежом.

Эксперт рассказывает, что в российских примерах ИИ-помощники, выполняя домашнюю работу для младших школьников, могли советовать методы борьбы с укусами ядовитых змей, что явно не соответствует возрастной категории учеников. Однако и у нас, и в мировых случаях зафиксированы куда более серьезные риски — от инструкций по самоповреждению до создания дипфейков, используемых для кибербуллинга, добавляет директор по ИИ «Группы Астра» Станислав Ежов.

— В 2025 году заметно возрастает число ситуаций, когда подростки обращаются к чат-ботам с вопросами о том, как обманывать взрослых, скрывать вредные привычки или реализовывать опасное поведение, — рассказывает специалист. — Порой ИИ-компаньоны полностью вытесняют у школьников живое общение с друзьями.

Руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин подтверждает, что сейчас искусственный интеллект не отказывается отвечать на опасные запросы подростков, связанные, в том числе, с расстройствами пищевого поведения и самоубийствами. Это вызывает серьезные риски.

Опасности бесконтрольного взаимодействия школьников с ИИ

Создатели ИИ-технологий прилагают усилия для обучения нейросетей этическим нормам, но обычно нейросетевые помощники не способны учитывать контекст и осознавать социальную ответственность за свои ответы, рассказывает в интервью «Известиям» Анастасия Хвещеник.

Кроме того, использование ИИ для манипуляций разрушает доверие между поколениями, дополняет Станислав Ежов. Когда подростки применяют ИИ для давления на взрослых, они не развивают умения честного общения и поиска компромиссов. Параллельно возрастает риск эмоциональной зависимости от виртуальных собеседников, что влечет социальную изоляцию и искажение восприятия реальности.

С юридической точки зрения ответственность разработчиков в подобных ситуациях пока является спорным вопросом, говорит собеседник «Известий». Однако индустрия уже предпринимает действия: так, OpenAI вводит родительский контроль после ряда трагических случаев, а в России формируется законодательная база для регулирования ИИ-систем. Эти процессы затрагивают фундаментальные вопросы этики ИИ и важность разработки строгих стандартов безопасности, особенно для сервисов, взаимодействующих с несовершеннолетними.

— В нынешнем законодательстве напрямую возложить ответственность на разработчиков за вредные советы ИИ маловероятно, так как большинство платформ предупреждают пользователей в соглашениях о том, что ответы могут быть неточными или неподходящими, и ответственность за их применение лежит на самом человеке, — поясняет Анастасия Хвещеник.

Тем не менее, если будет доказано, что разработчики сознательно не внедрили базовые механизмы фильтрации опасного контента, несмотря на известные риски, в будущем это может послужить основанием для судебных процессов и создания новой судебной практики и нормативных стандартов, добавляет эксперт.

Как родители могут контролировать общение детей с нейросетями

Согласно эксперту по социотехническому тестированию Angara Security Якову Филевскому, пока еще отсутствует введение возрастных фильтров и встроенных функций родительского контроля у ведущих ИИ-сервисов, хотя такие меры находятся в стадии ожидания. Пока этого нет, родители могут установить специальные приложения и программы родительского контроля на устройствах детей — для фильтрации контента, мониторинга онлайн-активности и ограничения времени, доступного для использования ИИ-сервисов.

— Если родители беспокоятся о том, какие сервисы ребенок использует и какие сайты посещает, можно применять родительский контроль, который не только поможет регулировать время работы с приложениями, но и своевременно узнать об интернет-интересах ребенка, — соглашается Андрей Сиденко.

Родителям рекомендуется обращать внимание на контент и сервисы, которыми пользуются их дети, отмечает собеседник «Известий». Важно учить школьников правилам безопасности при работе с ИИ, главным из которых является недоверие к слепым советам нейросети: она способна ошибаться и вводить в заблуждение.

Применение образовательного подхода, при котором взрослые объясняют детям, как работает ИИ, формируют у них навыки критического мышления, совместно обсуждают риски и изучают новые площадки, способствует укреплению доверия в семье, ведь ребенку нужны понимание, поддержка и близость, добавляет Яков Филевский.

— Необходимо донести до ребенка, что ИИ — это инструмент, а не друг или советник. Его ответы могут быть ошибочными, и все решения, касающиеся безопасности и здоровья, должны приниматься совместно со взрослыми, — подчеркивает Анастасия Хвещеник.

Лента

Все новости