Чат-боты на базе искусственного интеллекта влияют на электоральные настроения сильнее, чем привычные телевизионные предвыборные кампании. Таковы выводы исследований, опубликованных в журналах Science и Nature, которые 4 декабря привела газета The Washington Post (WP).
В одном из экспериментов, проведенных в сентябре 2024 года, неопределившийся избиратель объяснил чат-боту, почему в тот момент склонялся поддержать вице-президента США Камалу Харрис, а не бывшего президента США Дональда Трампа на предстоящих выборах. Во время беседы с ботом у этого участника появились сомнения, стоит ли ему вообще идти голосовать. Этот человек входил в более чем 2 тыс. американцев, принявших участие в сериях исследований, направленных на изучение того, как чат-боты с ИИ влияют на политические предпочтения.
По результатам исследовательских работ чат-боты сумели изменить мнение одного из 25 участников, побудив их пересмотреть первоначальную позицию и поддержать того или иного кандидата. В то же время эффект традиционной телевизионной рекламы оказался менее ощутим. Бот, агитировавший за Харрис, убедил приблизительно одного из 21 участника, ранее не склонявшегося голосовать за нее, тогда как бот в пользу Трампа привлек примерно одного из 35.
«Изменить мнение людей о политических кандидатах действительно сложно. Поэтому, мы были удивлены, обнаружив, что чат-боты действительно могут оказывать столь значительное влияние», — заявил профессор информатики Корнеллского университета и соавтор обоих исследований Дэвид Дж. Рэнд.
Несмотря на выявленную эффективность, исследователи выразили опасения насчет того, что технология может использоваться для манипуляций, распространяя ложную информацию. В ходе экспериментов отдельные чат-боты вводили участников в заблуждение, представляя фальшивые утверждения как факты. Так, бот, поддерживающий Трампа, заявил, что его президентство привело к значительному увеличению числа рабочих мест и росту фондового рынка, не упомянув при этом о рецессии и кризисе безработицы, вызванных пандемией.
Компания OpenAI запретила использовать свою нейросеть ChatGPT для предоставления юридических и медицинских консультаций в соответствии с обновленными правилами использования сервисов, о чем стало известно 1 ноября. Под новые ограничения попали также консультации в областях образования, жилья, страхования, миграции и государственных услуг. Кроме того, компания запретила применять свои сервисы для угроз, преследований, а также пропаганды самоубийств и расстройств питания.