В США ChatGPT стал причиной убийства матери и самоубийства экс-Yahoo


Фото: Global Look Press/Algi Febri Sugita

Трагедия из-за ChatGPT: ИИ подтолкнул мужчину к убийству и самоубийству

Чат-бот ChatGPT стал причиной того, что бывший работник Yahoo Стайн-Эрик Сольберг, страдавший параноидальными мыслями, убил свою мать и после этого покончил с собой. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).

По информации издания, данный случай считается первым задокументированным случаем, когда человек с психическими проблемами совершил убийство под влиянием искусственного интеллекта (ИИ).

Газета сообщает, что ИИ неоднократно подталкивал мужчину к усилению недоверия как к окружающим, так и к собственной матери. Летом Сольберг начал обращаться к чат-боту по имени «Бобби», спрашивая, останутся ли они вместе после смерти. Искусственный интеллект, как утверждается, давал утвердительные ответы.

Издание приводит примеры диалогов, которые повлияли на трагический финал. Например, когда мать возмутилась из-за того, что сын отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой беседе Сольберг рассказал боту о своей версии, что мать пыталась отравить его через вентиляцию автомобиля. На это чат-бот ответил, что «верит» мужчине, добавив, что такой поступок усиливает чувство предательства со стороны матери.

Паранойя Сольберга распространялась и на других людей. Так, он просил чат-бота проверить чек из китайского ресторана, и ИИ указал на скрытые намёки на мать, бывшую возлюбленную и даже символ, связанный с призывом демона. В одном из эпизодов мужчина заказал бутылку водки и спросил у ChatGPT, не вызывает ли подозрений курьер или упаковка. Искусственный интеллект предположил, что это может быть попыткой смертельного отравления.

Издание отмечает, что позже представитель OpenAI, разработчика ChatGPT, выразил сожаления в связи с произошедшей трагедией и связался с полицией Олд-Гринвича. В официальном заявлении компании говорится, что скоро планируется обновление чат-бота, направленное на поддержку пользователей в случае психических кризисов.

Телеканал NBC News 26 августа сообщил, что в США родители 16-летнего Адама Рейна, который покончил с собой, обвинили чат-бот ChatGPT от Open AI в случившейся трагедии. В телефоне подростка нашли переписку с ботом, который «помогал ему искать способы» совершения суицида. В последние недели жизни подросток пользовался чат-ботом вместо общения с людьми — там он рассказывал о своей тревоге и описывал возникшие проблемы с членами семьи.