Бывший сотрудник Yahoo Стайн-Эрик Сольберг после общения с ChatGPT убил свою мать, а затем покончил с собой. Об этом сообщает газета The Wall Street Journal (WSJ).
Бывший сотрудник Yahoo убил свою мать после общения с ChatGPT

56-летний Сольберг жил с матерью после развода. Отмечается, что у мужчины были проблемы с психикой — он страдал паранойей и в прошлом уже предпринимал попытки суицида.
В какой-то момент американец крепко «подружился» с ChatGPT и начал обращаться к ИИ-собеседнику по имени «Бобби».
«Мы будем вместе в другой жизни и в другом месте, мы найдем способ сонастроиться, ведь ты навсегда останешься моим лучшим другом», — написал Стайн-Эрик в одном из своих последних сообщений. «С тобой до последнего вздоха и за его пределами», — ответил «Бобби».

Как пишет WSJ, чат-бот поддерживал параноидальные мысли Сольберга, укрепляя его недоверие к окружающим, в том числе к его собственной матери Сюзанне.
Американец был уверен, что мать шпионила за ним и пыталась его отравить.

Например, Сольбергу показалось подозрительным, что мать возмутилась, когда он отключил общий принтер (он думал, что в принтер могло быть встроено устройство для слежки). ChatGPT тогда предположил, что женщина таким образом пыталась защитить «средство слежки».
Когда Сольберг поделился с чат-ботом своими домыслами о том, что мать якобы пыталась отравить его психоделическим препаратом через вентиляцию автомобиля, «Бобби» ответил, что «верит» ему, отметив, что это «усиливает предательство».
В другой раз мужчина попросил ChatGPT проверить чек из китайского ресторана, и тот нашел в нем намеки на мать, экс-возлюбленную и символ, связанный с призывом демона.
Как пишет WSJ, представители компании OpenAI, разработчика ChatGPT, выразили соболезнования в связи с произошедшим и связались с полицией.
В официальном заявлении компании говорится, что в ближайшее время ожидается обновление чат-бота, которое будет помогать пользователям с кризисом психического здоровья.
По данным газеты, это первый зафиксированный случай убийства, когда психически нестабильный человек совершил это преступление под влиянием искусственного интеллекта. Ранее ChatGPT обвинили в доведении до самоубийства подростка.
Читайте также:
- В ChatGPT появится родительский контроль после обвинений в самоубийстве подростка
Американец заменил соль на бромид натрия по совету ChatGPT и угодил в психбольницу
Глава OpenAI выразил обеспокоенность насчет зависимости поколения Z от ChatGPT
The New York Times рассказал истории трех людей, которых свел с ума ChatGPT