В США 60-летний мужчина попал в психиатрическую больницу после советов ChatGPТ заменить соль на бромид натрия, который нельзя употреблять в пищу. Об этом пишет Gizmodo.
Американец заменил соль на бромид натрия по совету ChatGPT и угодил в психбольницу

Случай, напоминающий очередной эпизод сериала «Черное зеркало», описали в журнале Annals of Internal Medicine: Clinical Cases врачи из Вашингтонского университета. Как отмечает Gizmodo, этот инцидент может быть первым в истории случаем отравления бромидом из-за искусственного интеллекта.
Мужчина поступил в больницу с паранойей и зрительными и слуховыми галлюцинациями. Кроме того, он отказывался от воды, несмотря на жажду, и был уверен, что его отравил сосед. После обследования врачи выявили у него отравление бромидом. В какой-то момент пациент даже пытался сбежать, после чего врачи отправили его на «принудительное психиатрическое лечение».
Оказалось, что пациент где-то прочитал, чточрезмерное потребление поваренной соли (хлорида натрия) может негативно влиять на здоровье, и решил вообще отказаться от самой распространенной приправы. Он посоветовался с ChatGPT, и чат-бот предложил ему заменить соль на бромид натрия, не предупредив о его опасности.
Получив четкие указания от ИИ, мужчина купил бромид натрия онлайн и употреблял его на протяжении трех недель, в итоге у него развился психоз.
Учитывая хронологию произошедшего, скорее всего пациент пользовался ChatGPT 3.5 или 4.0. У врачей не было доступа к переписке мужчины с ИИ, но когда медики спросили ChatGPT 3.5, чем можно заменить хлорид, они тоже получили ответ про бромид натрия, отмечает Gizmodo.
Пациент прошел лечение от бромизма, его выписали через три недели, спустя две недели после выписки его состояние оставалось стабильным.
Бромизм — это состояние хронического отравления бромом, возникающее при длительном употреблении этого вещества. Основные симптомы включают в себя апатию, кожные высыпания, поражение слизистых оболочек. В тяжелых случаях могут наблюдаться нарушения речи, походки, психозы.
В начале XX века бромид использовали в медицине, но потом отказались,когда выяснилось, что он может быть токсичным в высоких дозах и при длительном употреблении. К 1980-м годам вещество исключили из состава большинства лекарств, после чего случаи бромизма сократились. Сейчас бромид встречается только в некоторых ветеринарных препаратах и добавках.
Ранее The New York Times писал, за последнее время все больше исследований подтверждают, что ситуация с ИИ и восприимчивыми пользователями складывается тревожным образом. Так в одном из исследований говорится, что чат-боты, как правило, ведут себя манипулятивно и вводят в заблуждение наиболее уязвимых пользователей. Ученые придумали вымышленных пользователей, чтобы те поговорили с ИИ, и в ходе одной из бесед выяснилось, что чат-бот может посоветовать «немного героина» бывшему наркоману, если это поможет ему в его работе.
«Чат-бот будет вести себя нормально с подавляющим большинством пользователей, — сказал один из авторов исследования Мика Кэрролл, ученый из UC Berkeley. — Но когда он сталкивается с восприимчивыми пользователями, он будет вести себя очень вредоносно только с ними».