Против OpenAI подали семь исков от семей из США и Канады. Как сообщает The Wall Street Journal, компанию обвинили в нанесении психологических травм и подстрекательстве к суициду.
Против OpenAI подали семь исков из‑за самоубийств и психологических травм пользователей ChatGPT

Согласно искам, после общения с чат-ботом ChatGPT четыре человека покончили жизнь самоубийством, среди них 17-летний подросток из Джорджии и 23-летний житель Техаса.
Еще трое после контакта с ИИ получили психологические травмы, утверждают истцы.
Истцы требуют выплаты денежных компенсаций, а также внесения коррективов в работу ChatGPT, предусматривающих автоматическое завершение разговоров, когда речь заходит о суициде.
В официальном заявлении OpenAI назвали ситуацию «ужасающей». Отмечается, что компания «изучает соответствующие документы, чтобы разобраться в деталях».
«Мы продолжаем совершенствовать реакцию ChatGPT в деликатные моменты», — подчеркнули в OpenAI, отметив, что в октябре внесли в работу чат-бота изменения, которые позволяют ИИ лучше распознавать и реагировать на психические расстройства, и рекомендовать людям обратиться за реальной помощью.
В конце октября OpenAI сообщила, что каждую неделю более 1 млн пользователей ChatGPT отправляют сообщения, содержащие «явные признаки возможного суицидального планирования или намерений».
При этом в компании также заявили, что последняя версия чат бота, GPT-5, не представляет опасности для психологически уязвимых пользователей. В модернизации чат-бота участвовали 170 врачей, которые проанализировали около 1 тыс. ответов, касающихся серьезных ситуаций, связанных с самоповреждением и суицидальными мыслями, и сравнили их с ответами предыдущих моделей.
«Мы добавили больше ссылок на кризисные горячие линии, встроили напоминания о необходимости делать перерывы и провели масштабную работу с экспертами по психическому здоровью», — говорится в заявлении компании.
Читайте также:
- ChatGPT получил функцию родительского контроля после обвинений в самоубийстве подростка
Бывший сотрудник Yahoo убил свою мать после общения с ChatGPT
Американец заменил соль на бромид натрия по совету ChatGPT и угодил в психбольницу
The New York Times рассказал истории трех людей, которых свел с ума ChatGPT
