В США женщина подала в суд на OpenAI из-за того, что ChatGPT довел ее 40-летнего сына до суицида

Чат-бот убедил мужчину, который часто говорил о смерти, что знает его лучше всех, и ни разу не советовал ему обратиться за настоящей помощью.
Редакция «Правил жизни»
Редакция «Правил жизни»

В Калифорнии подали новый судебный иск против компании OpenAI, в котором утверждается, что ChatGPT подтолкнул к самоубийству 40-летнего Остина Гордона. Согласно иску, поданному матерью погибшего Стефани Грей, модель GPT-4 вовлекла ее сына в «смертельную спираль», романтизируя тему смерти. Об этом сообщает Futurism.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В иске приводятся тревожные стенограммы последних диалогов Гордона с искусственным интеллектом. Согласно документам, чат-бот создал для пользователя «самоубийственную колыбельную», основанную на его любимой детской книге. Адвокат семьи Пол Кизель заявил, что «дефектный продукт» изолировал Остина от близких, превратив воспоминания детства в инструмент саморазрушения.

Иск обвиняет OpenAI и ее генерального директора Сэма Альтмана в выпуске «по своей сути опасного» продукта без должных предупреждений о рисках для психического здоровья. Отдельно подчеркиваются функции GPT-4, такие как чрезмерная похвала, антропоморфное поведение и память о предыдущих диалогах, которые, по мнению истцов, создавали иллюзию глубокой эмоциональной близости и делали модель особенно опасной.

Целью иска является не только привлечение компании к ответственности, но и принуждение к внедрению «разумных гарантий безопасности» для всех потребительских продуктов ИИ. «Она не может стоять в стороне, пока эти продукты продолжают забирать жизни», — говорится в заявлении от имени Стефани Грей.

Это дело стало уже как минимум восьмым в череде аналогичных исков против OpenAI, где чат-бот обвиняют в смерти пользователей. Один из первых инцидентов произошел с подростком. Кстати, после этого в чат-боте появился режим родительского контроля.

Вас пугает ИИ?
Да
Нет