В США суд впервые вынес приговор юристу, который использовал ChatGPT в работе

Он пытался переложить вину на своего помощника, но суд обязал обоих понести наказание.
Редакция «Правил жизни»
Редакция «Правил жизни»

Апелляционный суд американского штата Мэриленд вынес решение против адвоката, который пытался подать документы с несуществующими правовыми прецедентами, сгенерированными ChatGPT. Об этом сообщает The Daily Record.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Адвокат по семейным делам Адам Хайман, представлявший интересы матери в процессе по опеке, составил апелляционное заявление, включавшее вымышленные судебные цитаты. Как оказалось, документ был подготовлен с помощью чат-бота.

Судья Кэтрин Грил Грин Грэфф, рассматривавшая дело, отметила, что многие ссылки в жалобе указывали на судебные решения, которых в действительности не существовало. Некоторые реальные цитаты, напротив, прямо противоречили аргументам защиты. «Несомненно, адвокату неуместно представлять краткое изложение с поддельными делами, созданными ИИ. Компетентный юрист обязан лично проверить источники, на которые он ссылается», — написала Грэфф в заключении.

Как заявил Хайман в свою защиту, он не знал, что его помощник использует ChatGPT для поиска правовых цитат и редактирования текста. Он также признал, что не проверял содержимое перед отправкой в суд.

В объяснении, представленном позднее, юрист указал, что его помощник «не был осведомлен о риске галлюцинаций ИИ» — явлении, когда чат-бот создает правдоподобную, но полностью вымышленную информацию. Однако суд не принял эти оправдания.

Хайман признал ответственность как единственный лицензированный юрист по делу. В рамках решения суда он и его помощник обязаны пройти обучение по этичному использованию искусственного интеллекта и отработать навык проверки документов. Кроме того, адвокат был направлен в дисциплинарную комиссию для дальнейшего разбирательства.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Судья Грэфф подчеркнула, что это первый подобный случай в апелляционной практике Мэриленда: «Мы наблюдаем растущую тенденцию к использованию ИИ в юридических документах по всей стране. Суды должны быть готовы к новым вызовам, связанным с этой технологией».

Ранее в Колумбии судья использовал нейросеть ChatGPT для вынесения приговора по делу о том, должна ли страховка ребенка с расстройством аутистического спектра покрывать расходы на лечение. Этим он вызвал широкую общественную дискуссию, уместны ли подсказки нейросети в таком случае.

Вы используете в работе нейросети?
Да
Нет