ChatGPT сфабриковал документы для суда: юрист не знал, как работают такие системы

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Неудачное использование ChatGPT юристом привело к созданию поддельных материалов по делу в американском суде, сообщает The New York Times. Юрист из Нью-Йорка Стивен Шварц использовал чат-бот от компании OpenAI для подготовки материалов для суда. ИИ справился с задачей, но использовал ссылки на вымышленные дела и судебные решения. «Ошибка» стала видна, когда судья попросил предоставить документы, указанные в тексте.

Необычная история произошла при рассмотрении в федеральном суде Манхэттена гражданского иска между пассажиром и авиакомпанией Avianca. Истец обратился в суд с жалобой на травму от металлической тарелки во время полета в августе 2019 года из Сальвадора в Нью-Йорк. Авиакомпания обратилась в суд с просьбой закрыть дело, чтобы подготовить возражение на это заявление Стивен Шварц и использовал ChatGPT.

ИИ написал ответ, в котором со ссылкой на более чем полдюжины различных судебных решений, обосновывал необходимость продолжения судебного разбирательства. Он содержал не только упоминания этих решений, но и цитаты из них и других материалов, связанных с рассмотрениями этих дел. Когда судья попросил предоставить документы, которые указаны в ответе, оказалось, что таких дел не существует, а все цитаты — вымышленные.

На разбирательстве из-за предоставленных в суд недостоверных сведений Стивен Шварц признался, что использовал чат-бот для подготовки ответа. По его словам, о ChatGPT ему рассказали дети-студенты, и он впервые использовал его в профессиональной деятельности. На слушаниях в суде юрист извинился и сказал, что, думал, что ChatGPT имеет больший охват, чем стандартные базы данных.

«Я слышал об этом новом сайте, который, как я ошибочно предположил, был чем-то вроде суперпоисковика», — добавил он.

Необычный случай раскрывает большую проблему, связанную с использованием систем ИИ, отметили эксперты опрошенные The New York Times.

«Большинство людей, которые играют с ними и используют их, на самом деле не понимают, что они из себя представляют и как работают, и, в частности, каковы их ограничения».

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек