«Галлюцинации» ИИ в судебных документах создают проблемы для юристов 0

Техно
BB.LV
«Галлюцинации» ИИ в судебных документах создают проблемы для юристов

Американская юридическая фирма Morgan & Morgan уведомила более тысячи своих сотрудников о том, чтобы они остерегались «галлюцинаций» инструментов искусственного интеллекта при подготовке судебных документов. Такие инструменты способны «придумывать» фальшивые судебные прецеденты, а использование выдуманной информации может привести к увольнению юристов.

Федеральный судья в Вайоминге уже пригрозил наложить санкции на двух юристов фирмы, которые включили фиктивные ссылки на дела в иск против Walmart. Один из них признал, что использовал программу ИИ, которая фактически «выдумала» несуществующие дела. Юрист принёс извинения и заявил о непреднамеренной ошибке.

Это не первый подобный прецедент за последние пару лет. Однако дело Walmart выделяется тем, что в нём фигурируют известная юридическая фирма и крупный корпоративный ответчик. Пока судья ещё не вынес решение о том, следует ли наказывать юристов.

Несмотря на ошибки ИИ, многие юридические фирмы заключают контракты с поставщиками таких инструментов или разрабатывают собственные, чтобы сократить время на подготовку судебных документов. Согласно опросу Reuters, 63% юристов использовали ИИ для работы, а 12% отметили, что обращаются к этим инструментам регулярно.

Эксперты считают, что при работе с ИИ нужно тщательно уточнять всю предлагаемую им информацию, поскольку модели генерируют ответы на основе статистических закономерностей, полученных из больших наборов данных, а не путём проверки фактов в этих наборах.

Правила этики работы адвокатов также требуют, чтобы специалисты проверяли данные для судебных исков, иначе юристы могут быть привлечены к дисциплинарной ответственности. В прошлом году Американская ассоциация юристов сообщила своим членам, что эти обязательства распространяются даже на «непреднамеренные искажения» ИИ.

Эндрю Перлман, декан юридического факультета Университета Саффолка, говорит, что, «когда юристов ловят на использовании ChatGPT или любого другого генеративного инструмента ИИ для создания цитат без их проверки, это некомпетентность».

В 2023 году федеральный судья в Манхэттене оштрафовал двух нью-йоркских адвокатов на $5000 каждого за то, что они ссылались на выдуманные ИИ дела о причинении вреда здоровью в иске против авиакомпании.

В 2024 году федеральный судья Нью-Йорка рассматривал возможность наложения санкций в деле с участием бывшего адвоката Дональда Трампа Майкла Коэна. Тот заявил, что по ошибке предоставил своему юристу поддельные факты в деле о финансировании избирательной кампании. Коэн использовал чат-бота Bard от Google, но он не был подвергнут санкциям, хотя судья и назвал этот эпизод «позорным».

В ноябре 2024 года федеральный судья Техаса наложил на адвоката, который ссылался на несуществующие дела в иске о неправомерном увольнении, штраф в размере $2000. Также юриста обязали пройти курс о генеративном ИИ.

В феврале Федеральная торговая комиссия США потребовала от стартапа DoNotPay выплатить $193 тыс. за претензии к его «ИИ-юристу». Компания продвигала свой сервис как «первого в мире робота-юриста». Регулятор подчеркнул, что стартап должен прекратить делать ложные заявления о возможностях своего чат-бота на основе искусственного интеллекта.

0
0

Комментарии (0)

ЧИТАЙТЕ ТАКЖЕ