Высокий суд потребовал от британских юристов прекратить неправомерное использование ИИ после поддельных ссылок на судебные решения
Решение вынесено по итогам двух дел, омраченных фактическим или предполагаемым использованием искусственного интеллекта в юридической работе
Верховный суд поручил старшим юристам принять срочные меры для предотвращения неправомерного использования искусственного интеллекта после того, как в суды были представлены десятки поддельных цитат из прецедентного права, которые были либо полностью вымышленными, либо содержали выдуманные отрывки.
Юристы все чаще используют системы искусственного интеллекта для построения юридических аргументов, но в этом году два дела были омрачены вымышленными цитатами из судебной практики, которые либо определенно, либо предположительно были сгенерированы искусственным интеллектом.
В деле о возмещении ущерба в размере 89 млн фунтов стерлингов против Qatar National Bank истцы привели 45 ссылок на прецедентное право, 18 из которых оказались фиктивными, а цитаты во многих других также были поддельными. Истец признал, что использовал общедоступные инструменты ИИ, а его адвокат согласился, что он ссылался на подставные органы.
Когда Haringey Law Centre оспорил лондонский район Харингей из-за его предполагаемой неспособности предоставить своему клиенту временное жилье, его адвокат пять раз сослался на фантомное прецедентное право. Подозрения возникли, когда адвокату, защищавшему совет, пришлось неоднократно задавать вопросы, почему они не смогли найти никаких следов предполагаемых властей.
Это привело к судебному иску о напрасных судебных издержках, и суд признал юридический центр и его юриста, ученика адвоката, небрежными. Адвокат отрицала использование ИИ в этом случае, но сказала, что она могла непреднамеренно сделать это, используя Google или Safari при подготовке к другому делу, где она также ссылалась на фантомные авторитеты. В том случае она сказала, что могла принять во внимание сводки ИИ, не осознавая, что это такое.
В нормативном постановлении, принятом в пятницу в ответ на эти дела, президент отделения королевской скамьи Виктория Шарп заявила, что «злоупотребление искусственным интеллектом повлечет за собой серьезные последствия для отправления правосудия и доверия общественности к системе правосудия», а также что юристы, злоупотребляющие ИИ, могут столкнуться с санкциями — от публичного выговора до неуважения к суду и передачи дела в полицию.
Она призвала Совет адвокатов и Юридическое общество «в срочном порядке» рассмотреть меры по решению этой проблемы и обратилась к главам адвокатских палат и управляющим партнерам солиситоров с просьбой обеспечить знание всеми юристами своих профессиональных и этических обязанностей при использовании ИИ.
«Такие инструменты могут давать внешне связные и правдоподобные ответы на подсказки, но эти связные и правдоподобные ответы могут оказаться совершенно неверными», — написала она. «Ответы могут содержать уверенные утверждения, которые просто не соответствуют действительности. Они могут ссылаться на источники, которых не существует. Они могут подразумевать цитирование отрывков из подлинного источника, которые в нем не фигурируют».
Ян Джеффери, генеральный директор Юридического общества Англии и Уэльса, заявил, что это решение «обнажает опасность использования ИИ в юридической работе».
«Инструменты искусственного интеллекта все чаще используются для поддержки предоставления юридических услуг», — добавил он. «Однако реальный риск неверных результатов, полученных с помощью генеративного ИИ, требует от юристов проверки, обзора и обеспечения точности своей работы».
Это не первые случаи, омраченные галлюцинациями, созданными ИИ. В 2023 году в налоговом суде Великобритании апеллянт, утверждавший, что ему помог «друг в адвокатской конторе», предоставил девять поддельных исторических решений трибунала в качестве предполагаемых прецедентов. Она признала, что «возможно» использовала ChatGPT, но сказала, что это, безусловно, не имеет значения, поскольку должны быть и другие случаи, подтверждающие ее точку зрения.
Апеллянты в датском деле на 5,8 млн евро (4,9 млн фунтов стерлингов) в этом году едва избежали разбирательства о неуважении к суду, когда они полагались на выдуманное постановление, которое заметил судья. А дело 2023 года в окружном суде США по южному округу Нью-Йорка погрузилось в хаос, когда адвокату было предложено представить семь явно фиктивных дел, на которые они ссылались. Они просто попросили ChatGPT резюмировать дела, которые он уже выдумал, и результат, по словам судьи, был «бессмысленным»; два адвоката и их фирма были оштрафованы на 5000 долларов.
Источник: www.theguardian.com



























