Поскольку грань между помощью и оценкой размывается, цена ошибок становится высокой.

Склонность систем искусственного интеллекта совершать ошибки, а людей — не замечать их, в последнее время в полной мере проявилась в правовой системе США. Всё началось с того, что юристы, в том числе из престижных фирм, представили документы, ссылающиеся на несуществующие дела. Подобные ошибки вскоре распространились и на других участников процесса. В декабре профессор Стэнфордского университета дал под присягой показания, содержащие галлюцинации и ошибки, по делу о дипфейках, несмотря на то, что сам является экспертом по искусственному интеллекту и дезинформации.
Ответственность легла на судей, которые — независимо от того, выявляли ли ошибки они сами или адвокаты противоположной стороны — выносили выговоры и штрафы и, вероятно, настолько смущали адвокатов, что они дважды подумали, прежде чем снова доверять ИИ.
Но теперь судьи тоже экспериментируют с генеративным ИИ. Некоторые уверены, что при соблюдении мер предосторожности эта технология может ускорить юридические исследования, резюмировать дела, составлять текущие постановления и в целом способствовать ускорению работы судебной системы, которая во многих штатах США сильно перегружена. Однако этим летом мы уже видели, как ошибки, допущенные ИИ, оставались незамеченными и цитировались судьями. Федеральному судье в Нью-Джерси пришлось переиздать постановление, изобилующее ошибками, которые могли быть допущены ИИ, а судья в Миссисипи отказался объяснить, почему его постановление также содержало ошибки, похожие на галлюцинации ИИ.
Результаты этих экспериментов, проводимых на ранних этапах, ясно показывают два момента. Во-первых, категорию рутинных задач, в которых ИИ может помочь без необходимости человеческого суждения, определить сложно. Во-вторых, в то время как юристы подвергаются пристальному вниманию, когда использование ИИ приводит к ошибкам, судьи могут не нести такой же ответственности, а исправлять свои ошибки до того, как они нанесут ущерб, гораздо сложнее.
Рисование границ
У Хавьера Родригеса, федерального судьи Западного округа Техаса, есть веские основания скептически относиться к искусственному интеллекту. Он начал изучать искусственный интеллект ещё в 2018 году, за четыре года до выхода ChatGPT (отчасти благодаря влиянию своего брата-близнеца, работающего в сфере технологий). Но он также сталкивался с ошибками, допущенными ИИ, в своём собственном суде.
В недавнем споре о том, кто должен получить страховую выплату, и истец, и ответчик представляли себя сами, без адвокатов (это не редкость — почти четверть гражданских дел в федеральном суде включает как минимум одну сторону, не имеющую адвоката). Обе стороны самостоятельно подготовили документы и привели собственные аргументы.
«Обе стороны использовали инструменты искусственного интеллекта», — говорит Родригес, и обе подали документы, ссылающиеся на выдуманные дела. У него были полномочия сделать им выговор, но, поскольку они не были юристами, он решил этого не делать.
«Думаю, многие судьи слишком остро отреагировали на эти санкции. Я часто рассказываю шутку, когда выступаю с речами, что юристы начали галлюцинировать задолго до появления искусственного интеллекта», — говорит он. Для Родригеса пропустить ошибку модели искусственного интеллекта — это то же самое, что не заметить ошибку юриста-новичка. «Я не так глубоко оскорблён, как все остальные», — говорит он.
В своём суде Родригес использует инструменты генеративного ИИ (он не стал публично называть, какие именно, чтобы не создавать впечатление одобрения) для краткого изложения дел. Он попросит ИИ определить ключевых участников процесса, а затем составить хронологию ключевых событий. Перед конкретными слушаниями Родригес также попросит ИИ сгенерировать вопросы для адвокатов на основе предоставленных ими материалов.
По его мнению, эти задачи не зависят от человеческого суждения. Они также предоставляют ему множество возможностей вмешаться и выявить любые ошибки до того, как они будут переданы в суд. «Решение не принимается окончательно, поэтому риск относительно минимален», — говорит он. С другой стороны, использование ИИ для прогнозирования возможности освобождения под залог, по его мнению, слишком увлекает в сторону суждений и дискреционных полномочий.
Эрин Соловей, профессор и исследователь взаимодействия человека и искусственного интеллекта в Вустерском политехническом институте в Массачусетсе, недавно изучила, что судьи в Великобритании думают об этом различии между рутинной, удобной для машин работой, которую можно безопасно делегировать искусственному интеллекту, и задачами, которые в большей степени опираются на человеческий опыт.
«Граница между тем, что подходит для действий судьи-человека, и тем, что подходит для действий инструментов ИИ, меняется от судьи к судье и от одного сценария к другому», — говорит она.
Тем не менее, по словам Соловея, некоторые из этих задач просто не соответствуют тому, с чем хорошо справляется ИИ. Например, если попросить ИИ составить краткое содержание большого документа, результаты могут кардинально различаться в зависимости от того, обучена ли модель составлять краткое содержание для широкой аудитории или для юридической. ИИ также испытывает трудности с логическими задачами, такими как упорядочивание событий в деле. «Очень правдоподобная хронология может быть фактически неверной», — говорит Соловей.
Родригес и ряд других судей разработали руководящие принципы, опубликованные в феврале конференцией Sedona Conference, влиятельным аналитическим центром, разрабатывающим принципы для особо сложных областей права. В них описан ряд потенциально «безопасных» вариантов использования ИИ судьями, включая проведение юридических исследований, создание предварительных стенограмм и поиск информации в брифингах, а также предупреждается, что судьи должны проверять результаты работы ИИ, и что «ни один из известных инструментов GenAI не смог полностью решить проблему галлюцинаций».
Связанная история
Галлюцинации, вызванные искусственным интеллектом, в судебных документах приводят судей в ярость. Эксперты предсказывают, что проблема будет только усугубляться.
Избегание ошибок ИИ
Судья Эллисон Годдард, федеральный магистратский судья в Калифорнии и соавтор руководящих принципов, впервые ощутила влияние ИИ на судебную систему, когда преподавала искусство адвокатуры в школе своей дочери. Её впечатлило эссе одной из учениц, и она рассказала о нём дочери. «Она сказала: „Мама, это же ChatGPT“».
«Я очень быстро поняла, что это действительно изменит юридическую профессию», — говорит она. В своём суде Годдард экспериментирует с ChatGPT, Claude (который она держит «открытым весь день») и множеством других моделей искусственного интеллекта. Если дело касается сугубо технического вопроса, она может попросить ИИ помочь ей понять, какие вопросы задавать адвокатам. Она может составить краткое изложение 60-страничных постановлений окружного судьи, а затем задать ИИ-модели дополнительные вопросы по ним или попросить её организовать информацию из разрозненных документов.
«Это своего рода партнер по размышлениям, и он открывает перспективу, которую вы, возможно, не рассматривали», — говорит она.
Годдард также призывает своих клерков использовать ИИ, в частности, Claude от Anthropic, поскольку по умолчанию он не обучается на разговорах пользователей. Но у него есть свои ограничения. Для всего, что требует специальных юридических знаний, она использует инструменты Westlaw или Lexis, которые предлагают инструменты ИИ, разработанные специально для юристов, но она считает, что универсальные модели ИИ быстрее справляются со многими другими задачами. Кроме того, опасения по поводу предвзятости не позволяют ей использовать ИИ для решения задач в уголовных делах, например, для определения наличия достаточных оснований для ареста.
В этом Годдард, похоже, оказался в той же ситуации, в которую бум искусственного интеллекта поставил многих из нас. Три года спустя компании создали инструменты, которые звучат настолько бегло и по-человечески, что скрывают неразрешимые проблемы, скрывающиеся за ними: ответы, которые хорошо читаются, но неверны, модели, обученные быть хорошими во всём, но неидеальными ни в чём, и риск того, что ваши разговоры с ними попадут в интернет. Каждый раз, когда мы используем их, мы ставим на то, что сэкономленное время перевесит риски, и доверяем себе обнаружить ошибки прежде, чем они станут серьёзными. Для судей ставки невероятно высоки: если они проиграют, им грозят публичные последствия, а влияние таких ошибок на людей, которым они служат, может быть длительным.
«Я не собираюсь быть судьёй, которая ссылается на случаи галлюцинаций и выносит постановления, — говорит Годдард. — Это действительно стыдно, очень стыдно с профессиональной точки зрения».
Тем не менее, некоторые судьи не хотят отставать в эпоху искусственного интеллекта. Некоторые специалисты в области искусственного интеллекта полагают, что предполагаемая объективность и рациональность моделей искусственного интеллекта может сделать их более эффективными судьями, чем склонные к ошибкам люди. Это может навести некоторых судей на мысль, что отставание представляет больший риск, чем слишком большое преимущество.
«Кризис, ожидающий своего часа»
Риски преждевременного внедрения вызвали тревогу у судьи Скотта Шлегеля, члена Апелляционного суда пятого округа в Луизиане. Шлегель давно пишет в блоге о пользе технологий в модернизации судебной системы, но предупреждает, что ошибки, допускаемые искусственным интеллектом в решениях судей, сигнализируют о «готовом к наступлению кризисе», который затмит проблему подачи адвокатами документов с выдуманными делами.
Адвокаты, допустившие ошибки, могут быть подвергнуты санкциям, их ходатайства могут быть отклонены, или они могут проиграть дело, когда противоположная сторона узнает об ошибках и укажет на них. «Когда судья совершает ошибку, это закон», — говорит он. «Я не могу через месяц-другой сказать: „Упс, извините“, и дать задний ход. Так это не работает».
По словам Шлегеля, если взять дела об опеке над детьми или об освобождении под залог, «когда судья при принятии решения полагается на искусственный интеллект, последствия могут быть весьма существенными», особенно если ссылки, на которых основано решение, выдуманы или неверны.
Это не теория. В июне судья апелляционного суда Джорджии вынес постановление, частично основанное на выдуманных доводах, поданных одной из сторон, – ошибка, которая осталась незамеченной. В июле федеральный судья в Нью-Джерси отозвал решение после того, как адвокаты пожаловались, что оно также содержало галлюцинации.
В отличие от адвокатов, которых суд может обязать объяснить, почему в их документах допущены ошибки, судьи не обязаны демонстрировать большую прозрачность, и нет оснований полагать, что они сделают это добровольно. 4 августа федеральному судье в Миссисипи пришлось вынести новое решение по делу о гражданских правах после того, как в первоначальном решении были обнаружены неверные имена и серьёзные ошибки. Судья не объяснил в полной мере, что привело к ошибкам, даже после того, как штат потребовал от него этого. «Никаких дополнительных объяснений не требуется», — написал судья.
Эти ошибки могут подорвать веру общественности в легитимность судов, говорит Шлегель. Некоторые узкие и контролируемые применения ИИ — обобщение показаний, получение быстрой обратной связи по написанному — могут сэкономить время и дать хорошие результаты, если судьи будут относиться к работе как к работе юриста-новичка, тщательно проверяя её точность. Но большая часть работы судьи — это решение того, что он называет «проблемой белого листа»: вы председательствуете над сложным делом с чистым листом перед собой и вынуждены принимать сложные решения. По его словам, обдумывание этих решений — это и есть работа судьи. Получение помощи от ИИ с первым черновиком подрывает эту цель.
«Если вы принимаете решение, кому отдать детей на эти выходные, и кто-то узнает, что вы используете Grok, а вам следовало бы использовать Gemini или ChatGPT, — знайте, это не система правосудия».
Источник: www.technologyreview.com



























