<НА ГЛАВНУЮ

Судьи и ИИ: как скорость сталкивается с риском галлюцинаций

'Судьи начали использовать генеративный ИИ для суммаризации и подготовки материалов, но ошибки и проблемы с ответственностью уже привели к неверным распоряжениям.'

Как ошибки ИИ проявились в судах

В последние месяцы в американской системе правосудия проявилась хрупкость генеративных моделей. Адвокаты из известных фирм отправляли документы с ссылками на несуществующие дела, а профессор Стэнфорда, специалист по дезинформации, дал подписанную под присягой экспертизу с галлюцинациями. Судьи вынуждены были реагировать взысканиями и исправлениями, но затем сами начали пробовать ИИ — и тоже столкнулись с ошибками.

Судьи пробуют ИИ в работе

Некоторые судьи считают, что ИИ поможет разгрузить суды: суммировать длинные материалы, составлять хронологии, готовить проектные распоряжения и формулировать вопросы к сторонам. Судья Хавьер Родригес, изучавший ИИ с 2018 года, использует модели для извлечения ключевых участников дела, генерации хронологий и подготовки вопросов к слушаниям. Он считает эти результаты черновой работой, которую можно перепроверить.

Федеральный магистрат Аллисон Годдард называет модели «партнёром по мыслям». Она пропускает через ИИ 60-страничные постановления, чтобы получить сжатые обзоры и уточняющие вопросы по техническим моментам. Годдард поощряет использование инструментов, которые по умолчанию не тренируются на пользовательских диалогах, а для проверяемых юридических выводов отдаёт приоритет специализированным базам вроде Westlaw и Lexis.

Где провести границу между рутиной и судейским усмотрением

Исследователи и практики отмечают, что грань между безопасными рутинными задачами и теми, что требуют человеческого суждения, трудно провести. Эрин Соловой указывает, что модели по-разному обучены суммировать материалы и что они могут выдавать правдоподобные, но неверные хронологии. Sedona Conference предложила рекомендации с перечнем потенциально безопасных применений ИИ — исследование, предварительные транскрипты, поиск по брифингам — одновременно предупреждая, что проблема галлюцинаций не решена.

Многие судьи считают недопустимым использовать ИИ для решений о залоге или опеке: такие задачи требуют дискреции и нравственного суждения, и их нельзя полностью делегировать модели. В то же время часть коллег опасается отставать от технологий, особенно когда кто-то утверждает, что модель могла бы быть более объективной, чем человек.

Ошибки, ответственность и последствия

Ошибки уже происходят. Этим летом федеральный судья в Нью-Джерси отозвал постановление, содержащее возможные галлюцинации, судья апелляционного суда Джорджии опубликовал решение, опирающееся на вымышленные дела, а в Миссисипи судья заменил спорное решение в деле о гражданских правах, не объяснив полностью причины ошибок. В отличие от адвокатов, судьи не обязаны детально отчитываться за ошибки, и возможности для принудительной прозрачности ограничены. Как предупреждает судья Скотт Шлегель, если судья ошибается, решение действует до тех пор, пока не будет исправлено, и откатить его непросто.

Особенно серьезны последствия в делах об опеке, залоге и правах человека, где ошибочная ссылка или выдуманный прецедент могут надолго повлиять на жизнь людей. Потому многие судьи относятся к выводам ИИ как к черновику младшего юриста: удобно и быстро, но обязательно подлежащее тщательной проверке.

Практичный и осторожный подход

Ранние последователи среди судей пытаются извлечь выгоду из ИИ, ограничивая его применение рутиной и подтверждая критические факты с помощью проверенных источников. Они используют ИИ для суммаризации, организации и генерации идей, при этом опираются на профессиональные правовые платформы для авторитетных ссылок. Общий вывод для осторожных практиков ясен: ИИ может помогать в повторяющихся задачах, но окончательные правовые суждения и решения, затрагивающие права людей, должны оставаться за человеком.

🇬🇧

Switch Language

Read this article in English

Switch to English