Два федеральных судьи США сообщили, что использование генеративного ИИ при подготовке судебных решений привело к фактическим ошибкам. Инциденты спровоцировали обсуждение прозрачности и допустимых границ применения искусственного интеллекта в судебной системе.
Судья Генри Уингейт из Миссисипи рассказал, что его помощник использовал платформу Perplexity при подготовке документа по делу о гражданских правах — итоговый текст пришлось отозвать из-за «упущения контроля». Похожий случай произошел в Нью-Джерси: судья Джулиен Ксавье Нилс сообщил, что стажер-юрист применил ChatGPT для составления проекта решения, не уведомив руководство. Ошибки в тексте обнаружились уже после публикации.
Истории этих двух судей стали первыми официальными признаниями о «человеческих потерях от машинной помощи» в судебной системе. Сенатор Чак Грассли, возглавляющий профильный комитет, заявил, что ИИ без должной верификации представляет угрозу справедливости и подрывает доверие к судебным процессам.
Оба суда уже пересмотрели внутренние регламенты. Теперь использование искусственного интеллекта допускается только при письменном одобрении судьи и обязательной проверке фактов. Нилс подчеркнул, что до внедрения новых процедур запретил любые эксперименты с ИИ-помощниками в своей канцелярии.
Случай стал еще одним напоминанием, что ИИ способен подменить смысл и исказить логику документа. После череды похожих эпизодов в 2024–2025 годах суды США начали вводить штрафы за «неверифицированные ИИ-тексты» и требовать от адвокатов раскрытия источников при использовании генеративных систем.
Для судебной власти, где ошибки дорого стоят, это болезненный, но необходимый урок.

