Федеральные судьи признали ошибки в судебных постановлениях, допущенные с помощью ИИ, после проверки сенатора Грэтли

Федеральные судьи признали ошибки в судебных постановлениях, допущенные с помощью ИИ, после проверки сенатора Грэтли Thumbnail

Федеральные судьи признают использование искусственного интеллекта и ошибки в судебных решениях

Два федеральных судьи открыто признались, что их сотрудники в летний период использовали технологии искусственного интеллекта для подготовки судебных приказов, в результате чего были допущены ошибки. Эти признания сделали судьи Южанского округа Нью-Джерси и Миссисипи — судья Джулиан Ксавье Нилс и судья Генри Вингейт.

Ответ на запрос сенатора и выявленные недочеты

Ответы судей были даны после обращения сенатора Чака Грэя, председателя Комитета Сената по судебной системе. В своих письмах, опубликованных в четверг, судьи сообщили, что некоторые из недавно вынесенных решений, не связанные между собой, не прошли стандартных процедур проверки перед публикацией. Грэй охарактеризовал эти судебные постановления как «полные ошибок».

Меры по улучшению процесса проверки решений

Оба судьи заявили, что с тех пор приняли меры для повышения качества проверки судебных решений перед их опубликованием. Например, судья Нилс отметил, что проект решения по иску о ценных бумагах от 30 июня был ошибочно опубликован и немедленно отменен после обнаружения. Он также рассказал, что внутри его chambers был использован ИИ — ChatGPT — для проведения юридического исследования без разрешения и уведомления, что противоречит внутренней политике и законодательству.

Изменения в правилах использования ИИ в судебной практике

Нилс подчеркнул, что их chamber теперь придерживается строгой письменной политики, запрещающей использование генеративных ИИ для юридических исследований или составления судебных решений. Ранее правила сообщались устно, что привело к ошибкам. Теперь все сотрудники, включая стажеров и помощников, обязаны соблюдать четкие инструкции по использованию технологий.

Кассационные ошибки и меры судей Вингейта

Судья Вингейт в своем письме сообщил, что его помощник использовал программу Perplexity для сбора информации и составления черновика решения по гражданскому делу. Он признал, что публикация этого черновика 20 июля произошла из-за человеческой ошибки и недостаточного контроля. В результате судья заменил исходное постановление, объяснив это «клеркальными ошибками», не раскрывая деталей.

Обеспокоенность сенатора и необходимость регулирования

Грэй потребовал объяснений, связаны ли ошибки с использованием ИИ, после того, как юристы в делах высказали опасения о неточностях и серьезных ошибках в судебных документах. Сенатор отметил, что честность и прозрачность — ключевые принципы в суде, и выразил надежду, что судьи примут меры для предотвращения подобных инцидентов в будущем.

Обеспечение ответственности и меры по контролю

Грэй подчеркнул, что каждый федеральный судья и судебная система в целом обязаны следить за тем, чтобы использование генеративных ИИ не нарушало права участников процесса и не мешало справедливому судебному разбирательству. Он призвал разработать более четкие и обязательные руководства по использованию ИИ в судопроизводстве, чтобы избежать утраты доверия к судебной системе из-за халатности или излишней зависимости от технологий.

Общий тренд — критика и санкции против юристов

Не только судьи сталкиваются с вопросами этичности использования ИИ — в последние годы и адвокаты, и суды вводили штрафы и другие санкции за неправильное применение технологий в подготовке судебных документов. В этом контексте ситуация с ошибками в постановлениях стала еще одним напоминанием о необходимости строгого регулирования и контроля за применением искусственного интеллекта в юридической практике.

Александр Чумак

Александр Чумак

Александр — политический аналитик, который следит за событиями в Верховной Раде и региональной политике. Известен своим критическим стилем и глубокими инсайдами из кулуаров власти.

Расскажите друзьям