15 марта, 2022 23:01

Искусственный интеллект в судопроизводстве: дань трендам или новая реальность?

Недавно стало известно, что Концепция развития искусственного интеллекта (Концепция) в Украине вынесена на общественное обсуждение. Так, искусственный интеллект собираются внедрять в 8 направлениях, одно из которых — правосудие.

Возможно ли это вообще? Сможет ли искусственный интеллект выявлять недобросовестных судей? А может быть, он сможет решать малозначительные споры? О том, чего ожидать в “технологичном” будущем, и как скоро оно наступит, рассуждали наши эксперты.

Возможности отслеживания паттернов

Александр Синица, юрист АО Juscutum, отмечает, что идея использования искусственного интеллекта для анализа судебной практики и отслеживания в ней неких паттернов сама по себе не является новой. Уже несколько лет подряд в мире разрабатываться и применяются инструменты на базе искусственного интеллекта, способные с высокой долей вероятности спрогнозировать решения судьи в грядущем споре. Сейчас такие технологии используются в основном юристами и адвокатами для подготовки к судебным процессам, но ничего не мешает адаптировать их решения для внутренних нужд государства и судебной системы.

Так, искусственный интеллект способен с легкостью определить закономерности судебной практики, основываясь на обширной базе доступных решений. При должной настройке он также может находить решения, существенно отличающиеся от общепринятой практики. В некоторых случаях частое принятие “нетипичных” решений одним судьей может быть маркером, свидетельствующим о его недобросовестности, считает юрист. Вместе с тем важно понимать, что вывод искусственного интеллекта о нетипичности решений, принимаемых судьей, может быть лишь сигналом к проведению более детального анализа деятельности такого судьи и ни в коем случае сам по себе не может стать поводом для зачисления судьи в категорию недобросовестных.

Безусловно, позитивным является тот факт, что в разделе предложенной Концепции, посвященном правосудию, говорится о важности следованию принципам Этической хартии по использованию искусственного интеллекта в судебной системе. Использование искусственного интеллекта для выявления недобросовестных судей не должно как-либо влиять на способность судей принимать независимые, а иногда даже и довольно дискуссионные решения, идущие вразрез с существующей судебной практикой. В конце концов, нельзя забывать о том, что судебная практика находится в постоянном развитии, и время от времени даже самые устоявшиеся парадигмы могут подвергаться пересмотру.

Александр Синица подчеркивает, что говорить о полноценном решении малозначительных споров искусственным интеллектом без участия судьи в процессе пока преждевременно. Вместе с тем использование искусственного интеллекта в роли помощника, способного быстро проанализировать всю суть малозначительного спора и предоставить судье наиболее целесообразные варианты решения дела с сопутствующей аргументацией, ссылками на релевантное законодательство и судебную практику, вполне реально.  Этот вариант позволит существенно сэкономить время судейского корпуса, при этом оставит за судьями возможность выбора своей линии поведения, ведь рекомендации искусственного интеллекта буду иметь лишь вспомогательную роль.

Вопросы этики

В свою очередь, юрист ЮКК “Де-Юре” Никита Буров констатирует, что Европейская комиссия по эффективности правосудия Совета Европы в 2018 году приняла Европейскую этическую хартию об использовании искусственного интеллекта в судебных системах и окружающих их реалиях, в которой закрепляются пять основоположных принципов по использованию искусственного интеллекта при осуществлении правосудия:

Принцип соблюдения фундаментальных прав человека в процессе разработки и внедрения искусственного интеллекта. Принцип недопустимости дискриминации отдельных лиц или групп лиц. Принцип обеспечения качества и безопасности при обработке данных. Принцип прозрачности, беспристрастности и достоверности при обработке данных. Принцип контроля со стороны пользователя.

Случаи нарушения упомянутых принципов каждый раз сопровождались активной критикой со стороны общественности. Так, например, программные продукты Harm Assessment Risk Tool (Соединенное Королевство Великобритании и Северной Ирландии) и Correctional Offender Management Profiling for Alternative Sanctions (Соединенные Штаты Америки), позволяющие спрогнозировать вероятность совершения повторного преступления, были подвергнуты неоднократной критике по причине возможной предвзятости к отдельным группам лиц, что в свою очередь является нарушением положений Европейской этической хартии об использовании искусственного интеллекта в судебных системах и окружающих их реалиях.

Г-н Буров отмечает, что, к сожалению, сегодняшние реалии не всегда позволяют обеспечить соблюдение всех вышеупомянутых принципов на этапах разработки, проектирования и реализации возможностей искусственного интеллекта в судебной деятельности. В условиях отсутствия гарантий соблюдения фундаментальных принципов самостоятельное разрешение споров искусственным интеллектом является недопустимым. 

Реалии в цифрах

Константин Зеров, к.ю.н., ассистент кафедры интеллектуальной собственности КНУ им. Тараса Шевченко, Global Head of legal в KIVI, уверен, что использование компьютерной программы может помочь юристу для анализа доказательной базы и подготовки правовой позиции. Более того, такие случаи уже не редкость. Так, в США в 2012 году по делу GLOBAL AEROSPACE INC. v. LANDOW AVIATION, L.P. d/b/a Dulles Jet Center, ct al. (дело № CL 00061040) с помощью компьютерной программы были проанализированы более 8000 Гб информации. Программа использовала алгоритм “кодирования с предсказанием” (Predictive Coding). Этот алгоритм позволяет системе определить, относятся ли анализируемые данные к заданными параметрам: в систему загружаются все имеющиеся документы, после чего небольшую часть из них вручную просматривает юрист. В это время программа “учится”, разрабатывая модель, которая в дальнейшем проведет аналогичный анализ всех оставшихся данных. Все, что компьютерная программа обозначит как относящееся к иску, в дальнейшем изучается юристом.

В данном деле это составило всего около 10% от общего массива данных.

Что касается возможной замены компьютерной программой судьи, то тут необходимо отметить, что в таком гипотетическом случае мы потеряем “человеческое” суждение, то есть программа бы выполняла только то, на что запрограммирована: сухое нормативистское решение дела без “духа права”. Такое решение не базировалось бы на внутреннем убеждении судьи, было бы лишено его творческой фантазии. Англосаксонская правовая семья полностью потеряла бы новые судебные прецеденты, а континентальная ― отдельные мнения судей.

Теоретически можно предположить, что программа в результате всех процессуальных действий будет выводить результат в виде баллов от 0 до 1. Например, 0.1402 или 0.777.  Оценки в виде баллов указывают на степень, в которой действующее законодательство “поддерживает” соответствующую сторону. Таким образом, если счет близок к 1, это означает, что закон на стороне истца, а если близок к 0 ― данное дело следует решить в пользу ответчика. Главный вопрос для алгоритма построения такой программы (независимо от категории дела): какие именно факты подлежат исследованию в качестве исходных данных?

Во-первых, это должен быть весь массив материального законодательства, а что касается судебной практики ― вопрос сложнее. Предварительный анализ судебной практики является очень важным для саморазвития программы. Программа (не без помощи оператора) путем мониторинга должна отбирать определенные критерии однородных фактов и обстоятельств по уже рассмотренным делам. Очевидно, что для англосаксонской правовой системы этот вопрос более легкий в силу существования судебного прецедента, который можно взять за отправную точку. А для континентальной правовой семьи, где судебная практика не является источником права и разные судьи нередко используют различные юридические конструкции в текстах судебных решений, оценивая одни и те же фактические обстоятельства дела по-разному, реализовать такой алгоритм будет намного сложнее. Во-вторых, необходимо определить, какие именно обстоятельства подлежат систематизации, кто их будет определять и в итоге нести ответственность.  Для каждой категории дел объективно существуют свои закономерности, которые требуют отдельного исследования и систематизации.

“Туманное” будущее искусственного интеллекта?

Так чего же ожидать в будущем? Виталий Тымчук, адвокат АФ “Грамацкий и Партнеры”, характеризует будущее искусственного интеллекта в правосудии как отдаленное и, как бы не хотелось это признавать, немного туманное. На сегодня разговоры на такую тему ― словно разговоры о космосе и о том, где на Марсе будет стоять наша резиденция, но при этом мы забываем, что у нас ни стартовой площадки для взлета ракеты, ни даже самой ракеты нету, уверен г-н Тымчук.

Идеи использования искусственного интеллекта для выявления недобросовестных судей и решения малозначительных споров очень хороши и перспективны. Но развивая вышеуказанные идеи, мы забыли о главном: о том, что отечественное законодательство никак не регулирует проблематику данной ситуации. Забыли о том, что сначала нам нужно запустить недозапущенную ЕСИТС, нужно завершить судебную реформу, начать разрабатывать соответствующее программное обеспечение для ЕСИТС. На все это, стоит особенно отметить, требуется немалое финансирование, которое в бюджете страны очень нескоро можно будет предусмотреть. Суды Украины необходимо надлежащим образом оборудовать компьютерной техникой, обучить всех участников судебного процесса пользоваться новыми “фишками” юриспруденции.

И только сделав все вышеперечисленное, можно будет поговорить о возможности внедрения искусственного интеллекта в систему правосудия.

Алена СТУЛИНА,

«Юридическая практика»

Проверьте

Красивые поздравления на 8 марта в стихах, открытках и прозе

Вот и наступил один из самых ожидаемых и прекрасных весенних праздников – Международный женский день …

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *