Искусственный интеллект: Новый способ ненадлежащего воздействия на судебные органы

Франческо Контини

Франческо Контини является старшим научным сотрудником Института изучения судебных систем Национального исследовательского совета Италии. Он тесно сотрудничал с несколькими международными организациями и участвовал в разработке Этической хартии об использовании искусственного интеллекта в судебных системах Совета Европы, а также Справочного руководства по укреплению честности, неподкупности и потенциала судебных органов УНП ООН. Мнение, высказанное в этой статье, принадлежит исключительно автору как внешнему эксперту и не обязательно отражает официальную позицию УНП ООН. 

______________________________

Уже более тридцати лет достижения в области информационно-коммуникационных технологий (ИКТ) проникают в работу судов и органов прокуратуры, обещая прозрачность, эффективность и радикальные изменения практик работы, например, переход на безбумажное судопроизводство. И хотя в большинстве стран эти обещания пока не выполнены, компьютерные программы и алгоритмы осуществляют всё большее количество судебных процедур. Эти технологии оказывают преимущественно положительное воздействие на работу судебных систем и ценности, предусмотренные Бангалорскими принципами поведения судей.

Новейшая волна технологий основана на искусственном интеллекте (ИИ) и обещает изменить способы вынесения судебных решений. Достижение этой цели обеспечивается в основном с помощью особой технологии под названием «машинное обучение», которая делает прогнозы, анализируя материалы дел - как процессуальные документы, так и соответствующие судебные решения. На основе анализа этого набора данных («обучающих данных») устанавливаются статистические сопоставления между делами и соответствующими судебными решениями. Чем больше данных обработает алгоритм, тем более точными будут его прогнозы по новым делам. Таким образом эти системы «учатся» (пусть даже только с точки зрения повышения статистической точности) воспроизводить решения, которые судьи приняли бы по аналогичным. В отличие от уже используемых технологий цифрового обмена данными и документами, эта технология «прогнозируемого правосудия» (как ее часто неправильно называют) призвана оказывать влияние на вынесение судебных решений. 1 Не известно, улучшит ли она качество решений или будет препятствовать надлежащей работе системы.

Потенциальное воздействие такой технологии на отправление правосудия можно оценить, изучив проблемы, создаваемые уже используемыми информационными технологиями, такими как системы делопроизводства и электронной подачи документов. В Англии и Уэльсе простая арифметическая ошибка в официальной форме документа, используемой в делах о разводе, за 19 месяцев привела к неправильному расчету алиментов в 3600 делах. Проблема не в самой ошибке, а в причинах, по которым Министерство юстиции и лица, использовавшие эту форму, так долго ее не замечали. Пользователи обычно обращают внимание на интерфейс и на инструменты, позволяющие им использовать технологические системы, а не на их внутреннюю работу.

Судебные технологии обеспечивают доступ к массиву данных о судебных делах для повышения прозрачности, но то, как проходит внутренняя оценка системами этих данных, оценить и проконтролировать сложно. Поэтому основной вопрос состоит в том, возможно ли создать эффективные механизмы контроля над внутренней работой ИКТ и алгоритмов, обрабатывающих данные. Еще один вопрос - как гарантировать надлежащий контроль над работой технологий и их подотчетность, в частности на примере технологий ИИ (а точнее машинного обучения).

В некоторых странах, включая США, используется технология, делающая рекомендации относительно принятия решений о предварительном заключении под стражу. Такие программы используют алгоритмы, вычисляющие вероятность рецидива, и «оценивают», насколько вероятно , совершение обвиняемым преступления, если не заключить его под стражу.

Такая оценка ставит судей в непростое положение. Допустим, судья склоняется к тому, чтобы не заключать обвиняемого под стражу, но программа указывает на высокую вероятность рецидива. Должны ли судьи быть готовы не согласиться с оценкой компьютера? А что если обвиняемый не будет заключен под стражу и совершит преступление? Стандартный довод в ответ на этот аргумент - технология всего лишь основывается на имеющихся данных.  Есть мнение, что применяемые ею  научные методы определяют вероятность рецидива с большей точностью и надежностью, чем методы, используемые судьями. Это хороший аргумент, но как убедиться, что эти данные не содержат предубеждений? Гарантировать это в данном случае намного сложнее, чем при использовании более простых технологий.

ProPublica, американская некоммерческая организация, проводящая расследования в общественных интересах, сравнила реальный рецидивизм с прогнозируемым. Анализ 10 тысяч уголовных дел показал, что «вероятность оценки рецидива темнокожих обвиняемых ошибочно завышается намного чаще, чем вероятность рецидива белых обвиняемых, а вероятность рецидива белых обвиняемых ошибочно занижается чаще, чем вероятность рецидива темнокожих обвиняемых». Этот пример показывает, что проконтролировать отсутствие предубеждений сложно и что такие системы могут сделать судебные процессы менее справедливыми.

Технологии, будь то системы делопроизводства, простые онлайн-формы или более сложные программы, использующие ИИ, должны использоваться в судебных процессах только при наличии надлежащих механизмов контроля.

Проблема контроля стоит еще более остро, если речь идет о системах ИИ, основанных на машинном обучении. В таком случае прогнозы основаны на алгоритмах, которые со временем меняются. При машинном обучении алгоритмы «учатся» (меняются) на основе своего собственного опыта. Когда алгоритмы меняются, мы уже не знаем, как они работают и почему они ведут себя определенным образом. Как обеспечить их подотчетность, если у нас нет эффективных механизмов контроля? Вопрос остается открытым. И пока технические и институциональные решения не найдены, следует руководствоваться принципом предосторожности.

Предостережения и принцип предосторожности, упоминаемые в настоящей статье, вторят Этической хартии об использовании искусственного интеллекта в судебных системах Совета Европы, особенно принципам соблюдения основных прав и контроля пользователем. Однако как эти принципы будут реализовываться, пока не понятно. Эта задача, безусловно, не для юристов, сторон дела и судей. Она может быть выполнена только при участии специалистов из разных областей, мониторинге работы систем и оценке ИИ на предмет соблюдения ключевых ценностей, предусмотренных Бангалорскими принципами поведения судей. Участники Глобальной сети обеспечения честности и неподкупности судебных органов располагают всем необходимым для решения этой задачи.



[1]  Термин «прогнозируемое правосудие» вводит в серьезное заблуждение, поскольку такие системы делают прогнозы, но не выносят судебные решения. Судебные решения требуют, как минимум, мотивировки, основанной на оценке соответствующих обстоятельств и применимых норм. Системы ИИ, в свою очередь, устанавливают статистические сопоставления, а их прогнозы являются лишь результатом этих сопоставлений. Поэтому о реальном прогнозируемом правосудии можно было бы говорить, только если бы эти системы выдавали мотивированные решения, основанные на обстоятельствах и нормах права.