인공지능: 대(對)사법부 부당 영향을 위한 새로운 트로이의 목마인가?

프란체스코 콘티니

프란체스코 콘티니 (Francesco Contini)는 이탈리아의 국가연구위원회 소속 사법제도연구원의 선임연구원이다. 그는 다수 국제기구와 긴밀히 협력해왔으며 유럽집행위 사법제도 내 인공지능 이용에 관한 윤리헌장 및 UNODC 사법청렴성 및 역량강화 리소스 가이드에 기여한 바 있다. 이 사설 모음에 수록된 모든 의견들은 외부 전문가들인 각 저자들의 의견이며, 유엔마약범죄사무소(UNODC)의 공식적인 의견이 아님을 밝힌다.

______________________________

삼십년이 넘는 기간 동안, 새로운 정보통신기술은 법원·검찰청의 운영에 대거 유입되며 투명성·효율성 및 전자법정 등 실무상의 급진적 변화를 기약하고 있다. 대다수의 사법권에서 이러한 변화가 아직 완성되기 전이지만, 소프트웨어 프로그램과 알고리즘은 이미 사법절차에서 점점 큰 부분을 차지하고 있으며 이러한 기술이 사법제도의 운영에 가져오는 영향과 뱅갈로어 법관행동준칙이 주창하고 있는 가치들은 대개 긍정적이다.

최신 기술의 물결은 인공지능에 기반하며, 사법적 판단 방식의 변화를 꾀하고 있다. 이에는 대부분 "머신러닝"이라는 특수기술이 활용되며, 사건 기록 · 소송 문서 및 관련 판결을 평가함으로써 예측을 수행한다. 이 "훈련 데이터"라고 알려진 데이터셋은 해당 사건과 관련 사법판결 간의 통계학적 상관관계를 수립하기 위한 분석에 이용된다. 알고리즘이 데이터를 점차 분석할 수록 새 사건의 판결 예측 정확성이 증가한다.  이러한 이유로, 이러한 시스템은 유사 사건에서의 판결 결과를 모사하는 방법을 학습한다고 할 수 있다. (비록 이것이 통계적 정확성의 측면에 한할지라도) 데이터와 문서의 교환을 전자화하는 기성 기술과는 달리,  "예측적 사법(predictive justice)" 기술(이는 흔히 잘못 쓰이는 명칭이다)은 사법적 판단의 과정에 영향을 미치려는 것을 목적한다. 1 이러한 추세가 더 양질의 판결로 이어질 것인지 혹은 시스템의 기능을 저하시킬 것인지는 아직 명확치 않다.

사법운용에 있어서 이러한 기술의 잠재적인 영향은 사건 관리 및 이파일링(e-filing) 등의 기성 정보기술로 인해 발생하는 문제를 고찰함으로써 살펴볼 수 있다. 영국과 웨일즈에서는 이혼 사건에 이용되는 공식 서류 상의 단순 계산 오류로 인해 19개월동안 3,600건의 이혼위자료가 잘못 측정되는 사건이 발생했다. 문제는 계산 오류 자체가 아니라 왜 법무부와 서류 작성자들이 그렇게 긴 기간 동안 오류를 발견하지 못했는지에 있다. 정보기술의 사용자들은 대개 기술의 내부적 기능이 아닌 시스템 사용에 필요한 인터페이스와 툴에 집중하는 경향이 있다.  

법원 정보화를 통해 대량의 사건정보를 이용 가능하게 됨으로써 투명성이 제고되었으나, 시스템이 어떻게 정보를 내부적으로 분석하는지는 이해하기 어려우며, 신뢰성을 형성하는 것이 어렵다. 따라서, 보편적 문제는 데이터를 처리하는 정보통신기술 상호연동과 알고리즘을 효과적으로 통제할 수 있는 지의 여부이다. 그리고 더 나아가, 기술의 기능에 있어 올바른 관리감독과 신뢰성을 보장할 수 있는지, 인공지능(더 정확하게는 머신러닝)이 이러한  신뢰성을 실행하기 위한 독특한 경우인지의 질문이 남아있다.  

미국을 비롯한 몇몇의 관할권에서는 재판 전 구속 여부 결정을 추천하는 기술을 채택하였다. 이러한 어플리케이션들은 재범 위험성을 계산하여, 석방 시 범죄를 저지를 확률에 기반해 피고인에게 일종의 점수를 매긴다.

이러한 점수 제도로 인해 판사는 난처한 상황에 놓이게 된다. 판사가 재판 전 구금 해제의 의향이 있지만 점수에 따르면 재범 가능성이 높은 경우를 가정해보자. 판사는 기계가 내린 위험 평가예측치를 거스른 결정을 내려야할까? 만약 피고인이 구금 해제 후 범죄를 저지른다면? 이 주장에 대한 일반적인 반박은 시스템이 기존 데이터를 활용하는 것일 뿐이라고 강조한다. 과학적 방식이 판사 개인보다 재범 가능성을 더 효과적이고 믿을 수 있는 방식으로 계산한다고 주장하는 목소리도 있다. 이 주장은 일리가 있지만, 어떻게 데이터가 편향되지 않도록 보장할 수 있는가? 신뢰성의 보장은 단순한 기술보다 훨씬 더 복잡한 문제이다.   

실제로 공익 탐사보도를 전문으로 하는 미 비영리 기관 프로퍼블리카는 실제 재범률과 예측 재범률을 비교하였다. 10,000건의 형사사건 분석 결과, 백인 피고인의 재범률은 흑인 피고인보다 더 낮게 잘못 예측될 가능성이 높은 반면, 흑인 피고인의 재범률은 백인 피고인보다 더 높게 잘못 예측될 가능성이 높은 것으로 나타났다. 이러한 예는 신뢰성의 달성이 어려운 과제이며 이러한 시스템이 사법절차에 편향을 주입할 수도 있음을 보여준다.

사건관리이건, 단순한 온라인 서류이건, 더 복잡한 인공지능기반 업무이건, 기술은 합당한 신뢰성 메커니즘이 구비된 경우에 한해 사법절차에 도입되어야 한다.

신뢰성의 문제는 머신러닝에 기반한 인공지능 시스템에서 더 심각하다고 할 수 있다. 이 경우, 예측은 시시각각 변화하는 알고리즘에 기반하며, 머신러닝을 통해 알고리즘은 각개 경험을 기반으로 학습하고 변화한다. 알고리즘이 변화하면서 우리는 어떻게 그리고 왜 이러한 변화가 일어나는지 못한다. 만약 우리가 효과적인 통제 메커니즘을 수립하지 못한다면, 우리는 어떻게 올바른 신뢰성을 보장할 수 있는가? 이에 대한 논쟁은 지속되고 있으며, 이러한 질문이 기술적 그리고 제도적인 시각에서 해결되기 전까지는 경계적인 태세를 취해야 한다.

이 글에서 언급된 주의사항과 예방적 원칙은 유럽집행위의 사법제도 내 인공지능 이용에 관한 윤리헌장, 특히 기본권의 존중과 사용자 통제의 원칙과 방향을 같이 한다. 이러한 가이드라인을 어떻게 시행할지는 아직 명확하지 않다. 확실한 것은 법률가들, 재판 당사자와 판사 개인이 이 임무를 질 수 없다는 것이다. 이는 다분야의 역량 활용과 시스템의 모니터링, 그리고 인공지능을 뱅갈로어 법관행동준칙의 핵심 가치를 기준점으로 벤치마킹함으로써 해결 되어야할 문제이며, 세계 사법청렴성 네트워크의 일원들은 이 문제의 해결에 유리한 입지를 갖고 있다.  

 


[1] "예측적 사법(predictive justice)"이란 용어는 위험한 오해를 불러일으킬 소지가 있는데, 이는 시스템들이 예측을 수행하지만 사법판결을 내리는 것이 아니기 때문이다. 최소 기준으로써, 사법판결은 관련 사실과 적용 법규의 평가에 기반한 타당성을 요한다. 인공지능 시스템은 통계학적 상관관계를 수립하며 시스템 상의 예측은 그저 이 상관관계의 결과에 불과하다. 따라서, 실제 "예측적 사법"이란 이러한 시스템들이 사실과 법규에 기반한 타당한 근거를 제시할 수 있는 경우에 한하여 말해지는 것이 옳을 것이다.