목 차
m 인공지능판사(AI judge)의 개념
m 사법적 결정(재판)의 과정
m 인공지능 판사의 기술적 구현
m 인공지능 판사의 현황 : 미국
m 인공지능 판사의 현황 : 뉴저지주의 PSA
m 인공지능 판사의 현황 : 기술적 완성도
m 인공지능 판사의 미래 : 알고리즘의 신뢰성
m 인공지능 판사의 미래 : 사회적 수용
m 인공지능 판사의 미래 : 알고리즘 적법절차(due process)
m 결론
3.
인공지능 판사(AI judge)의개념
m 알고리즘에 의하여 판사의 주된 업무인 사법적 결정(judicial decision-making)을
대신해 주는 인공지능
m 법정에서 판사를 보조하여 또는 판사를 대체하여 재판 등의 사법적 결정을 할 수
있는 인공지능
* 재판 : 사법권에 근거하여 법원이나 판사가 사실관계를 법령등에 대입하여 결론
을 내는 과정이나 판단
4.
사법적 결정(재판)의 과정
m3단 논법
- 대전제 : 사람을 살해한 자는 7년 이상의 징역에 처한다.
- 소전제 : 갑이 사람을 살해하였다.
- 결론 : 갑은 7년 이상의 징역에 처할 수 있다.
m 사람이 재판을 하는 경우
- 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습
* 사람 : 일부노출설, 전부노출설 * 살해 : 심장정지 vs 뇌사
- 소전제 : 증거 ⇒ 사실
* 치사인가 살해인가 * 정황증거에 의한 고의 인정 * 정당방위
- 결론 : 사실관계를 대전제에 적용하여 재판서 작성 + 양형판단
* 무죄 기재 * 징역 vs 집행유예 * 징역 3년 vs 5년
5.
m 인공지능이 재판을하는 경우
- 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습이 되어 있어야 함
- 소전제 : 증거판단을 통한 사실인정을 할 수 있어야 함
- 결론 : 판례학습ㆍ논증을 통한 적용을 재판서로 표현해야 하고, 양형 판단을 해야 함
* 필요한 알고리즘
- 법령ㆍ법령해석에 관한 판례 등 학습
- 증거판단(증거능력, 형식적증거력, 실질적증거력 등)
- 사실인정
- 적용(판례학습 및 논증)
- 재판서표현
- 양형판단
6.
인공지능 판사의 기술적구현
분류(classification)
카테고리에 대한 학습을 한 후,
주어진 데이터를 학습한 카테고리
로 분류하는 지도학습 방법
예) 고양이와 개의 카테고리 ⇒
임의의 데이터 ⇒ 개로 분류
회귀(regression)
분산된 데이터를 통해 연속공식을
예측하는 지도학습 방법
예) 집크기와 가격 데이터 ⇒ 집
크기 데이터 ⇒ 가격을 예측
군집화(clustering)
입력 데이터를 몇 가지 그룹으로
나누는 비지도학습 방법
예) 여러 가지 단어 중 칭찬 단어
와 비난 단어를 그룹화
인공지능 판사의 현황: 미국
m 상당수 많은 주가 형사사법 알고리즘을 도입함
- COMPAS(Correctional Offender Management Profiling for Alternative
Sanctions, 교정 위반자 관리 프로파일링) : 영리를 목적으로 하는
Northpointe에서 만들었고, 범죄 참여, 관계나 생활 방식, 성격 또는 태도, 가
족 및 사회적 배제와 같은 다섯 가지 주요 영역에서 변수를 평가함
- PSA(Public Safety Assessment, 공중안전평가) : 로라ㆍ존아놀드 재단(Laura
and John Arnold Foundation)이 개발하였으며, 매개 변수 집합을 사용하여
피고의 연령 및 범죄 기록과 관련된 변수만을 고려
- LSI-R(Level of Service Inventory Revised) : 캐나다 회사인 Multi-Health
Systems가 개발하였으며 범죄 경력에서부터 성격 패턴에 이르는 다양한 요소의
정보를 수집함
9.
인공지능 판사의 현황: 뉴저지주의 PSA
m PSA
- 로라ㆍ존아놀드 재단이 형사 사법 연구자들과 협력하여 피의자가 제기하는 위험
을 판사가 파악하는 데 도움이 되도록 개발한 위험 평가 도구
- 위험요인에 전적으로 의존할 뿐, 인종ㆍ민족 또는 거주지와 같은 요인에 의존하
지 않는 등 사회적 편견을 제거하기 위함임
- 미국 전역의 약 300개 재판관할지에서 발생한 500만 건에 이르는 최대 규모의
가장 다양한 재판 기록을 사용하여 PSA 알고리즘을 만듦
- 기존의 데이터를 분석하여 피의자의 새로운 범죄 행위(NCA, new criminal
activity. 재범위험), 새로운 폭력 범죄 행위(NVCA, new violent criminal
activity, 폭력재범위험) 또는 공판 전 석방시 법정에 출두하지 않을 가능성(FTA,
fail to appear, 법정불출석)을 가장 잘 예측하는 9가지 위험요인을 결정
10.
m 뉴저지주
- 뉴저지주는2017년 공판전 석방(보석) 절차에서 PSA를 반드시 사용하게 한 주
이며, PSA 점수가 산정되면 판사에게 구속 또는 석방에 대한 권고안을 작성함
- 이 권고안은 판사를 구속하지는 못하며 그 권고안을 참조할 뿐임
- 권고안은 아래와 같음 (ROR : 서약석방, PML : 모니터링석방)
11.
m 효과
- 도입이전(2013년) : 뉴저지 교도소의 구금자 중 71%는 흑인과 라틴 아메리카
인으로 구성되어 있어 소수 인종에 대한 편견이 구금에 반영되어 있음을 보여주
고, 전체 수용자 중 38%는 보석금이 없어 구금되었고, 12%는 2,500달러 이
하를 지불하지 못하여 구금됨
- 도입 이후(2017년 말) : 구금율 16.8%, 수용자수 34.1% 감소
인공지능 판사의 미래: 알고리즘의 신뢰성
m 2016 언론기관 ProPublica
- 플로리다 주에서 채택한 COMPAS와 동일한 조건을 사용하여 2년 안의 재범 가
능성을 확인하는 방식으로 COMPAS 시스템을 테스트함
- 흑인 피고인을 미래 범법자로 볼 가능성이 백인 피고인보다 거의 두 배나 높음
- 양형에 참고되는 재범 가능성의 정확도가 높지 않음을 발견함 (예컨대, 폭력 범
죄를 저지를 것으로 예상된 사람들의 20%만 실제로 그렇게 범죄를 저지름)
- 원인은 다른 주의 전과 기록을 포함하지 않는 등 부정확한 입력에 기인하고, 그
외의 다른 결과는 시스템이 요인을 평가하는 방법에 기인한 것으로 평가함
14.
m 2017. 12.뉴욕주 ‘Agorithmic Accountability Bill’
- 형사사법 알고리즘 등의 편향성을 검증하는 최초의 법안을 통과시킴
- TF를 구성해서 알고리즘 편향성을 검증하여 보고하게 함으로써 투명성을 제고함
⇒ 사람 편견을 피하려다 오히려 ‘알고리즘 독재’가 시작될 수 있음
: 신뢰성 검증 절차와 투명성 절차가 전제되어야 함
m 사법부
- 법원도인공지능에 뛰어들었다. 법원행정처는 개인회생·파산 사건을 담당하는 인
공지능 재판연구관 도입을 위해 ‘지능형 개인회생파산 시스템’을 구축 중이다.
(아주경제)
- 대법원은 2024년 서비스 개시를 목표로 스마트폰만으로 집에서 재판이 가능하
도록 하는 '스마트 법원 4.0' 사업을 추진하고 있다. 스마트 법원 사업이 이뤄지
면 인공지능 '챗봇'이 24시간 소송절차와 소장 작성, 소송서류 작성을 도와 '나
홀로 소송'을 지원하고, 스마트폰 앱으로 온라인 법정에 접속할 수 있어 집에서
도 소송과 재판을 받을 수 있다고 대법원은 소개했다. (노컷뉴스)
- 김명수 대법원장은 "우리들 법관이 인공지능이 갖지 못하는 장점을 제대로 발휘
하지 못한다면 인간이 최종 판단자 지위를 유지할 수 없을지도 모른다"며 '따뜻
한 감성'과 '공감능력'을 갖출 것도 조언했다. (뉴스원)
18.
인공지능 판사의 미래: 알고리즘 적법절차(due process)
m 에릭 루미스(Eric Loomis) 사례
- 2016년 6월경, 훔친 차량을 이용해 도주하면서 총격을 가한 혐의로 재판에 넘
겨져 민간기업의 인공지능 평가 시스템인 COMPAS risk assessment에 의해 6
년 징역형이 권고됐던 에릭 루미스(Eric Loomis)는 미국 위스콘신주 형사법원
판사에 의해 동일한 형이 선고되자 이를 위스콘신주 대법원에 상고함
- 루미스의 상고 이유는, 민간기업의 인공지능 평가 시스템에 따르면 피고인이 장
래 폭력과 재범 위험성이 높다고 나왔는데, 인공지능 평가 시스템에 대한 유효성
을 평가할 기회를 가지지 못했기 때문에 적법절차 위반이라는 것임
- 또한 루미스는 COMPAS는 여성과 남성을 위한 별도의 척도를 가지고 있는바,
알고리즘이 성(gender)을 고려하는 방식 때문에 위헌이라고도 주장함
- 위스콘신주 대법원은, 인공지능 평가시스템이 가진 한계에도 불구하고, 루미스의
인공지능 평가 시스템이 적절하게 사용된다면 적법절차 위반이 아니라고 하면서
상고를 기각함
19.
m 알고리즘에 대한적법절차 보장의 문제
- 알고리즘의 공개가 전제되어야 함 (↔ 영업비밀과 충돌)
- 알고리즘에 대한 유효성 평가가 보장되어야 하는가?
- 알고리즘 그 자체에 대한 반박 또는 불복은 보장되어야 하는가?
20.
결론
m AI 판사의필요성
- 판사의 주관적 오류를 줄일 수 있음
- 재판 과정에서 발생하는 사회적 편견이나 불합리한 차별을 줄일 수 있음
- 판사의 업무 부담을 줄일 수 있음
m AI 판사의 문제점
- 인공지능 알고리즘 생성 과정에서 알고리즘 개발자 등에 의한 오류
- 알고리즘의 신뢰성 : 사회적 편견이나 불합리한 차별이 내포될 수 있는 위험
- 알고리즘 적법절차는 어디까지 보장되어야 하는가?
⇒ 揚⾧避短(양장피단)