인공지능 판사의 현황과 미래
김경환 변호사
목 차
m 인공지능 판사(AI judge)의 개념
m 사법적 결정(재판)의 과정
m 인공지능 판사의 기술적 구현
m 인공지능 판사의 현황 : 미국
m 인공지능 판사의 현황 : 뉴저지주의 PSA
m 인공지능 판사의 현황 : 기술적 완성도
m 인공지능 판사의 미래 : 알고리즘의 신뢰성
m 인공지능 판사의 미래 : 사회적 수용
m 인공지능 판사의 미래 : 알고리즘 적법절차(due process)
m 결론
인공지능 판사(AI judge)의 개념
m 알고리즘에 의하여 판사의 주된 업무인 사법적 결정(judicial decision-making)을
대신해 주는 인공지능
m 법정에서 판사를 보조하여 또는 판사를 대체하여 재판 등의 사법적 결정을 할 수
있는 인공지능
* 재판 : 사법권에 근거하여 법원이나 판사가 사실관계를 법령등에 대입하여 결론
을 내는 과정이나 판단
사법적 결정(재판)의 과정
m 3단 논법
- 대전제 : 사람을 살해한 자는 7년 이상의 징역에 처한다.
- 소전제 : 갑이 사람을 살해하였다.
- 결론 : 갑은 7년 이상의 징역에 처할 수 있다.
m 사람이 재판을 하는 경우
- 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습
* 사람 : 일부노출설, 전부노출설 * 살해 : 심장정지 vs 뇌사
- 소전제 : 증거 ⇒ 사실
* 치사인가 살해인가 * 정황증거에 의한 고의 인정 * 정당방위
- 결론 : 사실관계를 대전제에 적용하여 재판서 작성 + 양형판단
* 무죄 기재 * 징역 vs 집행유예 * 징역 3년 vs 5년
m 인공지능이 재판을 하는 경우
- 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습이 되어 있어야 함
- 소전제 : 증거판단을 통한 사실인정을 할 수 있어야 함
- 결론 : 판례학습ㆍ논증을 통한 적용을 재판서로 표현해야 하고, 양형 판단을 해야 함
* 필요한 알고리즘
- 법령ㆍ법령해석에 관한 판례 등 학습
- 증거판단(증거능력, 형식적증거력, 실질적증거력 등)
- 사실인정
- 적용(판례학습 및 논증)
- 재판서표현
- 양형판단
인공지능 판사의 기술적 구현
분류(classification)
카테고리에 대한 학습을 한 후,
주어진 데이터를 학습한 카테고리
로 분류하는 지도학습 방법
예) 고양이와 개의 카테고리 ⇒
임의의 데이터 ⇒ 개로 분류
회귀(regression)
분산된 데이터를 통해 연속공식을
예측하는 지도학습 방법
예) 집크기와 가격 데이터 ⇒ 집
크기 데이터 ⇒ 가격을 예측
군집화(clustering)
입력 데이터를 몇 가지 그룹으로
나누는 비지도학습 방법
예) 여러 가지 단어 중 칭찬 단어
와 비난 단어를 그룹화
m word2vec (단어를 벡터값으로 표현해서 군집화 등을 통해 단어간의 연관성을 이해함)
인공지능 판사의 현황 : 미국
m 상당수 많은 주가 형사사법 알고리즘을 도입함
- COMPAS(Correctional Offender Management Profiling for Alternative
Sanctions, 교정 위반자 관리 프로파일링) : 영리를 목적으로 하는
Northpointe에서 만들었고, 범죄 참여, 관계나 생활 방식, 성격 또는 태도, 가
족 및 사회적 배제와 같은 다섯 가지 주요 영역에서 변수를 평가함
- PSA(Public Safety Assessment, 공중안전평가) : 로라ㆍ존아놀드 재단(Laura
and John Arnold Foundation)이 개발하였으며, 매개 변수 집합을 사용하여
피고의 연령 및 범죄 기록과 관련된 변수만을 고려
- LSI-R(Level of Service Inventory Revised) : 캐나다 회사인 Multi-Health
Systems가 개발하였으며 범죄 경력에서부터 성격 패턴에 이르는 다양한 요소의
정보를 수집함
인공지능 판사의 현황 : 뉴저지주의 PSA
m PSA
- 로라ㆍ존아놀드 재단이 형사 사법 연구자들과 협력하여 피의자가 제기하는 위험
을 판사가 파악하는 데 도움이 되도록 개발한 위험 평가 도구
- 위험요인에 전적으로 의존할 뿐, 인종ㆍ민족 또는 거주지와 같은 요인에 의존하
지 않는 등 사회적 편견을 제거하기 위함임
- 미국 전역의 약 300개 재판관할지에서 발생한 500만 건에 이르는 최대 규모의
가장 다양한 재판 기록을 사용하여 PSA 알고리즘을 만듦
- 기존의 데이터를 분석하여 피의자의 새로운 범죄 행위(NCA, new criminal
activity. 재범위험), 새로운 폭력 범죄 행위(NVCA, new violent criminal
activity, 폭력재범위험) 또는 공판 전 석방시 법정에 출두하지 않을 가능성(FTA,
fail to appear, 법정불출석)을 가장 잘 예측하는 9가지 위험요인을 결정
m 뉴저지주
- 뉴저지주는 2017년 공판전 석방(보석) 절차에서 PSA를 반드시 사용하게 한 주
이며, PSA 점수가 산정되면 판사에게 구속 또는 석방에 대한 권고안을 작성함
- 이 권고안은 판사를 구속하지는 못하며 그 권고안을 참조할 뿐임
- 권고안은 아래와 같음 (ROR : 서약석방, PML : 모니터링석방)
m 효과
- 도입 이전(2013년) : 뉴저지 교도소의 구금자 중 71%는 흑인과 라틴 아메리카
인으로 구성되어 있어 소수 인종에 대한 편견이 구금에 반영되어 있음을 보여주
고, 전체 수용자 중 38%는 보석금이 없어 구금되었고, 12%는 2,500달러 이
하를 지불하지 못하여 구금됨
- 도입 이후(2017년 말) : 구금율 16.8%, 수용자수 34.1% 감소
인공지능 판사의 미래 : 기술적 완성도
인공지능 판사의 미래 : 알고리즘의 신뢰성
m 2016 언론기관 ProPublica
- 플로리다 주에서 채택한 COMPAS와 동일한 조건을 사용하여 2년 안의 재범 가
능성을 확인하는 방식으로 COMPAS 시스템을 테스트함
- 흑인 피고인을 미래 범법자로 볼 가능성이 백인 피고인보다 거의 두 배나 높음
- 양형에 참고되는 재범 가능성의 정확도가 높지 않음을 발견함 (예컨대, 폭력 범
죄를 저지를 것으로 예상된 사람들의 20%만 실제로 그렇게 범죄를 저지름)
- 원인은 다른 주의 전과 기록을 포함하지 않는 등 부정확한 입력에 기인하고, 그
외의 다른 결과는 시스템이 요인을 평가하는 방법에 기인한 것으로 평가함
m 2017. 12. 뉴욕주 ‘Agorithmic Accountability Bill’
- 형사사법 알고리즘 등의 편향성을 검증하는 최초의 법안을 통과시킴
- TF를 구성해서 알고리즘 편향성을 검증하여 보고하게 함으로써 투명성을 제고함
⇒ 사람 편견을 피하려다 오히려 ‘알고리즘 독재’가 시작될 수 있음
: 신뢰성 검증 절차와 투명성 절차가 전제되어야 함
인공지능 판사의 미래 : 사회적 수용
m 국민
m 사법부
- 법원도 인공지능에 뛰어들었다. 법원행정처는 개인회생·파산 사건을 담당하는 인
공지능 재판연구관 도입을 위해 ‘지능형 개인회생파산 시스템’을 구축 중이다.
(아주경제)
- 대법원은 2024년 서비스 개시를 목표로 스마트폰만으로 집에서 재판이 가능하
도록 하는 '스마트 법원 4.0' 사업을 추진하고 있다. 스마트 법원 사업이 이뤄지
면 인공지능 '챗봇'이 24시간 소송절차와 소장 작성, 소송서류 작성을 도와 '나
홀로 소송'을 지원하고, 스마트폰 앱으로 온라인 법정에 접속할 수 있어 집에서
도 소송과 재판을 받을 수 있다고 대법원은 소개했다. (노컷뉴스)
- 김명수 대법원장은 "우리들 법관이 인공지능이 갖지 못하는 장점을 제대로 발휘
하지 못한다면 인간이 최종 판단자 지위를 유지할 수 없을지도 모른다"며 '따뜻
한 감성'과 '공감능력'을 갖출 것도 조언했다. (뉴스원)
인공지능 판사의 미래 : 알고리즘 적법절차(due process)
m 에릭 루미스(Eric Loomis) 사례
- 2016년 6월경, 훔친 차량을 이용해 도주하면서 총격을 가한 혐의로 재판에 넘
겨져 민간기업의 인공지능 평가 시스템인 COMPAS risk assessment에 의해 6
년 징역형이 권고됐던 에릭 루미스(Eric Loomis)는 미국 위스콘신주 형사법원
판사에 의해 동일한 형이 선고되자 이를 위스콘신주 대법원에 상고함
- 루미스의 상고 이유는, 민간기업의 인공지능 평가 시스템에 따르면 피고인이 장
래 폭력과 재범 위험성이 높다고 나왔는데, 인공지능 평가 시스템에 대한 유효성
을 평가할 기회를 가지지 못했기 때문에 적법절차 위반이라는 것임
- 또한 루미스는 COMPAS는 여성과 남성을 위한 별도의 척도를 가지고 있는바,
알고리즘이 성(gender)을 고려하는 방식 때문에 위헌이라고도 주장함
- 위스콘신주 대법원은, 인공지능 평가시스템이 가진 한계에도 불구하고, 루미스의
인공지능 평가 시스템이 적절하게 사용된다면 적법절차 위반이 아니라고 하면서
상고를 기각함
m 알고리즘에 대한 적법절차 보장의 문제
- 알고리즘의 공개가 전제되어야 함 (↔ 영업비밀과 충돌)
- 알고리즘에 대한 유효성 평가가 보장되어야 하는가?
- 알고리즘 그 자체에 대한 반박 또는 불복은 보장되어야 하는가?
결론
m AI 판사의 필요성
- 판사의 주관적 오류를 줄일 수 있음
- 재판 과정에서 발생하는 사회적 편견이나 불합리한 차별을 줄일 수 있음
- 판사의 업무 부담을 줄일 수 있음
m AI 판사의 문제점
- 인공지능 알고리즘 생성 과정에서 알고리즘 개발자 등에 의한 오류
- 알고리즘의 신뢰성 : 사회적 편견이나 불합리한 차별이 내포될 수 있는 위험
- 알고리즘 적법절차는 어디까지 보장되어야 하는가?
⇒ 揚⾧避短(양장피단)
감사합니다.

[법무법인 민후] 인공지능 판사의 현황과 미래

  • 1.
    인공지능 판사의 현황과미래 김경환 변호사
  • 2.
    목 차 m 인공지능판사(AI judge)의 개념 m 사법적 결정(재판)의 과정 m 인공지능 판사의 기술적 구현 m 인공지능 판사의 현황 : 미국 m 인공지능 판사의 현황 : 뉴저지주의 PSA m 인공지능 판사의 현황 : 기술적 완성도 m 인공지능 판사의 미래 : 알고리즘의 신뢰성 m 인공지능 판사의 미래 : 사회적 수용 m 인공지능 판사의 미래 : 알고리즘 적법절차(due process) m 결론
  • 3.
    인공지능 판사(AI judge)의개념 m 알고리즘에 의하여 판사의 주된 업무인 사법적 결정(judicial decision-making)을 대신해 주는 인공지능 m 법정에서 판사를 보조하여 또는 판사를 대체하여 재판 등의 사법적 결정을 할 수 있는 인공지능 * 재판 : 사법권에 근거하여 법원이나 판사가 사실관계를 법령등에 대입하여 결론 을 내는 과정이나 판단
  • 4.
    사법적 결정(재판)의 과정 m3단 논법 - 대전제 : 사람을 살해한 자는 7년 이상의 징역에 처한다. - 소전제 : 갑이 사람을 살해하였다. - 결론 : 갑은 7년 이상의 징역에 처할 수 있다. m 사람이 재판을 하는 경우 - 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습 * 사람 : 일부노출설, 전부노출설 * 살해 : 심장정지 vs 뇌사 - 소전제 : 증거 ⇒ 사실 * 치사인가 살해인가 * 정황증거에 의한 고의 인정 * 정당방위 - 결론 : 사실관계를 대전제에 적용하여 재판서 작성 + 양형판단 * 무죄 기재 * 징역 vs 집행유예 * 징역 3년 vs 5년
  • 5.
    m 인공지능이 재판을하는 경우 - 대전제 : 법령ㆍ법령해석에 관한 판례 등의 학습이 되어 있어야 함 - 소전제 : 증거판단을 통한 사실인정을 할 수 있어야 함 - 결론 : 판례학습ㆍ논증을 통한 적용을 재판서로 표현해야 하고, 양형 판단을 해야 함 * 필요한 알고리즘 - 법령ㆍ법령해석에 관한 판례 등 학습 - 증거판단(증거능력, 형식적증거력, 실질적증거력 등) - 사실인정 - 적용(판례학습 및 논증) - 재판서표현 - 양형판단
  • 6.
    인공지능 판사의 기술적구현 분류(classification) 카테고리에 대한 학습을 한 후, 주어진 데이터를 학습한 카테고리 로 분류하는 지도학습 방법 예) 고양이와 개의 카테고리 ⇒ 임의의 데이터 ⇒ 개로 분류 회귀(regression) 분산된 데이터를 통해 연속공식을 예측하는 지도학습 방법 예) 집크기와 가격 데이터 ⇒ 집 크기 데이터 ⇒ 가격을 예측 군집화(clustering) 입력 데이터를 몇 가지 그룹으로 나누는 비지도학습 방법 예) 여러 가지 단어 중 칭찬 단어 와 비난 단어를 그룹화
  • 7.
    m word2vec (단어를벡터값으로 표현해서 군집화 등을 통해 단어간의 연관성을 이해함)
  • 8.
    인공지능 판사의 현황: 미국 m 상당수 많은 주가 형사사법 알고리즘을 도입함 - COMPAS(Correctional Offender Management Profiling for Alternative Sanctions, 교정 위반자 관리 프로파일링) : 영리를 목적으로 하는 Northpointe에서 만들었고, 범죄 참여, 관계나 생활 방식, 성격 또는 태도, 가 족 및 사회적 배제와 같은 다섯 가지 주요 영역에서 변수를 평가함 - PSA(Public Safety Assessment, 공중안전평가) : 로라ㆍ존아놀드 재단(Laura and John Arnold Foundation)이 개발하였으며, 매개 변수 집합을 사용하여 피고의 연령 및 범죄 기록과 관련된 변수만을 고려 - LSI-R(Level of Service Inventory Revised) : 캐나다 회사인 Multi-Health Systems가 개발하였으며 범죄 경력에서부터 성격 패턴에 이르는 다양한 요소의 정보를 수집함
  • 9.
    인공지능 판사의 현황: 뉴저지주의 PSA m PSA - 로라ㆍ존아놀드 재단이 형사 사법 연구자들과 협력하여 피의자가 제기하는 위험 을 판사가 파악하는 데 도움이 되도록 개발한 위험 평가 도구 - 위험요인에 전적으로 의존할 뿐, 인종ㆍ민족 또는 거주지와 같은 요인에 의존하 지 않는 등 사회적 편견을 제거하기 위함임 - 미국 전역의 약 300개 재판관할지에서 발생한 500만 건에 이르는 최대 규모의 가장 다양한 재판 기록을 사용하여 PSA 알고리즘을 만듦 - 기존의 데이터를 분석하여 피의자의 새로운 범죄 행위(NCA, new criminal activity. 재범위험), 새로운 폭력 범죄 행위(NVCA, new violent criminal activity, 폭력재범위험) 또는 공판 전 석방시 법정에 출두하지 않을 가능성(FTA, fail to appear, 법정불출석)을 가장 잘 예측하는 9가지 위험요인을 결정
  • 10.
    m 뉴저지주 - 뉴저지주는2017년 공판전 석방(보석) 절차에서 PSA를 반드시 사용하게 한 주 이며, PSA 점수가 산정되면 판사에게 구속 또는 석방에 대한 권고안을 작성함 - 이 권고안은 판사를 구속하지는 못하며 그 권고안을 참조할 뿐임 - 권고안은 아래와 같음 (ROR : 서약석방, PML : 모니터링석방)
  • 11.
    m 효과 - 도입이전(2013년) : 뉴저지 교도소의 구금자 중 71%는 흑인과 라틴 아메리카 인으로 구성되어 있어 소수 인종에 대한 편견이 구금에 반영되어 있음을 보여주 고, 전체 수용자 중 38%는 보석금이 없어 구금되었고, 12%는 2,500달러 이 하를 지불하지 못하여 구금됨 - 도입 이후(2017년 말) : 구금율 16.8%, 수용자수 34.1% 감소
  • 12.
    인공지능 판사의 미래: 기술적 완성도
  • 13.
    인공지능 판사의 미래: 알고리즘의 신뢰성 m 2016 언론기관 ProPublica - 플로리다 주에서 채택한 COMPAS와 동일한 조건을 사용하여 2년 안의 재범 가 능성을 확인하는 방식으로 COMPAS 시스템을 테스트함 - 흑인 피고인을 미래 범법자로 볼 가능성이 백인 피고인보다 거의 두 배나 높음 - 양형에 참고되는 재범 가능성의 정확도가 높지 않음을 발견함 (예컨대, 폭력 범 죄를 저지를 것으로 예상된 사람들의 20%만 실제로 그렇게 범죄를 저지름) - 원인은 다른 주의 전과 기록을 포함하지 않는 등 부정확한 입력에 기인하고, 그 외의 다른 결과는 시스템이 요인을 평가하는 방법에 기인한 것으로 평가함
  • 14.
    m 2017. 12.뉴욕주 ‘Agorithmic Accountability Bill’ - 형사사법 알고리즘 등의 편향성을 검증하는 최초의 법안을 통과시킴 - TF를 구성해서 알고리즘 편향성을 검증하여 보고하게 함으로써 투명성을 제고함 ⇒ 사람 편견을 피하려다 오히려 ‘알고리즘 독재’가 시작될 수 있음 : 신뢰성 검증 절차와 투명성 절차가 전제되어야 함
  • 15.
    인공지능 판사의 미래: 사회적 수용 m 국민
  • 17.
    m 사법부 - 법원도인공지능에 뛰어들었다. 법원행정처는 개인회생·파산 사건을 담당하는 인 공지능 재판연구관 도입을 위해 ‘지능형 개인회생파산 시스템’을 구축 중이다. (아주경제) - 대법원은 2024년 서비스 개시를 목표로 스마트폰만으로 집에서 재판이 가능하 도록 하는 '스마트 법원 4.0' 사업을 추진하고 있다. 스마트 법원 사업이 이뤄지 면 인공지능 '챗봇'이 24시간 소송절차와 소장 작성, 소송서류 작성을 도와 '나 홀로 소송'을 지원하고, 스마트폰 앱으로 온라인 법정에 접속할 수 있어 집에서 도 소송과 재판을 받을 수 있다고 대법원은 소개했다. (노컷뉴스) - 김명수 대법원장은 "우리들 법관이 인공지능이 갖지 못하는 장점을 제대로 발휘 하지 못한다면 인간이 최종 판단자 지위를 유지할 수 없을지도 모른다"며 '따뜻 한 감성'과 '공감능력'을 갖출 것도 조언했다. (뉴스원)
  • 18.
    인공지능 판사의 미래: 알고리즘 적법절차(due process) m 에릭 루미스(Eric Loomis) 사례 - 2016년 6월경, 훔친 차량을 이용해 도주하면서 총격을 가한 혐의로 재판에 넘 겨져 민간기업의 인공지능 평가 시스템인 COMPAS risk assessment에 의해 6 년 징역형이 권고됐던 에릭 루미스(Eric Loomis)는 미국 위스콘신주 형사법원 판사에 의해 동일한 형이 선고되자 이를 위스콘신주 대법원에 상고함 - 루미스의 상고 이유는, 민간기업의 인공지능 평가 시스템에 따르면 피고인이 장 래 폭력과 재범 위험성이 높다고 나왔는데, 인공지능 평가 시스템에 대한 유효성 을 평가할 기회를 가지지 못했기 때문에 적법절차 위반이라는 것임 - 또한 루미스는 COMPAS는 여성과 남성을 위한 별도의 척도를 가지고 있는바, 알고리즘이 성(gender)을 고려하는 방식 때문에 위헌이라고도 주장함 - 위스콘신주 대법원은, 인공지능 평가시스템이 가진 한계에도 불구하고, 루미스의 인공지능 평가 시스템이 적절하게 사용된다면 적법절차 위반이 아니라고 하면서 상고를 기각함
  • 19.
    m 알고리즘에 대한적법절차 보장의 문제 - 알고리즘의 공개가 전제되어야 함 (↔ 영업비밀과 충돌) - 알고리즘에 대한 유효성 평가가 보장되어야 하는가? - 알고리즘 그 자체에 대한 반박 또는 불복은 보장되어야 하는가?
  • 20.
    결론 m AI 판사의필요성 - 판사의 주관적 오류를 줄일 수 있음 - 재판 과정에서 발생하는 사회적 편견이나 불합리한 차별을 줄일 수 있음 - 판사의 업무 부담을 줄일 수 있음 m AI 판사의 문제점 - 인공지능 알고리즘 생성 과정에서 알고리즘 개발자 등에 의한 오류 - 알고리즘의 신뢰성 : 사회적 편견이나 불합리한 차별이 내포될 수 있는 위험 - 알고리즘 적법절차는 어디까지 보장되어야 하는가? ⇒ 揚⾧避短(양장피단)
  • 21.