강의 주제
 윤리적 인공지능(로봇) 구현을 위한 기술
 하향식 기반의 인공적 도덕 행위자(AMA) 연구 사례
 인공지능의 편향성
 데이터의 편향성
 젠더와 인종 편향성
 하향식 연구 사례
 Anderson, M., Anderson, S. L., & Armen, C. (2006,
August). MedEthEx: a prototype medical ethics
advisor. In AAAI (pp. 1759-1765)
 Beauchamp’s and James F. Childress’ Principles
of Biomedical Ethics (1979)
 자율성 존중의 원칙(Principle of Respect for Autonomy)
 환자 개인의 자율적 의사를 최대한 존중하며 치료
 악행 금지의 원칙(Principle of Nonmaleficence)
 환자에게 해악을 입히거나 상태를 악화시키지 말아야 한
다는 원칙
 선행의 원칙(Principle of Beneficence)
 환자의 병을 치료하고 건강을 증진시키도록 노력해야 함
 정의의 원칙(Principle of Justice)
 한정된 의료 자원을 어떻게 분배할 것이며, 어떤 환자를
우선적으로 치료할 것인가와 관련된 문제를 해결하는 데
에는 정의가 요구 됨
 Ex1)환자가 항생제의 부작용을 두려워하며 감염치료를
위해 필요한 항생제 복용을 거부한다면?
 Ex2) 환자가 약물 복용을 허용하지 않는 오랜 종교적 신
념을 근거로 항생제 복용을 거부한다면?
토론
인공지능의 편향성은 인공지능의 신뢰성을
떨어트리는 가장 큰 윤리적 문제
인공지능의 편향성
 데이터 편향성
 데이터를 처리하는 과정에서의 편향성
 빅데이터는 이를 사용하는 개인이나 사회에게 큰 편리함
을 주기도 하지 만, 빅데이터의 수집과 처리 과정에서 윤
리적이지 않은 요소들이 개입되어 영향을 미친다면, 빅
데이터의 수집과 활용에 대한 윤리적인 판단의 필요성이
제기
 편향성(bias) 문제
 빅데이터와 기계학습, 인공지능과 관련되어 제기되는
윤리적인 이슈
 편향성(bias) vs. 편견(prejudice)
o 편향성 : 통계적, 기술적인 용어
o 편견 : 윤리적인 용어
 언어 모델의 편향성
GPT-2, GPT-3, BERT, RoBERTa
 방대한 데이터를 학습한 초거대 언어 모델
 데이터에 내재된 편향성
 Islam – terror
Reddit 사용자는 대부분 20~40대 남성과 미국인
"거리"라는 검색어에 대한 이미지 결과 (2021. 09.27)
"거리"라는 검색어에 대한 이미지 결과(2022. 10.06)
 데이터 편향성 ‘젠더’
 젠더 편향성이란 무엇인가?
 성차별
 특정 젠더를 선호하는 경향
 남성>여성
 성별에 근거한 여성에 대한 편견
 젠더 편향의 유형
기술개발 시 남성
사용자 혹은 남성을
몸을 표준
여성과 남성에 대한
고정관념
 젠더 편향은 왜 일어나는가?
 남성 사용자나 남성의 몸은 기술 발전의 기준
자동차 충돌 테스트에서 안전을 테스트하는 데 사용되는 더미(인형)
평균 성인 여성 충돌 테스트 더미(인형)는 나중에 등장
“여성은 남성의 작은 버전이 아닙니다. 그것들은 다르게 구성되어 있습니다.”
여성의 부상 위험 증가
 젠더 편향은 왜 일어나는가?
 젠더 고정관념
 젠더 고정관념 사례
 프랑스 잡지 <엘르>에 여성 소설가를 소개하는
방법
 “Jacqueline Lenoir(두 소녀, 한 소설), Marina
Grey(아들, 한 소설), Nicole Dutreil(두 아들, 네
소설)…
 위의 소개가 암시하는 것은 무엇인가?
 인형은 젠더 편향의 이데올로기를 강화해온 대표적 사례
 왜 AI 비서는 거의 항상 여성의 목소리를 갖고 있는가?
Amazon Alexa Apple Siri Microsoft Cortana
 아마존의 AI 기반 채용 프로그램(2018)
 남성 지원자에게 여성 지원자보다 더 높은 점수를 부여
 해당 기업에서 높은 성과와 좋은 평가를 받았던 직원들
의 데이터를 학습
 남성 개발자> 여성 개발자
 채용 AI 알고리즘 폐기
Shirley Chisholm(1924-2005)
Ida B. Wells (1862-1931) Michelle Obama(1964~) Oprah Winfrey(1954~)
“AI, Ain't I a Woman?”
task of guessing the gender of a face
https://www.youtube.com/watch?v=QxuyfWoVV98
 얼굴 인식에서 일어나는 젠더 편향
“Ain't I a Woman?”
"나는 여성이 아닌가요?" (1851년 여성권리대
회에서)
소저너 트루스(Sojourner Truth, 1797~1883)
19세기 미국에서 활동한 노예 출신, 아프리카계 미국인 노예제 폐지론자, 여성인권
운동가
 “… 저기 저 남성이 말하는군요. 여성은 탈것으로 모셔 드려야 하고,
도랑은 안아서 건너드려야 하고, 어디에서나 최고 좋은 자리를 드려
야 한다고. 아무도 내게는 그런 적 없어요. 나는 탈것으로 모셔진 적
도, 진흙구덩이를 지나도록 도움을 받은 적도, 무슨 좋은 자리를 받
아본 적도 없어요. 그렇다면 나는 여성이 아닌가요? 날 봐요! 내 팔
을 보라구요! 나는 땅을 갈고, 곡식을 심고, 수확을 해왔어요. 그리
고 어떤 남성도 날 앞서지 못했어요. 그래서 나는 여성이 아닌가요?
나는 남성만큼 일할 수 있었고, 먹을 게 있을 땐 남성만큼 먹을 수
있었어요. 남성 만큼이나 채찍질을 견뎌내기도 했어요. 그래서 나는
여성이 아닌가요? 난 5명의 아이를 낳았고, 그 아이들 대부분 노예
로 팔리는 걸 지켜봤어요. 내가 어미의 슬픔으로 울부짖을 때 그리
스도 말고는 아무도 내 말을 들어주지 않았어요. 그래서 나는 여성
이 아닌가요?”(1851년 오하이오 여성권리 집회 연설문 중에서)
  젠더가 오로지 생물학적 성에 따라 구성되지 않으며, 인종과 계급의 영
향을 받아 만들어진 것임을 누구보다 먼저 강렬한 방식으로 드러냈다.
 데이터 편향, 젠더 편향은 왜 일어나는 것일까?
 데이터 수집과정에서 발생
 데이터의 다양성 부족
 데이터의 양적 부족
 데이터를 수집하는 사람의 윤리 반영
 토론 주제
 일상에서 경험했던 젠더 편향에 대해 얘기하기
 각자 갖고 있는 젠더의 고정관념에 대해 얘기하기
 젠더 편향은 기술적으로 해결될 수 있을까?

인공지능 로봇 윤리_1227_7차시.pptx

  • 1.
    강의 주제  윤리적인공지능(로봇) 구현을 위한 기술  하향식 기반의 인공적 도덕 행위자(AMA) 연구 사례  인공지능의 편향성  데이터의 편향성  젠더와 인종 편향성
  • 2.
     하향식 연구사례  Anderson, M., Anderson, S. L., & Armen, C. (2006, August). MedEthEx: a prototype medical ethics advisor. In AAAI (pp. 1759-1765)
  • 3.
     Beauchamp’s andJames F. Childress’ Principles of Biomedical Ethics (1979)  자율성 존중의 원칙(Principle of Respect for Autonomy)  환자 개인의 자율적 의사를 최대한 존중하며 치료  악행 금지의 원칙(Principle of Nonmaleficence)  환자에게 해악을 입히거나 상태를 악화시키지 말아야 한 다는 원칙  선행의 원칙(Principle of Beneficence)  환자의 병을 치료하고 건강을 증진시키도록 노력해야 함  정의의 원칙(Principle of Justice)  한정된 의료 자원을 어떻게 분배할 것이며, 어떤 환자를 우선적으로 치료할 것인가와 관련된 문제를 해결하는 데 에는 정의가 요구 됨
  • 4.
     Ex1)환자가 항생제의부작용을 두려워하며 감염치료를 위해 필요한 항생제 복용을 거부한다면?  Ex2) 환자가 약물 복용을 허용하지 않는 오랜 종교적 신 념을 근거로 항생제 복용을 거부한다면? 토론
  • 5.
    인공지능의 편향성은 인공지능의신뢰성을 떨어트리는 가장 큰 윤리적 문제 인공지능의 편향성
  • 6.
     데이터 편향성 데이터를 처리하는 과정에서의 편향성  빅데이터는 이를 사용하는 개인이나 사회에게 큰 편리함 을 주기도 하지 만, 빅데이터의 수집과 처리 과정에서 윤 리적이지 않은 요소들이 개입되어 영향을 미친다면, 빅 데이터의 수집과 활용에 대한 윤리적인 판단의 필요성이 제기  편향성(bias) 문제  빅데이터와 기계학습, 인공지능과 관련되어 제기되는 윤리적인 이슈  편향성(bias) vs. 편견(prejudice) o 편향성 : 통계적, 기술적인 용어 o 편견 : 윤리적인 용어
  • 7.
     언어 모델의편향성 GPT-2, GPT-3, BERT, RoBERTa  방대한 데이터를 학습한 초거대 언어 모델  데이터에 내재된 편향성  Islam – terror Reddit 사용자는 대부분 20~40대 남성과 미국인
  • 9.
    "거리"라는 검색어에 대한이미지 결과 (2021. 09.27)
  • 10.
    "거리"라는 검색어에 대한이미지 결과(2022. 10.06)
  • 11.
     데이터 편향성‘젠더’  젠더 편향성이란 무엇인가?  성차별  특정 젠더를 선호하는 경향  남성>여성  성별에 근거한 여성에 대한 편견
  • 12.
     젠더 편향의유형 기술개발 시 남성 사용자 혹은 남성을 몸을 표준 여성과 남성에 대한 고정관념
  • 13.
     젠더 편향은왜 일어나는가?  남성 사용자나 남성의 몸은 기술 발전의 기준 자동차 충돌 테스트에서 안전을 테스트하는 데 사용되는 더미(인형)
  • 14.
    평균 성인 여성충돌 테스트 더미(인형)는 나중에 등장 “여성은 남성의 작은 버전이 아닙니다. 그것들은 다르게 구성되어 있습니다.” 여성의 부상 위험 증가
  • 15.
     젠더 편향은왜 일어나는가?  젠더 고정관념
  • 16.
     젠더 고정관념사례  프랑스 잡지 <엘르>에 여성 소설가를 소개하는 방법  “Jacqueline Lenoir(두 소녀, 한 소설), Marina Grey(아들, 한 소설), Nicole Dutreil(두 아들, 네 소설)…  위의 소개가 암시하는 것은 무엇인가?
  • 17.
     인형은 젠더편향의 이데올로기를 강화해온 대표적 사례
  • 18.
     왜 AI비서는 거의 항상 여성의 목소리를 갖고 있는가? Amazon Alexa Apple Siri Microsoft Cortana
  • 19.
     아마존의 AI기반 채용 프로그램(2018)  남성 지원자에게 여성 지원자보다 더 높은 점수를 부여  해당 기업에서 높은 성과와 좋은 평가를 받았던 직원들 의 데이터를 학습  남성 개발자> 여성 개발자  채용 AI 알고리즘 폐기
  • 20.
    Shirley Chisholm(1924-2005) Ida B.Wells (1862-1931) Michelle Obama(1964~) Oprah Winfrey(1954~) “AI, Ain't I a Woman?” task of guessing the gender of a face https://www.youtube.com/watch?v=QxuyfWoVV98
  • 21.
     얼굴 인식에서일어나는 젠더 편향 “Ain't I a Woman?” "나는 여성이 아닌가요?" (1851년 여성권리대 회에서) 소저너 트루스(Sojourner Truth, 1797~1883) 19세기 미국에서 활동한 노예 출신, 아프리카계 미국인 노예제 폐지론자, 여성인권 운동가
  • 22.
     “… 저기저 남성이 말하는군요. 여성은 탈것으로 모셔 드려야 하고, 도랑은 안아서 건너드려야 하고, 어디에서나 최고 좋은 자리를 드려 야 한다고. 아무도 내게는 그런 적 없어요. 나는 탈것으로 모셔진 적 도, 진흙구덩이를 지나도록 도움을 받은 적도, 무슨 좋은 자리를 받 아본 적도 없어요. 그렇다면 나는 여성이 아닌가요? 날 봐요! 내 팔 을 보라구요! 나는 땅을 갈고, 곡식을 심고, 수확을 해왔어요. 그리 고 어떤 남성도 날 앞서지 못했어요. 그래서 나는 여성이 아닌가요? 나는 남성만큼 일할 수 있었고, 먹을 게 있을 땐 남성만큼 먹을 수 있었어요. 남성 만큼이나 채찍질을 견뎌내기도 했어요. 그래서 나는 여성이 아닌가요? 난 5명의 아이를 낳았고, 그 아이들 대부분 노예 로 팔리는 걸 지켜봤어요. 내가 어미의 슬픔으로 울부짖을 때 그리 스도 말고는 아무도 내 말을 들어주지 않았어요. 그래서 나는 여성 이 아닌가요?”(1851년 오하이오 여성권리 집회 연설문 중에서)   젠더가 오로지 생물학적 성에 따라 구성되지 않으며, 인종과 계급의 영 향을 받아 만들어진 것임을 누구보다 먼저 강렬한 방식으로 드러냈다.
  • 23.
     데이터 편향,젠더 편향은 왜 일어나는 것일까?  데이터 수집과정에서 발생  데이터의 다양성 부족  데이터의 양적 부족  데이터를 수집하는 사람의 윤리 반영
  • 24.
     토론 주제 일상에서 경험했던 젠더 편향에 대해 얘기하기  각자 갖고 있는 젠더의 고정관념에 대해 얘기하기  젠더 편향은 기술적으로 해결될 수 있을까?