SlideShare a Scribd company logo
1 of 79
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
2018.2.1
Presenter
김진우,
Professor of HCI, HCI Lab, Yonsei University
CEO of HAII (Human AI Interaction)
Makers
권수정, 김나은, 박도은, 박중신, 박찬미, 양민영, 유영재, 윤준희, 이다나, 이병관, 이승훈, 이연주, 이해성, 정광민, 정유인, 하미연, 황우호
김귀영, 백형우, 심예린, 유영하, 윤정미, 이정연
AI와 Robot 세상에 HCI의 역할은 무엇일까?
- Companion Platform for +User
My First HCI Project in Web
My First HCI Project in Mobile
Integrated IoT Service
“AI 환경에서 HCI가 어떤 역할을 할 것인가는 적어도
향후 10년간 가장 중요한 이슈가 될 것이다”
로봇이 무엇인가를 하려고 하지만 잘 안되서 계속 실패를 하다가 결국 사람이 포기하는 동영상
Artificial Intelligence
HCI
• 컴패니언 테크놀로지란 (이하 컴테크)
– 차세대 스마트 디바이스 환경에서 제공되는 기술 가운데 동반자적 경험을 제공하는 기술
– 컴패니언 테크놀로지는 애착을 가지고 지속적이고 확장적인 상호작용을 하게 함 (Benyon & Mival, 2010)
“난 베이맥스.
너의 헬스케어 컴패니언이야”
영화빅히어로 中
컴패니언 테크놀로지 (Companion Technology)
“Who are Companions?”
What are Companion Technologies?
영화 채피 삽입
Interaction is getting even more important than ever.
컴패니언은 쌍방향이다.
기계가사람의컴패니언이되는것처럼,
사람도기계의컴패니언이되어야한다.
Human-CompatibleAI
(StuartRusselIJCAI2017)
Robothasanincentivetoaskhelp.
Humanhasanincentivetoteachtherobots.
User Plus-User
Plus-User Experience (PUX)User Experience (UX)
Plus-User User +
Nurturer
Proctor
Collaborator
경계의 확장
Companion Technology의 핵심 기술과
Plus-User Experience
Companion Technology의 기술 구조도
HAL
DC
Motor
Step
Motor
Display Sound LED VibratorActuator
Components
Device Network
Application
Framework
Layer
Activity Logger Monitor
GPIO I2C SPI USART PWM
Sensor & Actuator
Interface Layer
Humidity
Sensor
Temp.
Sensor
Illumination
Sensor
Accel.
Pressure
Sensor
Touch
Sensor
Sound
Sensor
Sensor
Components Vision
Sensor
Motion
Sensor
Bio
Sensor
WiFi
Bluetooth
BLE
ZigBee
Network
Layer
MQTT CoAP
Libraries & APIsSDK & API
합성 센서(Synthetic Sensor) 기술
[Physical Sensor Device +
Physical Actuator Device]
Device
Layer
Sensor
Robots
Sensor
Sound / Audio
Sensor
GPS
Sensor
Logs
Sensor
Video / Image
Sensor
Human
Bottom-Up
Reasoning
Component
Deep Neural Network
(CNN, Fully Connected)
Support Vector
Machine
Gaussian
Mixture Model
Random Forest
Transport
Component
(XMPP/MQTT)
Node
High Level Event 1
Node
High Level Event 2
Node
High Level Event N
…
Publish
Top-Down
Reasoning
Component
Interaction
Layer
Answer Set Programming
Real-Time Complex Event Processing
Cognitive Architecture (BDI)
Real-Time Intention Recognition
Subscribe
Actuator
Robots
Actuator
Auditory
Actuator
Tactile
Actuator
Smartphone
Actuator
Visual
[Top-Down Reasoning +
Bottom-up Reasoning +
Human-aid Reasoning Module]
하이브리드 지능 (Hybrid Reasoning) 기술
Ground Truth
Consisting of Feature-
Label Pair
(e.g. Sensor readings-
Activity)
ML + Information Theoretic Framework
1) 최적/최소 센서 세트 조직화를 위한 Machine Learning + Information theoretic Framework 조합 기술을 제안.
센서/행동 모듈의 병렬적 조직화에 적합
2) Markov Decision Making Framework (e.g. Reinforcement Learning) 기반,
Optimal Policy (actions) 시퀀스를 통한 최적 행동 조직화 기술. 센서 구동 순서, 행동 표현 순서 조직화에 적합
Low-Cost, Optimal
Device Set
(e.g. Sensors, Actuators)
Ground Truth Analysis
using ML Technique
with BootStrapping
(e.g. Random Forest)
Contribution Level on
Activity Inference
Redundancy
Analysis on
each device
using
Information
Theory
Optimisation
under
Constraints
(e.g. Budget)
Gini Impurity
on each device
Candidate
Set of Device
User Preference
on Presentation
Modeled by
Interaction Studies
(e.g. Actuator,
Interaction Method etc)
MDP (RL) Framework
Optimal Sequence
(e.g. Sensor reading ,
Actuator Presentation)
Action-Value Approximation (e.g. Dueling-DDQN)
Policy Approximation (e.g. Deep-DPG)
Multiple Actuating 기술 [Multi-Sensor Coordination + Multi-Actuator Coordination]
< 하이브리드 지능 모듈이 적용된 개별 로봇 지능 구조도 >
Robot Reasoning Layer
Human-aid Layer
Human-aid Sensor
Beliefs
Situation &
Events
Plans
(Situation-Aware)
Practical Reasoning
Human-aid Actuator
Multi-Robot Environments
Coordination
(Sensor Reading ↔ Events ↔ Human Behaviour)
Percepts
Top-Down Reasoning layer
Event
Processor
Situation(s)
and
Its Associated Events
Situation
Identifier
Event
Processor
Bottom-Up Reasoning Layer
Sound
Recog
Image
Recog
Behaviour
Recog.
Intention
Recog.
Data
Recog.
Machine Learning Based Data Analyser
(e.g. SVM, GMM, DNN)
Robot-Robot Interaction Data
하이브리드 지능 모듈이 적용되면
Bottom-Up Reasoning Layer와
Top-Down Reasoning Layer가 추가되
어,
1) 다중 센서 및 다중 로봇의 인식 결과
를 개별 로봇이 모두 사용 가능하고,
2) 상황·의도와 같은 지식이 추가될 뿐
만 아니라,
3) 인간-로봇 상호작용으로부터 입력받
은 결과를 통해 지식·모델의 재구성이
가 능해져,
개별 로봇의 지능이 향상될 수 있음.
Human Aided Interaction[Human-aid Sensor + Human-aided Reasoning + Human-aid Actuator]
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
Home Social Companion-bot
Yonsei University
HCI Lab
Home Social Companion Team
Target +User
Target+User
• 1인가정>2030대>혼자사는생활이외롭고무서운여성
KeyValue
• 2030대1인가구여성의사회적연결감증진을통한사회적고립감감소
• 사회적고립감:개인이맺는사회적관계의양이나질이부족한상태
RobotType
• Attentive(growthstageLv1-4)/AmbientIntelligenceRobot(growthstageLv4)
3가지 모듈 및 구성요소
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
Physical
Actuator
Human
Aided
Actuator
Multi-actuator
coordination
Top down
Reasoning
Bottom Up
Reasoning
Human Aided
Reasoning
Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module
PERCEPTION ACTREASON
Companion Bot
3가지 모듈 및 구성요소
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
Physical
Actuator
Human
Aided
Actuator
Multi-actuator
coordination
Top down
Reasoning
Bottom Up
Reasoning
Human Aided
Reasoning
Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module
PERCEPTION ACTREASON
Companion Bot
Synthetic Sensor Module
현재 분석에 사용되는 센서
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
(A)Illuminancesensor,(B)LCD,(C)Ultrasonicsensor,(D)Speaker,(E)Microphone,
(F)Soundsensor,(G)Temperatureandhumiditysensor,(H)RaspberryPi3
Synthetic Sensor Module
Manual Learning
• 8가지 가정 내 활동에 대한 음향데이터
를 수집하기위해 스마트폰녹음기를사
용하여활동별1000개 이상의 데이터수
집
• 현관문(1000개),냉장고(1128개),세탁기
(151분 18초), 청소기(31분35초), 전자렌
지(30분),가스렌지(28분),창문(31분37
초), 키보드(29분48초)
• 위 데이터를기반으로SVM(Support
Vector Machine)을적용한생활소음인식
기 개발
음향종류
학습군 시험군
정답률 정답률
현관문 95.54% 88.67%
가스렌지 99.95% 96.03%
키보드 99.14% 94.77%
전자레인지 98.67% 95.38%
냉장고문 99.37% 92.62%
진공청소기 100.00% 100.00%
세탁기 99.91% 96.81%
창문 99.78% 97.19%
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
Synthetic Sensor Module
Online Learning
• 실제 1인 가정에 로봇을배치하여각 가정에서발생하는생활소음및
각종 센서 데이터를수집
• 가정 내 특정 활동에서발생하는음향정보와 다른센서값들의변화 패
턴을 조합한데이터를학습데이터로활용하여,음향인식의정확도증
가
사운드 센서온습도 센서 조도 센서초음파 센서 가속도 센서마이크
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
Synthetic Sensor Module
HumanAided Sensors
• Human Aid에 필요한 과정
1) 사용자가 인식결과를 확인하는 과정
2) 결과가 맞고 틀림을 입력하는 과정
• 유의점
1) 입력 절차가 쉽고 간단해야 함
2) 입력을 요구하는 맥락이 자연스러워야 함
3) 입력으로 인한 이익이 있어야 함
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
Synthetic Sensor Module
HumanAided Sensors
• 성장 메타포 사용
- 음향인식 로봇 또한 사용 초기에는 사용자에 대해서도 잘 모르고,
새로운 환경이 낯선 부족한 친구라는 인식을 갖도록 함
- 더 나아가 로봇을 가르치는 과정 자체가 하나의 인터랙션 요소이며,
로봇이 똑똑해지고 나와 가까워졌다는 것을 시각적, 청각적으로 피
드백 주는 것은 하나의 재미 요소가 될 수 있음 (표정, 아이콘, 효과
음 등)
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
Synthetic Sensor Module
HumanAided Sensors
• 인식 결과 확인 및 입력
- 음성 : 로봇의 주 인터랙션 방법이 Speech이기 때문에 음성으로 질문
에 대답하는 방식의 인터랙션이 자연스러움
• 로봇이 인식한 음향을 레이블링 하기
위해 적정 빈도로 랜덤하게 질문
냉장고 열었어?
응 아니
’냉장고’ 기록 ‘냉장고 아님’ 기록
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
Life Balance Companion-bot
Yonsei University
HCI Lab
Life Balance Companion Team
Human A.I.
Mobile Application
interaction
Food Image Recognition
mobile application
외식이 잦은 현대인의 식생활
+
언제나 들고 다니는 스마트폰
+
높은 성능의 카메라와 모바일 AI
AI를 탑재한 모바일 어플리케이션은 어떤 interaction을 제공해야 하는가?
Human-Mobile AI Interaction with Food Recognition
Human-Mobile AI Interaction with Food Recognition
Smartphone
Camera
Human-aid
Food Image
Recognition
Algorithm Empathy
Sensing Module Reasoning Module
어떤 human-mobile AI interaction을
통해 사용자로부터 더 많은
human-aid를
이끌어내어 부족한 정확도를
보충할 수 있는가?
Explainable AI
Actuating Module
Human-Mobile AI Interaction with Food Recognition
Explanation
based on
Egoistic
Motivation
Empathy
based on
Altruistic
Motivation
Trust
Willingness
to give Help
( + ) *** ( + ) ***
( + ) ***
Explanation을 통한 Understandability 상승은 AI에 대한 Trust를 상승시키고
이는 사용자로부터 Human-aid를 주고자 하는 의사를 불러일으킨다.
이타심으로부터 비롯되는 ‘공감(Empathy)’은 사용자가
Human-aid를 주고자 하는 마음에 직접적인 영향을 준다.
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
BuddyGuard Life Companion-bot for Elderly
Yonsei University
HCI Lab
Conversational Companion (CC) Team
혼자 사는 고령자 : 배우자 사별 등 현실적인 이유로 혼자 살고 있으며 다른 가족과는 멀리 떨어져 왕래가 잦지 않은 65세 이상
- ‘2017 고령자 통계’에 따르면 지난해 65세 이상 노인 1인 가구
는 2015년보다 7만1000 가구 늘어난 129만4000 가구로 집계되
었으며, 이는 전체 노인 가구 33.5%에 해당됨.
- 홀로 살아가는 노인들의 경우 심한 고독감으로 인해 우울증과
같은 정신질환을 겪으며 결국 자살이라는 극단적인 선택을 하거
나, 인지∙신체 기능의 저하로 위급한 상황에 대처하지 못하여 안
타까운 사고를 당하기도함.
- 고령인구가 더 증가할 것으로 예측되는 만큼, 사회적으로 고령
자들의 삶의 질 문제에 대한 다양한 대책 마련이 시급한 상황임.
Target +User
Needs of Target +User
- 데이터뉴스에 따르면, 50세 이상 성인 500명을 대상으로 조사한 결과 독거
노인이 됐을 때 가장 염려되는 어려움으로 안전에 대한 불안감(37%)과 외로
움(25%)을 꼽았음.
- 필드에서 직접 60대, 70대, 80대 여성 고령자들을 대상으로 심층 인터뷰한
결과 공통적으로 나타났던 우려 요인이었으며, (1/19 1차 그룹 인터뷰; 60대
2명, 70대 2명, 1/24 2차 그룹 인터뷰; 80대 4명) 이를 통해 혼자 사는 고령자
들의 가장 큰 니즈는 외롭지 않은 삶, 안전이 보장되는 삶이라는 것을 알 수
있었음.
외로움 >> 쓸쓸하거나 외롭지 않고 활력있는 삶에 대한 니즈
불안감 >> 안전이 보장되어 걱정없이 안심할 수 있는 삶에 대한 니
즈
• “혼자 있으면 방에 들어가서 할일이 없으니까. 혼자 하루종일 테레비만 보
구. 불끄고 잠자고. 말할 사람이 전혀 없으니까 말할 기회가 없잖아.” (70대
이xx)
• “다른 분들은 부군이 계시지만, 우리는 혼자거든, 좋을때도 있지만 어쩔
때는 굉장히 고독감을 느끼고, 외롭지. 독거노인들이 많잖아. 동무같은
게 있으면 외로움을 덜타지.” (80대 김xx)
• “사람들이 살다가 죽어도, 몇달 지내서 시체로 발견하잖아. 위험한 상황이 우
리는 항상 불안하거든, 그게 제일 겁나는거야. 이건 내 혼자만의 문제가 아니
고 사회적 문제지.” (80대 김xx)
• “물 올려놓고 깜빡하는거야, 쇼파에 앉아있다가도 잊어버리는거야, 돌아서면
잊어버리고. 냄새맡고 알아차리는거야, 탄내가 나니까. 냄비가 까맣게 타버려
서 버렸어. 이게 노인들의 현상이야, 고구마 찌면 시간되면 알려주고, 그런게
그게 우리한테 제일 필요한거지.” (80대 이xx)
• “누군가 있으면 좋을 것 같아, 너무 심심하잖아. 친구같은 게 있으면 좋지.”
(70대 조xx)
Value Function
- 서울시 통계에 따르면 고령자들의 여가활동에서 TV는 60%를 차
지하므로, 고령자의 주활동을 함께함으로써 컴패니언쉽을 형성할
수 있음.
- TV 프로그램 컨텐츠 데이터를 통해 맥락에 맞는 다양한 리액션을
움직임, 진동, 말소리로 제공 (예: 고령자,”저 나쁜놈 저거저거” > 로
봇, “맞아요. 저 나쁜놈!”)
As a Buddy : Watch TV Together As a Guard : Secure house safety
- 센서를 통해 감지된 환경 정보를 활용하여 집안의 안전상태를 파
악하고, 위험한 상황이 감지되면 컴패니언은 고령자에게 알림을 주
며, 알림에 대한 반응이 없을시 이를 다른 가족에게 전달함.
- 파악된 안전상황을 TV모니터의 일부 스크린을 통해 시각적으로
도 전달하여 고령자가 상시 집안의 상태를 확인하고 안심할 수 있
도록 함.
Value Function
System Structure
1
Technical Element
2
3
4
5
6
1
2
3
4
5
6
TV 프로그램 정보 (사운드&자막) 기반의 감
성 추출 및 디지털 컴패니언의 감성 인터랙션
기술
실 환경에서 고령자의 활동 및 실내외 환경
정보 기반 안전/안심 인터랙션 기술
고령자와의 음성 및 햅틱 기반 인터랙션 및 감성 추
출 기술
고령자의 삶의 질 향상을 위한 라이프
로그 처리 및 기기 간 연결 기술
고령자의 감성 및 수용성을 확보한 디지털 컴패니언 디자인
서브유저를 고려한 다양한 형태의 Shared Agent 기술
Reasoning Part
컨텐츠 특성 기반 반응
컨텐츠 관련 제공 정보 종류
TV content
Reaction rule
Behavior
Interaction rule
Sensing 데이터 결합을 통한 context 추론 및 rule matching
Environmental
Alert rule
상황별 위험도
위험도에 따른 반응
Multi-modal 정보제공 방식
User & sub-user 인터랙션 방식
사용자 행동에 따른 반응
TV context
Environmental
context
Behavior
context
Verbal context
Tempera
ture
Closed
caption
TV sound
humidity
Human Aided Reasoning (1)
TV context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change
TV content
Reaction
Reasoning
rule
TV context
Emotional
empathy
Behavior
expression
Human Aided
(emotional, behavior)
Closed caption
TV sound feature
External API
TV program information
기쁨, 슬픔, 놀람, 무서움, 지루함, etc
물리적 움직임
음성, 동작 등 표현
Human Aided Reasoning (2)
Environmental context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change
Environment
al Alert
Reasoning
rule
Environment
al context
Attentive
reaction
Graphical
alert
Human Aided
(emotional, behavior)
Humidity, temperature, brightness, etc
소리, 움직임 등
물리적 움직임
반응 시간, 강도, 처리여부 등
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
Smart Home Companion Bot for
Child of Dual-Income Family
Yonsei University
HCI Lab
Smart Home Companion Team
맞벌이 가정: 유배우가구 중 동거여부와 상관없이 가구주와 배우자가 모두 취업자인 가구 (통계청)
43.6 43.5 42.9 43.9 43.9 44.9
0
10
20
30
40
50
2011 2012 2013 2014 2015 2016
(년도)
(%)
<맞벌이 가정 비율> <자녀 연령별 맞벌이 비율>
(통계청, 2017)
- 전체 맞벌이 가구는 533만1천가구로 전년(2015년)보다 12만5천명(2.4%) 증가
- 맞벌이 가구 비율은 44.9%로 2011년 조사 이후 최대치를 기록
- 우리나라 20대 여성들은 취업에 대해 94.2%의 여성들이 직업을 가져야 한다는 입장을 보였고, 맞벌이 가구는 점차 늘어날 것으로 보임 (정보미,
(통계청, 2017)
남편은 일주일 근로 시간이 평균 40시간 이상,아내는 25시간 이상으로 근무하는 부부 (정보미, 2016)
Target +User
(맞벌이 부부, 7~17세의 자녀)
맞벌이 가정의 문제점
[부모 측면]
아이에 대한 불안감, 죄책감
이중역할에 대한 심리적 부담
[자녀 측면]
불안감, 외로움, 소외감
과잉행동장애, 학교폭력
- 부모와 자녀가 떨어져 있는 시간 동안
일상적인 상호작용 부족으로 발생
 빈집에 들어 올 때 자녀가 느끼는 외로움 감소에
부모가 도움이 될 수 있게 도와 준다면,
자녀의 외로움과 부모의 불안감이 동시에 감소
아이에게 핸드폰을 쥐어주거나 방과후 학원 뺑뺑이를 시킴 스마트폰 중독 등 새로운 문제가 발생하게 됨
Target +User
Time
Situational Loneliness
(혼자 집에 있을 때)
Out-Home In-Home
Transient Loneliness
(혼자 집에 들어올 때)
Out-Home In-Home Out-Home In-Home
Enter-Home Enter-Home
Short-term Loneliness
Long-term Loneliness
Enter-Home
학원 가기 전에 집에 얘기할 사람이 있었으면..
Value Function
Physical
Sensor
Behavior
Feature
Prediction Model
(with ML)
Interaction Expression
feature
Loneliness
Level
상황정보
(Attentive + Ambient)
Reasoning
Rule
Greeting Rule
Connectedness
Rule
Loneliness Level
Measure
Human Aided
(Greeting)
Human Aided
(Connectedness)
Human Aided
(Top-down)
Rule
Confirm
Human Aided
(Bottom-Up)
Rule
Generation
<3 Modules and Elements of Intelligent Service Robot>
Research Frame
Front Door
- Wireless Motion Sensors
- Contact Sensors
Companion Bot
- Camera
- Microphone
- Touch Sensor
Television
- 소비전력 감지 센서
Refrigerator
- Contact Sensors
- 소비전력 감지 센서
Ceiling Light
- Ultra Sonic
- Microphone
Computer
- 소비전력 감지 센서
Physical Sensor Device - CompanionBot과 IoT Device의 Sensor로 Behavior Feature 추출
Physical
sensor
Behavior
feature
Prediction Model
(with Machine Learning)
Human-aided
sensor
Expression
feature
걸음속도/ 걸음세기
실내 밝기
실내 활동량
온도 및 날씨
speech rate
Pitch
Behavior
feature
Expression
feature
User
마이크/ 사운드 센서
조도/ 온-습도 센서
초음파 센서
Grid-eye
외부 날씨
User self-disclosure(DV)
(with speech)
Arousal/Valence
(with speech)
스피커 / 마이크
Display, LED
Sensing
인터랙션
Robot self-disclosure
- Self-disclosing(IV1)
- Self-involving(IV2)
- Social impact(MoV)
Ground Truth
- Loneliness
- Anxiety
Loneliness
level
Research Framework
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
Arousal Management Companion-bot in Car:
Co-swear and Co-sing
Yonsei University
HCI Lab
Automotive Companion Experience
• 홀로 운전: 동승자 없이 다양한 상황에 놓여 arousal 상태가 급변하는 운전자
• High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음
✓ Dynamic: 옆 차량의 급격한 끼어들기, 앞 차량의 급브레이크, 뒤 차량의 경적 소리
✓ Static: 차가 매우 막히는 상황
• Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌
✓ 매우 단순한 도로 환경
✓ 일정한 속도, 커브 없음
Target +User
• High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음
✓ National Highway Traffic Safety Administration (NHTSA)에서 집계한 데이터 Fatality Analysis Reporting System (FARS)
에 따르면, 운전자의 분노 (road rage)로 인한 연간 사망 사고가 247건 발생 (2004년의 열 배)
✓ SBS에서 방송하는 TV 프로그램 [맨 인 블랙박스]에서는 운전자 분노로 인한 사건 영상이 꾸준히 나옴
Target +User
https://www.nhtsa.gov/research-data/fatality-analysis-reporting-system-fars
• Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌
✓ 미국, 2009년 ~ 2013년, 72,000 건의 졸음 운전 사고 발생하였다. 41,000명의 부상자, 800명 이상의 사망자가 발생
(NHTSA, 2016)
✓ AAA의 자료에 따르면, 2009년부터 2013년까지 발생한 졸음 운전 사고의 21%는 목숨을 앗아간 치명적 사고 (Tefft, 2014)
✓ 2013년부터 2015년의 경찰청 통계자료에 따르면, 매해 졸음 운전으로 인한 교통사고는 약 2,500건에 이르고, 사망자는
120여 명, 부상은 5,000여 명, 치사율은 4.7%로 나타났다. (경찰청 통계자료)
Target +User
Higgins, J. S., Michael, J., Austin, R., Å kerstedt, T., Van Dongen, H. P., Watson, N., ... & Rosekind, M. R. (2017). Asleep at the Wheel—The Road to
Addressing Drowsy Driving. Sleep, 40(2), zsx001.
Korean National Police Agency. Retrieved from http://www.police.go.kr/portal/main/contents.do?menuNo=200193.
Multiple Actuating Module
Reasoning
Rule
Co-swear
Co-sing
Reaction
(Arousal
Change)
Physical
Actuator
Multiple
Actuator
Human-aided
Actuator
Physical Actuator Device
Physical Actuator
Co-swear
Co-sing
• 운전자에게 봇의 swear를 들려주기 위한 스피커
• 운전자에게 음악을 들려주기 위한 스피커
• 운전자의 목소리를 받아들이기 위한 마이크
Multiple Actuator
Reasoning
Rule
Co-swear
Co-sing
• Reasoning Rule에 따라, co-swear 모듈과 co-sing
모듈 중 무엇이 활성화 될 지 정해짐
• 활성화된 모듈이 physical actuator 리소스를 차지
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
Companion Platform for
HCI Researchers
Yonsei University
HCI Lab
Companion Platform Team
HCI/UX Researcher: AI/Robot 기술을 활용한 시스템을 개발하여 HCI/UX 연구를 진행하고자 하는 연구자 및 연구팀
<Robot 시장의 증가>
- 소비자용 로봇 기술과 인공지능을 활용한 기술로 인한 수익이 증가할 것으로 예상됨
- HCI/UX 연구의 중요 부분이 Human Robot Interaction, Human – AI Interaction으로 변화하고 있음
- 많은 HCI 연구자들이 이러한 변화에 발맞춰 새로운 HCI Tool에 대한 고민을 하고 있음 (Marquardt, 2017).
Marquardt, N., Houben, S., Beaudouin-Lafon, M., & Wilson, A. (2017). HCITools: strategies and best practices for designing, evaluating and sharing technical HCI toolkits.
Target +User
<AI 시장의 증가>
- 기존에는 Interaction Design에만 집중하였지만, 이제는 그 외에도 다양한 분야에 대한 Design 함께 필요해짐
- 따라서 HCI 연구를 위한 prototype의 개발에 소요되는 시간이 급격히 상승
Target +User
<Robotics Design> <Circuit/Board Design>
<Program Design>
<Product Design>
<Interaction Design>
Target +User
AI/Robot 기술을 활용한
HCI 연구용 프로토타입을
개발하려는 HCI 연구자
Value Function
TimeResearch Design Prototype Experiment Evaluation
Literature Companion Platform Field Study Statistics/Open Coding
1. 기존에 WoZ로 이루어지던 prototype을 자동화된 companion으로 손쉽게 prototype하기 위한 플랫폼을 제공
2. 연구 타임라인에 있어서 prototype의 개발이 HCI 연구 시간에 중심이 되지 않게 하는 것을 목적으로 함
3. 특히 실험실 환경보다는 field study에 초점을 맞추어 실제 사용자 가정 내의 환경에서 사용할 수 있도록 함
4. HCI 연구에서 활용할 수 있는 범용적인 prototype 플랫폼이 되기 위해 공통적인 센서와 엑츄에이터를 탑재
5. 연구 목적에 따라 특정 센서 값에 대한 엑츄에이터 작동 알고리즘을 추가하여 활용할 수 있도록 함
COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea
2018.2.1
Presenter
Jinwoo Kim,
Makers
권수정, 김나은, 박도은, 박중신, 박찬미, 양민영, 유영재, 윤준희, 이다나, 이병관, 이승훈, 이연주, 이해성, 정광민, 정유인, 하미연, 황우호
김귀영, 백형우, 심예린, 유영하, 윤정미, 이정연
What HCI Can Do in the Era of AI and Robots?
1. User => +User (Nurturer + Proctor + Collaborator)
2. Human Compatible AI & Human Aided Interaction
- Human Aided Sensing (Growth + Decay Metaphor)
- Human Aided Reasoning (Explanation, Response Based Learning)
- Human Aided Actuating (Multiple Actuators including Humans)
3. Toolkit => Platform (importing components)

More Related Content

Similar to What Human Can Do in the Era of AI Robots

[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1Luke Sunghyun Kim
 
2023-Spring-final.pptx
2023-Spring-final.pptx2023-Spring-final.pptx
2023-Spring-final.pptxJinuChoi1
 
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육Jong-Hyun Kim
 
2020 UX 화두 및 통찰
2020 UX 화두 및 통찰2020 UX 화두 및 통찰
2020 UX 화두 및 통찰Billy Choi
 
Research Works of Jonghoon seo
Research Works of Jonghoon seoResearch Works of Jonghoon seo
Research Works of Jonghoon seoJonghoon Seo
 
빅데이터와 사용자체험 융합
빅데이터와 사용자체험 융합빅데이터와 사용자체험 융합
빅데이터와 사용자체험 융합Sungho Lee
 
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)Amazon Web Services Korea
 
사물인터넷 강의 : 제67회 한남피부과학회 (전주)
사물인터넷 강의 : 제67회 한남피부과학회 (전주)사물인터넷 강의 : 제67회 한남피부과학회 (전주)
사물인터넷 강의 : 제67회 한남피부과학회 (전주)Hakyong Kim
 
소프트웨어, 정말 되는 건가?
소프트웨어, 정말 되는 건가?소프트웨어, 정말 되는 건가?
소프트웨어, 정말 되는 건가?Minsuk Lee
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)Byung-han Lee
 
제16차 포럼 발표자료 - 플랫폼 생태계와 창업
제16차 포럼 발표자료 - 플랫폼 생태계와 창업제16차 포럼 발표자료 - 플랫폼 생태계와 창업
제16차 포럼 발표자료 - 플랫폼 생태계와 창업구회 연
 
동작인식 Ppt1
동작인식 Ppt1동작인식 Ppt1
동작인식 Ppt1Hyunju Gong
 
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5PEOPLE AND TECHNOLOGY (Antonio Hong)
 
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020)
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020) Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020)
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020) Jihwan Bang
 
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0PEOPLE AND TECHNOLOGY (Antonio Hong)
 
[Nexsys] 넥시스 - 세계최초 LTE smart helmet 회사소개서 2017.07.22
[Nexsys] 넥시스 -  세계최초 LTE smart helmet 회사소개서 2017.07.22[Nexsys] 넥시스 -  세계최초 LTE smart helmet 회사소개서 2017.07.22
[Nexsys] 넥시스 - 세계최초 LTE smart helmet 회사소개서 2017.07.22JEONG HAN Eom
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래Taehoon Ko
 

Similar to What Human Can Do in the Era of AI Robots (20)

[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
[WeFocus] 인공지능_딥러닝_특허 확보 전략_김성현_201902_v1
 
2023-Spring-final.pptx
2023-Spring-final.pptx2023-Spring-final.pptx
2023-Spring-final.pptx
 
국내 증강현실 시장 전망
국내 증강현실 시장 전망국내 증강현실 시장 전망
국내 증강현실 시장 전망
 
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육
모두의 AI 교육 : 산 ⦁ 학 ⦁ 관 협력으로 모색해 보는 부산 AI 교육
 
2020 UX 화두 및 통찰
2020 UX 화두 및 통찰2020 UX 화두 및 통찰
2020 UX 화두 및 통찰
 
Research Works of Jonghoon seo
Research Works of Jonghoon seoResearch Works of Jonghoon seo
Research Works of Jonghoon seo
 
빅데이터와 사용자체험 융합
빅데이터와 사용자체험 융합빅데이터와 사용자체험 융합
빅데이터와 사용자체험 융합
 
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)
AI 비지니스 무엇을 어떻게 준비하고 해야 하는가? - 정우진 (AWS 사업개발 담당)
 
증강현실이 가져올 미래
증강현실이 가져올 미래증강현실이 가져올 미래
증강현실이 가져올 미래
 
Seri 증강현실
Seri 증강현실Seri 증강현실
Seri 증강현실
 
사물인터넷 강의 : 제67회 한남피부과학회 (전주)
사물인터넷 강의 : 제67회 한남피부과학회 (전주)사물인터넷 강의 : 제67회 한남피부과학회 (전주)
사물인터넷 강의 : 제67회 한남피부과학회 (전주)
 
소프트웨어, 정말 되는 건가?
소프트웨어, 정말 되는 건가?소프트웨어, 정말 되는 건가?
소프트웨어, 정말 되는 건가?
 
머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)머신러닝(딥러닝 요약)
머신러닝(딥러닝 요약)
 
제16차 포럼 발표자료 - 플랫폼 생태계와 창업
제16차 포럼 발표자료 - 플랫폼 생태계와 창업제16차 포럼 발표자료 - 플랫폼 생태계와 창업
제16차 포럼 발표자료 - 플랫폼 생태계와 창업
 
동작인식 Ppt1
동작인식 Ppt1동작인식 Ppt1
동작인식 Ppt1
 
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5
(마케팅자료 Case study)피플앤드테크놀러지-global indoorlbs solution leader-20160625-v1.5
 
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020)
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020) Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020)
Low Price, High Quality: 적은 비용으로 모델 성능 높이기 (Naver Deview 2020)
 
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0
(마케팅자료 실시간위치기반 출입통제보안솔루션소개)피플앤드테크놀러지-Indoor plus for rtls-20160701-v1.0
 
[Nexsys] 넥시스 - 세계최초 LTE smart helmet 회사소개서 2017.07.22
[Nexsys] 넥시스 -  세계최초 LTE smart helmet 회사소개서 2017.07.22[Nexsys] 넥시스 -  세계최초 LTE smart helmet 회사소개서 2017.07.22
[Nexsys] 넥시스 - 세계최초 LTE smart helmet 회사소개서 2017.07.22
 
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
[오컴 Clip IT 세미나] 머신러닝과 인공지능의 현재와 미래
 

What Human Can Do in the Era of AI Robots

  • 1. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea 2018.2.1 Presenter 김진우, Professor of HCI, HCI Lab, Yonsei University CEO of HAII (Human AI Interaction) Makers 권수정, 김나은, 박도은, 박중신, 박찬미, 양민영, 유영재, 윤준희, 이다나, 이병관, 이승훈, 이연주, 이해성, 정광민, 정유인, 하미연, 황우호 김귀영, 백형우, 심예린, 유영하, 윤정미, 이정연 AI와 Robot 세상에 HCI의 역할은 무엇일까? - Companion Platform for +User
  • 2. My First HCI Project in Web
  • 3. My First HCI Project in Mobile
  • 5.
  • 6.
  • 7. “AI 환경에서 HCI가 어떤 역할을 할 것인가는 적어도 향후 10년간 가장 중요한 이슈가 될 것이다”
  • 8.
  • 9. 로봇이 무엇인가를 하려고 하지만 잘 안되서 계속 실패를 하다가 결국 사람이 포기하는 동영상
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 17. • 컴패니언 테크놀로지란 (이하 컴테크) – 차세대 스마트 디바이스 환경에서 제공되는 기술 가운데 동반자적 경험을 제공하는 기술 – 컴패니언 테크놀로지는 애착을 가지고 지속적이고 확장적인 상호작용을 하게 함 (Benyon & Mival, 2010) “난 베이맥스. 너의 헬스케어 컴패니언이야” 영화빅히어로 中 컴패니언 테크놀로지 (Companion Technology)
  • 19. What are Companion Technologies?
  • 20.
  • 21. 영화 채피 삽입 Interaction is getting even more important than ever.
  • 23.
  • 24. User Plus-User Plus-User Experience (PUX)User Experience (UX) Plus-User User + Nurturer Proctor Collaborator 경계의 확장
  • 25. Companion Technology의 핵심 기술과 Plus-User Experience
  • 27. HAL DC Motor Step Motor Display Sound LED VibratorActuator Components Device Network Application Framework Layer Activity Logger Monitor GPIO I2C SPI USART PWM Sensor & Actuator Interface Layer Humidity Sensor Temp. Sensor Illumination Sensor Accel. Pressure Sensor Touch Sensor Sound Sensor Sensor Components Vision Sensor Motion Sensor Bio Sensor WiFi Bluetooth BLE ZigBee Network Layer MQTT CoAP Libraries & APIsSDK & API 합성 센서(Synthetic Sensor) 기술 [Physical Sensor Device + Physical Actuator Device]
  • 28. Device Layer Sensor Robots Sensor Sound / Audio Sensor GPS Sensor Logs Sensor Video / Image Sensor Human Bottom-Up Reasoning Component Deep Neural Network (CNN, Fully Connected) Support Vector Machine Gaussian Mixture Model Random Forest Transport Component (XMPP/MQTT) Node High Level Event 1 Node High Level Event 2 Node High Level Event N … Publish Top-Down Reasoning Component Interaction Layer Answer Set Programming Real-Time Complex Event Processing Cognitive Architecture (BDI) Real-Time Intention Recognition Subscribe Actuator Robots Actuator Auditory Actuator Tactile Actuator Smartphone Actuator Visual [Top-Down Reasoning + Bottom-up Reasoning + Human-aid Reasoning Module] 하이브리드 지능 (Hybrid Reasoning) 기술
  • 29. Ground Truth Consisting of Feature- Label Pair (e.g. Sensor readings- Activity) ML + Information Theoretic Framework 1) 최적/최소 센서 세트 조직화를 위한 Machine Learning + Information theoretic Framework 조합 기술을 제안. 센서/행동 모듈의 병렬적 조직화에 적합 2) Markov Decision Making Framework (e.g. Reinforcement Learning) 기반, Optimal Policy (actions) 시퀀스를 통한 최적 행동 조직화 기술. 센서 구동 순서, 행동 표현 순서 조직화에 적합 Low-Cost, Optimal Device Set (e.g. Sensors, Actuators) Ground Truth Analysis using ML Technique with BootStrapping (e.g. Random Forest) Contribution Level on Activity Inference Redundancy Analysis on each device using Information Theory Optimisation under Constraints (e.g. Budget) Gini Impurity on each device Candidate Set of Device User Preference on Presentation Modeled by Interaction Studies (e.g. Actuator, Interaction Method etc) MDP (RL) Framework Optimal Sequence (e.g. Sensor reading , Actuator Presentation) Action-Value Approximation (e.g. Dueling-DDQN) Policy Approximation (e.g. Deep-DPG) Multiple Actuating 기술 [Multi-Sensor Coordination + Multi-Actuator Coordination]
  • 30. < 하이브리드 지능 모듈이 적용된 개별 로봇 지능 구조도 > Robot Reasoning Layer Human-aid Layer Human-aid Sensor Beliefs Situation & Events Plans (Situation-Aware) Practical Reasoning Human-aid Actuator Multi-Robot Environments Coordination (Sensor Reading ↔ Events ↔ Human Behaviour) Percepts Top-Down Reasoning layer Event Processor Situation(s) and Its Associated Events Situation Identifier Event Processor Bottom-Up Reasoning Layer Sound Recog Image Recog Behaviour Recog. Intention Recog. Data Recog. Machine Learning Based Data Analyser (e.g. SVM, GMM, DNN) Robot-Robot Interaction Data 하이브리드 지능 모듈이 적용되면 Bottom-Up Reasoning Layer와 Top-Down Reasoning Layer가 추가되 어, 1) 다중 센서 및 다중 로봇의 인식 결과 를 개별 로봇이 모두 사용 가능하고, 2) 상황·의도와 같은 지식이 추가될 뿐 만 아니라, 3) 인간-로봇 상호작용으로부터 입력받 은 결과를 통해 지식·모델의 재구성이 가 능해져, 개별 로봇의 지능이 향상될 수 있음. Human Aided Interaction[Human-aid Sensor + Human-aided Reasoning + Human-aid Actuator]
  • 31. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea Home Social Companion-bot Yonsei University HCI Lab Home Social Companion Team
  • 32. Target +User Target+User • 1인가정>2030대>혼자사는생활이외롭고무서운여성 KeyValue • 2030대1인가구여성의사회적연결감증진을통한사회적고립감감소 • 사회적고립감:개인이맺는사회적관계의양이나질이부족한상태 RobotType • Attentive(growthstageLv1-4)/AmbientIntelligenceRobot(growthstageLv4)
  • 33.
  • 34. 3가지 모듈 및 구성요소 Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors Physical Actuator Human Aided Actuator Multi-actuator coordination Top down Reasoning Bottom Up Reasoning Human Aided Reasoning Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module PERCEPTION ACTREASON Companion Bot
  • 35. 3가지 모듈 및 구성요소 Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors Physical Actuator Human Aided Actuator Multi-actuator coordination Top down Reasoning Bottom Up Reasoning Human Aided Reasoning Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module PERCEPTION ACTREASON Companion Bot
  • 36. Synthetic Sensor Module 현재 분석에 사용되는 센서 Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing (A)Illuminancesensor,(B)LCD,(C)Ultrasonicsensor,(D)Speaker,(E)Microphone, (F)Soundsensor,(G)Temperatureandhumiditysensor,(H)RaspberryPi3
  • 37. Synthetic Sensor Module Manual Learning • 8가지 가정 내 활동에 대한 음향데이터 를 수집하기위해 스마트폰녹음기를사 용하여활동별1000개 이상의 데이터수 집 • 현관문(1000개),냉장고(1128개),세탁기 (151분 18초), 청소기(31분35초), 전자렌 지(30분),가스렌지(28분),창문(31분37 초), 키보드(29분48초) • 위 데이터를기반으로SVM(Support Vector Machine)을적용한생활소음인식 기 개발 음향종류 학습군 시험군 정답률 정답률 현관문 95.54% 88.67% 가스렌지 99.95% 96.03% 키보드 99.14% 94.77% 전자레인지 98.67% 95.38% 냉장고문 99.37% 92.62% 진공청소기 100.00% 100.00% 세탁기 99.91% 96.81% 창문 99.78% 97.19% Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing
  • 38. Synthetic Sensor Module Online Learning • 실제 1인 가정에 로봇을배치하여각 가정에서발생하는생활소음및 각종 센서 데이터를수집 • 가정 내 특정 활동에서발생하는음향정보와 다른센서값들의변화 패 턴을 조합한데이터를학습데이터로활용하여,음향인식의정확도증 가 사운드 센서온습도 센서 조도 센서초음파 센서 가속도 센서마이크 Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing
  • 39. Synthetic Sensor Module HumanAided Sensors • Human Aid에 필요한 과정 1) 사용자가 인식결과를 확인하는 과정 2) 결과가 맞고 틀림을 입력하는 과정 • 유의점 1) 입력 절차가 쉽고 간단해야 함 2) 입력을 요구하는 맥락이 자연스러워야 함 3) 입력으로 인한 이익이 있어야 함 Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing
  • 40. Synthetic Sensor Module HumanAided Sensors • 성장 메타포 사용 - 음향인식 로봇 또한 사용 초기에는 사용자에 대해서도 잘 모르고, 새로운 환경이 낯선 부족한 친구라는 인식을 갖도록 함 - 더 나아가 로봇을 가르치는 과정 자체가 하나의 인터랙션 요소이며, 로봇이 똑똑해지고 나와 가까워졌다는 것을 시각적, 청각적으로 피 드백 주는 것은 하나의 재미 요소가 될 수 있음 (표정, 아이콘, 효과 음 등) Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing
  • 41. Synthetic Sensor Module HumanAided Sensors • 인식 결과 확인 및 입력 - 음성 : 로봇의 주 인터랙션 방법이 Speech이기 때문에 음성으로 질문 에 대답하는 방식의 인터랙션이 자연스러움 • 로봇이 인식한 음향을 레이블링 하기 위해 적정 빈도로 랜덤하게 질문 냉장고 열었어? 응 아니 ’냉장고’ 기록 ‘냉장고 아님’ 기록 Synthetic Sensor Module PERCEPTION Physical Sensors Synthesizer - Manual Learning - Online Learning Human Aided Sensors - confidence level Contribution Amount - Human Input Processing
  • 42. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea Life Balance Companion-bot Yonsei University HCI Lab Life Balance Companion Team
  • 43. Human A.I. Mobile Application interaction Food Image Recognition mobile application 외식이 잦은 현대인의 식생활 + 언제나 들고 다니는 스마트폰 + 높은 성능의 카메라와 모바일 AI AI를 탑재한 모바일 어플리케이션은 어떤 interaction을 제공해야 하는가? Human-Mobile AI Interaction with Food Recognition
  • 44. Human-Mobile AI Interaction with Food Recognition Smartphone Camera Human-aid Food Image Recognition Algorithm Empathy Sensing Module Reasoning Module 어떤 human-mobile AI interaction을 통해 사용자로부터 더 많은 human-aid를 이끌어내어 부족한 정확도를 보충할 수 있는가? Explainable AI Actuating Module
  • 45.
  • 46. Human-Mobile AI Interaction with Food Recognition Explanation based on Egoistic Motivation Empathy based on Altruistic Motivation Trust Willingness to give Help ( + ) *** ( + ) *** ( + ) *** Explanation을 통한 Understandability 상승은 AI에 대한 Trust를 상승시키고 이는 사용자로부터 Human-aid를 주고자 하는 의사를 불러일으킨다. 이타심으로부터 비롯되는 ‘공감(Empathy)’은 사용자가 Human-aid를 주고자 하는 마음에 직접적인 영향을 준다.
  • 47. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea BuddyGuard Life Companion-bot for Elderly Yonsei University HCI Lab Conversational Companion (CC) Team
  • 48. 혼자 사는 고령자 : 배우자 사별 등 현실적인 이유로 혼자 살고 있으며 다른 가족과는 멀리 떨어져 왕래가 잦지 않은 65세 이상 - ‘2017 고령자 통계’에 따르면 지난해 65세 이상 노인 1인 가구 는 2015년보다 7만1000 가구 늘어난 129만4000 가구로 집계되 었으며, 이는 전체 노인 가구 33.5%에 해당됨. - 홀로 살아가는 노인들의 경우 심한 고독감으로 인해 우울증과 같은 정신질환을 겪으며 결국 자살이라는 극단적인 선택을 하거 나, 인지∙신체 기능의 저하로 위급한 상황에 대처하지 못하여 안 타까운 사고를 당하기도함. - 고령인구가 더 증가할 것으로 예측되는 만큼, 사회적으로 고령 자들의 삶의 질 문제에 대한 다양한 대책 마련이 시급한 상황임. Target +User
  • 49. Needs of Target +User - 데이터뉴스에 따르면, 50세 이상 성인 500명을 대상으로 조사한 결과 독거 노인이 됐을 때 가장 염려되는 어려움으로 안전에 대한 불안감(37%)과 외로 움(25%)을 꼽았음. - 필드에서 직접 60대, 70대, 80대 여성 고령자들을 대상으로 심층 인터뷰한 결과 공통적으로 나타났던 우려 요인이었으며, (1/19 1차 그룹 인터뷰; 60대 2명, 70대 2명, 1/24 2차 그룹 인터뷰; 80대 4명) 이를 통해 혼자 사는 고령자 들의 가장 큰 니즈는 외롭지 않은 삶, 안전이 보장되는 삶이라는 것을 알 수 있었음. 외로움 >> 쓸쓸하거나 외롭지 않고 활력있는 삶에 대한 니즈 불안감 >> 안전이 보장되어 걱정없이 안심할 수 있는 삶에 대한 니 즈 • “혼자 있으면 방에 들어가서 할일이 없으니까. 혼자 하루종일 테레비만 보 구. 불끄고 잠자고. 말할 사람이 전혀 없으니까 말할 기회가 없잖아.” (70대 이xx) • “다른 분들은 부군이 계시지만, 우리는 혼자거든, 좋을때도 있지만 어쩔 때는 굉장히 고독감을 느끼고, 외롭지. 독거노인들이 많잖아. 동무같은 게 있으면 외로움을 덜타지.” (80대 김xx) • “사람들이 살다가 죽어도, 몇달 지내서 시체로 발견하잖아. 위험한 상황이 우 리는 항상 불안하거든, 그게 제일 겁나는거야. 이건 내 혼자만의 문제가 아니 고 사회적 문제지.” (80대 김xx) • “물 올려놓고 깜빡하는거야, 쇼파에 앉아있다가도 잊어버리는거야, 돌아서면 잊어버리고. 냄새맡고 알아차리는거야, 탄내가 나니까. 냄비가 까맣게 타버려 서 버렸어. 이게 노인들의 현상이야, 고구마 찌면 시간되면 알려주고, 그런게 그게 우리한테 제일 필요한거지.” (80대 이xx) • “누군가 있으면 좋을 것 같아, 너무 심심하잖아. 친구같은 게 있으면 좋지.” (70대 조xx)
  • 50. Value Function - 서울시 통계에 따르면 고령자들의 여가활동에서 TV는 60%를 차 지하므로, 고령자의 주활동을 함께함으로써 컴패니언쉽을 형성할 수 있음. - TV 프로그램 컨텐츠 데이터를 통해 맥락에 맞는 다양한 리액션을 움직임, 진동, 말소리로 제공 (예: 고령자,”저 나쁜놈 저거저거” > 로 봇, “맞아요. 저 나쁜놈!”) As a Buddy : Watch TV Together As a Guard : Secure house safety - 센서를 통해 감지된 환경 정보를 활용하여 집안의 안전상태를 파 악하고, 위험한 상황이 감지되면 컴패니언은 고령자에게 알림을 주 며, 알림에 대한 반응이 없을시 이를 다른 가족에게 전달함. - 파악된 안전상황을 TV모니터의 일부 스크린을 통해 시각적으로 도 전달하여 고령자가 상시 집안의 상태를 확인하고 안심할 수 있 도록 함.
  • 51. Value Function System Structure 1 Technical Element 2 3 4 5 6 1 2 3 4 5 6 TV 프로그램 정보 (사운드&자막) 기반의 감 성 추출 및 디지털 컴패니언의 감성 인터랙션 기술 실 환경에서 고령자의 활동 및 실내외 환경 정보 기반 안전/안심 인터랙션 기술 고령자와의 음성 및 햅틱 기반 인터랙션 및 감성 추 출 기술 고령자의 삶의 질 향상을 위한 라이프 로그 처리 및 기기 간 연결 기술 고령자의 감성 및 수용성을 확보한 디지털 컴패니언 디자인 서브유저를 고려한 다양한 형태의 Shared Agent 기술
  • 52.
  • 53. Reasoning Part 컨텐츠 특성 기반 반응 컨텐츠 관련 제공 정보 종류 TV content Reaction rule Behavior Interaction rule Sensing 데이터 결합을 통한 context 추론 및 rule matching Environmental Alert rule 상황별 위험도 위험도에 따른 반응 Multi-modal 정보제공 방식 User & sub-user 인터랙션 방식 사용자 행동에 따른 반응 TV context Environmental context Behavior context Verbal context Tempera ture Closed caption TV sound humidity
  • 54. Human Aided Reasoning (1) TV context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change TV content Reaction Reasoning rule TV context Emotional empathy Behavior expression Human Aided (emotional, behavior) Closed caption TV sound feature External API TV program information 기쁨, 슬픔, 놀람, 무서움, 지루함, etc 물리적 움직임 음성, 동작 등 표현
  • 55. Human Aided Reasoning (2) Environmental context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change Environment al Alert Reasoning rule Environment al context Attentive reaction Graphical alert Human Aided (emotional, behavior) Humidity, temperature, brightness, etc 소리, 움직임 등 물리적 움직임 반응 시간, 강도, 처리여부 등
  • 56. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea Smart Home Companion Bot for Child of Dual-Income Family Yonsei University HCI Lab Smart Home Companion Team
  • 57. 맞벌이 가정: 유배우가구 중 동거여부와 상관없이 가구주와 배우자가 모두 취업자인 가구 (통계청) 43.6 43.5 42.9 43.9 43.9 44.9 0 10 20 30 40 50 2011 2012 2013 2014 2015 2016 (년도) (%) <맞벌이 가정 비율> <자녀 연령별 맞벌이 비율> (통계청, 2017) - 전체 맞벌이 가구는 533만1천가구로 전년(2015년)보다 12만5천명(2.4%) 증가 - 맞벌이 가구 비율은 44.9%로 2011년 조사 이후 최대치를 기록 - 우리나라 20대 여성들은 취업에 대해 94.2%의 여성들이 직업을 가져야 한다는 입장을 보였고, 맞벌이 가구는 점차 늘어날 것으로 보임 (정보미, (통계청, 2017) 남편은 일주일 근로 시간이 평균 40시간 이상,아내는 25시간 이상으로 근무하는 부부 (정보미, 2016) Target +User
  • 58. (맞벌이 부부, 7~17세의 자녀) 맞벌이 가정의 문제점 [부모 측면] 아이에 대한 불안감, 죄책감 이중역할에 대한 심리적 부담 [자녀 측면] 불안감, 외로움, 소외감 과잉행동장애, 학교폭력 - 부모와 자녀가 떨어져 있는 시간 동안 일상적인 상호작용 부족으로 발생  빈집에 들어 올 때 자녀가 느끼는 외로움 감소에 부모가 도움이 될 수 있게 도와 준다면, 자녀의 외로움과 부모의 불안감이 동시에 감소 아이에게 핸드폰을 쥐어주거나 방과후 학원 뺑뺑이를 시킴 스마트폰 중독 등 새로운 문제가 발생하게 됨 Target +User
  • 59. Time Situational Loneliness (혼자 집에 있을 때) Out-Home In-Home Transient Loneliness (혼자 집에 들어올 때) Out-Home In-Home Out-Home In-Home Enter-Home Enter-Home Short-term Loneliness Long-term Loneliness Enter-Home 학원 가기 전에 집에 얘기할 사람이 있었으면.. Value Function
  • 60. Physical Sensor Behavior Feature Prediction Model (with ML) Interaction Expression feature Loneliness Level 상황정보 (Attentive + Ambient) Reasoning Rule Greeting Rule Connectedness Rule Loneliness Level Measure Human Aided (Greeting) Human Aided (Connectedness) Human Aided (Top-down) Rule Confirm Human Aided (Bottom-Up) Rule Generation <3 Modules and Elements of Intelligent Service Robot> Research Frame
  • 61. Front Door - Wireless Motion Sensors - Contact Sensors Companion Bot - Camera - Microphone - Touch Sensor Television - 소비전력 감지 센서 Refrigerator - Contact Sensors - 소비전력 감지 센서 Ceiling Light - Ultra Sonic - Microphone Computer - 소비전력 감지 센서 Physical Sensor Device - CompanionBot과 IoT Device의 Sensor로 Behavior Feature 추출
  • 62. Physical sensor Behavior feature Prediction Model (with Machine Learning) Human-aided sensor Expression feature 걸음속도/ 걸음세기 실내 밝기 실내 활동량 온도 및 날씨 speech rate Pitch Behavior feature Expression feature User 마이크/ 사운드 센서 조도/ 온-습도 센서 초음파 센서 Grid-eye 외부 날씨 User self-disclosure(DV) (with speech) Arousal/Valence (with speech) 스피커 / 마이크 Display, LED Sensing 인터랙션 Robot self-disclosure - Self-disclosing(IV1) - Self-involving(IV2) - Social impact(MoV) Ground Truth - Loneliness - Anxiety Loneliness level Research Framework
  • 63.
  • 64. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea Arousal Management Companion-bot in Car: Co-swear and Co-sing Yonsei University HCI Lab Automotive Companion Experience
  • 65. • 홀로 운전: 동승자 없이 다양한 상황에 놓여 arousal 상태가 급변하는 운전자 • High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음 ✓ Dynamic: 옆 차량의 급격한 끼어들기, 앞 차량의 급브레이크, 뒤 차량의 경적 소리 ✓ Static: 차가 매우 막히는 상황 • Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌 ✓ 매우 단순한 도로 환경 ✓ 일정한 속도, 커브 없음 Target +User
  • 66. • High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음 ✓ National Highway Traffic Safety Administration (NHTSA)에서 집계한 데이터 Fatality Analysis Reporting System (FARS) 에 따르면, 운전자의 분노 (road rage)로 인한 연간 사망 사고가 247건 발생 (2004년의 열 배) ✓ SBS에서 방송하는 TV 프로그램 [맨 인 블랙박스]에서는 운전자 분노로 인한 사건 영상이 꾸준히 나옴 Target +User https://www.nhtsa.gov/research-data/fatality-analysis-reporting-system-fars
  • 67.
  • 68. • Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌 ✓ 미국, 2009년 ~ 2013년, 72,000 건의 졸음 운전 사고 발생하였다. 41,000명의 부상자, 800명 이상의 사망자가 발생 (NHTSA, 2016) ✓ AAA의 자료에 따르면, 2009년부터 2013년까지 발생한 졸음 운전 사고의 21%는 목숨을 앗아간 치명적 사고 (Tefft, 2014) ✓ 2013년부터 2015년의 경찰청 통계자료에 따르면, 매해 졸음 운전으로 인한 교통사고는 약 2,500건에 이르고, 사망자는 120여 명, 부상은 5,000여 명, 치사율은 4.7%로 나타났다. (경찰청 통계자료) Target +User Higgins, J. S., Michael, J., Austin, R., Å kerstedt, T., Van Dongen, H. P., Watson, N., ... & Rosekind, M. R. (2017). Asleep at the Wheel—The Road to Addressing Drowsy Driving. Sleep, 40(2), zsx001. Korean National Police Agency. Retrieved from http://www.police.go.kr/portal/main/contents.do?menuNo=200193.
  • 69.
  • 71. Physical Actuator Device Physical Actuator Co-swear Co-sing • 운전자에게 봇의 swear를 들려주기 위한 스피커 • 운전자에게 음악을 들려주기 위한 스피커 • 운전자의 목소리를 받아들이기 위한 마이크
  • 72. Multiple Actuator Reasoning Rule Co-swear Co-sing • Reasoning Rule에 따라, co-swear 모듈과 co-sing 모듈 중 무엇이 활성화 될 지 정해짐 • 활성화된 모듈이 physical actuator 리소스를 차지
  • 73. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea Companion Platform for HCI Researchers Yonsei University HCI Lab Companion Platform Team
  • 74. HCI/UX Researcher: AI/Robot 기술을 활용한 시스템을 개발하여 HCI/UX 연구를 진행하고자 하는 연구자 및 연구팀 <Robot 시장의 증가> - 소비자용 로봇 기술과 인공지능을 활용한 기술로 인한 수익이 증가할 것으로 예상됨 - HCI/UX 연구의 중요 부분이 Human Robot Interaction, Human – AI Interaction으로 변화하고 있음 - 많은 HCI 연구자들이 이러한 변화에 발맞춰 새로운 HCI Tool에 대한 고민을 하고 있음 (Marquardt, 2017). Marquardt, N., Houben, S., Beaudouin-Lafon, M., & Wilson, A. (2017). HCITools: strategies and best practices for designing, evaluating and sharing technical HCI toolkits. Target +User <AI 시장의 증가>
  • 75. - 기존에는 Interaction Design에만 집중하였지만, 이제는 그 외에도 다양한 분야에 대한 Design 함께 필요해짐 - 따라서 HCI 연구를 위한 prototype의 개발에 소요되는 시간이 급격히 상승 Target +User <Robotics Design> <Circuit/Board Design> <Program Design> <Product Design> <Interaction Design>
  • 76. Target +User AI/Robot 기술을 활용한 HCI 연구용 프로토타입을 개발하려는 HCI 연구자
  • 77. Value Function TimeResearch Design Prototype Experiment Evaluation Literature Companion Platform Field Study Statistics/Open Coding 1. 기존에 WoZ로 이루어지던 prototype을 자동화된 companion으로 손쉽게 prototype하기 위한 플랫폼을 제공 2. 연구 타임라인에 있어서 prototype의 개발이 HCI 연구 시간에 중심이 되지 않게 하는 것을 목적으로 함 3. 특히 실험실 환경보다는 field study에 초점을 맞추어 실제 사용자 가정 내의 환경에서 사용할 수 있도록 함 4. HCI 연구에서 활용할 수 있는 범용적인 prototype 플랫폼이 되기 위해 공통적인 센서와 엑츄에이터를 탑재 5. 연구 목적에 따라 특정 센서 값에 대한 엑츄에이터 작동 알고리즘을 추가하여 활용할 수 있도록 함
  • 78.
  • 79. COPYRIGHT© 2017 YONSEI HCI Lab. ALL RIGHTS RESERVED. / 502, Business Hall, Yonsei University 50 Yonsei-ro, Seodaemun-gu, Seoul 120-749, Korea 2018.2.1 Presenter Jinwoo Kim, Makers 권수정, 김나은, 박도은, 박중신, 박찬미, 양민영, 유영재, 윤준희, 이다나, 이병관, 이승훈, 이연주, 이해성, 정광민, 정유인, 하미연, 황우호 김귀영, 백형우, 심예린, 유영하, 윤정미, 이정연 What HCI Can Do in the Era of AI and Robots? 1. User => +User (Nurturer + Proctor + Collaborator) 2. Human Compatible AI & Human Aided Interaction - Human Aided Sensing (Growth + Decay Metaphor) - Human Aided Reasoning (Explanation, Response Based Learning) - Human Aided Actuating (Multiple Actuators including Humans) 3. Toolkit => Platform (importing components)