17. • 컴패니언 테크놀로지란 (이하 컴테크)
– 차세대 스마트 디바이스 환경에서 제공되는 기술 가운데 동반자적 경험을 제공하는 기술
– 컴패니언 테크놀로지는 애착을 가지고 지속적이고 확장적인 상호작용을 하게 함 (Benyon & Mival, 2010)
“난 베이맥스.
너의 헬스케어 컴패니언이야”
영화빅히어로 中
컴패니언 테크놀로지 (Companion Technology)
27. HAL
DC
Motor
Step
Motor
Display Sound LED VibratorActuator
Components
Device Network
Application
Framework
Layer
Activity Logger Monitor
GPIO I2C SPI USART PWM
Sensor & Actuator
Interface Layer
Humidity
Sensor
Temp.
Sensor
Illumination
Sensor
Accel.
Pressure
Sensor
Touch
Sensor
Sound
Sensor
Sensor
Components Vision
Sensor
Motion
Sensor
Bio
Sensor
WiFi
Bluetooth
BLE
ZigBee
Network
Layer
MQTT CoAP
Libraries & APIsSDK & API
합성 센서(Synthetic Sensor) 기술
[Physical Sensor Device +
Physical Actuator Device]
28. Device
Layer
Sensor
Robots
Sensor
Sound / Audio
Sensor
GPS
Sensor
Logs
Sensor
Video / Image
Sensor
Human
Bottom-Up
Reasoning
Component
Deep Neural Network
(CNN, Fully Connected)
Support Vector
Machine
Gaussian
Mixture Model
Random Forest
Transport
Component
(XMPP/MQTT)
Node
High Level Event 1
Node
High Level Event 2
Node
High Level Event N
…
Publish
Top-Down
Reasoning
Component
Interaction
Layer
Answer Set Programming
Real-Time Complex Event Processing
Cognitive Architecture (BDI)
Real-Time Intention Recognition
Subscribe
Actuator
Robots
Actuator
Auditory
Actuator
Tactile
Actuator
Smartphone
Actuator
Visual
[Top-Down Reasoning +
Bottom-up Reasoning +
Human-aid Reasoning Module]
하이브리드 지능 (Hybrid Reasoning) 기술
29. Ground Truth
Consisting of Feature-
Label Pair
(e.g. Sensor readings-
Activity)
ML + Information Theoretic Framework
1) 최적/최소 센서 세트 조직화를 위한 Machine Learning + Information theoretic Framework 조합 기술을 제안.
센서/행동 모듈의 병렬적 조직화에 적합
2) Markov Decision Making Framework (e.g. Reinforcement Learning) 기반,
Optimal Policy (actions) 시퀀스를 통한 최적 행동 조직화 기술. 센서 구동 순서, 행동 표현 순서 조직화에 적합
Low-Cost, Optimal
Device Set
(e.g. Sensors, Actuators)
Ground Truth Analysis
using ML Technique
with BootStrapping
(e.g. Random Forest)
Contribution Level on
Activity Inference
Redundancy
Analysis on
each device
using
Information
Theory
Optimisation
under
Constraints
(e.g. Budget)
Gini Impurity
on each device
Candidate
Set of Device
User Preference
on Presentation
Modeled by
Interaction Studies
(e.g. Actuator,
Interaction Method etc)
MDP (RL) Framework
Optimal Sequence
(e.g. Sensor reading ,
Actuator Presentation)
Action-Value Approximation (e.g. Dueling-DDQN)
Policy Approximation (e.g. Deep-DPG)
Multiple Actuating 기술 [Multi-Sensor Coordination + Multi-Actuator Coordination]
30. < 하이브리드 지능 모듈이 적용된 개별 로봇 지능 구조도 >
Robot Reasoning Layer
Human-aid Layer
Human-aid Sensor
Beliefs
Situation &
Events
Plans
(Situation-Aware)
Practical Reasoning
Human-aid Actuator
Multi-Robot Environments
Coordination
(Sensor Reading ↔ Events ↔ Human Behaviour)
Percepts
Top-Down Reasoning layer
Event
Processor
Situation(s)
and
Its Associated Events
Situation
Identifier
Event
Processor
Bottom-Up Reasoning Layer
Sound
Recog
Image
Recog
Behaviour
Recog.
Intention
Recog.
Data
Recog.
Machine Learning Based Data Analyser
(e.g. SVM, GMM, DNN)
Robot-Robot Interaction Data
하이브리드 지능 모듈이 적용되면
Bottom-Up Reasoning Layer와
Top-Down Reasoning Layer가 추가되
어,
1) 다중 센서 및 다중 로봇의 인식 결과
를 개별 로봇이 모두 사용 가능하고,
2) 상황·의도와 같은 지식이 추가될 뿐
만 아니라,
3) 인간-로봇 상호작용으로부터 입력받
은 결과를 통해 지식·모델의 재구성이
가 능해져,
개별 로봇의 지능이 향상될 수 있음.
Human Aided Interaction[Human-aid Sensor + Human-aided Reasoning + Human-aid Actuator]
34. 3가지 모듈 및 구성요소
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
Physical
Actuator
Human
Aided
Actuator
Multi-actuator
coordination
Top down
Reasoning
Bottom Up
Reasoning
Human Aided
Reasoning
Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module
PERCEPTION ACTREASON
Companion Bot
35. 3가지 모듈 및 구성요소
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
Physical
Actuator
Human
Aided
Actuator
Multi-actuator
coordination
Top down
Reasoning
Bottom Up
Reasoning
Human Aided
Reasoning
Synthetic Sensor Module Multiple Actuating ModuleHybrid Reasoning Module
PERCEPTION ACTREASON
Companion Bot
36. Synthetic Sensor Module
현재 분석에 사용되는 센서
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
(A)Illuminancesensor,(B)LCD,(C)Ultrasonicsensor,(D)Speaker,(E)Microphone,
(F)Soundsensor,(G)Temperatureandhumiditysensor,(H)RaspberryPi3
37. Synthetic Sensor Module
Manual Learning
• 8가지 가정 내 활동에 대한 음향데이터
를 수집하기위해 스마트폰녹음기를사
용하여활동별1000개 이상의 데이터수
집
• 현관문(1000개),냉장고(1128개),세탁기
(151분 18초), 청소기(31분35초), 전자렌
지(30분),가스렌지(28분),창문(31분37
초), 키보드(29분48초)
• 위 데이터를기반으로SVM(Support
Vector Machine)을적용한생활소음인식
기 개발
음향종류
학습군 시험군
정답률 정답률
현관문 95.54% 88.67%
가스렌지 99.95% 96.03%
키보드 99.14% 94.77%
전자레인지 98.67% 95.38%
냉장고문 99.37% 92.62%
진공청소기 100.00% 100.00%
세탁기 99.91% 96.81%
창문 99.78% 97.19%
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
38. Synthetic Sensor Module
Online Learning
• 실제 1인 가정에 로봇을배치하여각 가정에서발생하는생활소음및
각종 센서 데이터를수집
• 가정 내 특정 활동에서발생하는음향정보와 다른센서값들의변화 패
턴을 조합한데이터를학습데이터로활용하여,음향인식의정확도증
가
사운드 센서온습도 센서 조도 센서초음파 센서 가속도 센서마이크
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
39. Synthetic Sensor Module
HumanAided Sensors
• Human Aid에 필요한 과정
1) 사용자가 인식결과를 확인하는 과정
2) 결과가 맞고 틀림을 입력하는 과정
• 유의점
1) 입력 절차가 쉽고 간단해야 함
2) 입력을 요구하는 맥락이 자연스러워야 함
3) 입력으로 인한 이익이 있어야 함
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
40. Synthetic Sensor Module
HumanAided Sensors
• 성장 메타포 사용
- 음향인식 로봇 또한 사용 초기에는 사용자에 대해서도 잘 모르고,
새로운 환경이 낯선 부족한 친구라는 인식을 갖도록 함
- 더 나아가 로봇을 가르치는 과정 자체가 하나의 인터랙션 요소이며,
로봇이 똑똑해지고 나와 가까워졌다는 것을 시각적, 청각적으로 피
드백 주는 것은 하나의 재미 요소가 될 수 있음 (표정, 아이콘, 효과
음 등)
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
41. Synthetic Sensor Module
HumanAided Sensors
• 인식 결과 확인 및 입력
- 음성 : 로봇의 주 인터랙션 방법이 Speech이기 때문에 음성으로 질문
에 대답하는 방식의 인터랙션이 자연스러움
• 로봇이 인식한 음향을 레이블링 하기
위해 적정 빈도로 랜덤하게 질문
냉장고 열었어?
응 아니
’냉장고’ 기록 ‘냉장고 아님’ 기록
Synthetic Sensor Module
PERCEPTION
Physical
Sensors
Synthesizer
- Manual Learning
- Online Learning
Human Aided
Sensors
- confidence level
Contribution
Amount
- Human Input
Processing
43. Human A.I.
Mobile Application
interaction
Food Image Recognition
mobile application
외식이 잦은 현대인의 식생활
+
언제나 들고 다니는 스마트폰
+
높은 성능의 카메라와 모바일 AI
AI를 탑재한 모바일 어플리케이션은 어떤 interaction을 제공해야 하는가?
Human-Mobile AI Interaction with Food Recognition
44. Human-Mobile AI Interaction with Food Recognition
Smartphone
Camera
Human-aid
Food Image
Recognition
Algorithm Empathy
Sensing Module Reasoning Module
어떤 human-mobile AI interaction을
통해 사용자로부터 더 많은
human-aid를
이끌어내어 부족한 정확도를
보충할 수 있는가?
Explainable AI
Actuating Module
45.
46. Human-Mobile AI Interaction with Food Recognition
Explanation
based on
Egoistic
Motivation
Empathy
based on
Altruistic
Motivation
Trust
Willingness
to give Help
( + ) *** ( + ) ***
( + ) ***
Explanation을 통한 Understandability 상승은 AI에 대한 Trust를 상승시키고
이는 사용자로부터 Human-aid를 주고자 하는 의사를 불러일으킨다.
이타심으로부터 비롯되는 ‘공감(Empathy)’은 사용자가
Human-aid를 주고자 하는 마음에 직접적인 영향을 준다.
48. 혼자 사는 고령자 : 배우자 사별 등 현실적인 이유로 혼자 살고 있으며 다른 가족과는 멀리 떨어져 왕래가 잦지 않은 65세 이상
- ‘2017 고령자 통계’에 따르면 지난해 65세 이상 노인 1인 가구
는 2015년보다 7만1000 가구 늘어난 129만4000 가구로 집계되
었으며, 이는 전체 노인 가구 33.5%에 해당됨.
- 홀로 살아가는 노인들의 경우 심한 고독감으로 인해 우울증과
같은 정신질환을 겪으며 결국 자살이라는 극단적인 선택을 하거
나, 인지∙신체 기능의 저하로 위급한 상황에 대처하지 못하여 안
타까운 사고를 당하기도함.
- 고령인구가 더 증가할 것으로 예측되는 만큼, 사회적으로 고령
자들의 삶의 질 문제에 대한 다양한 대책 마련이 시급한 상황임.
Target +User
49. Needs of Target +User
- 데이터뉴스에 따르면, 50세 이상 성인 500명을 대상으로 조사한 결과 독거
노인이 됐을 때 가장 염려되는 어려움으로 안전에 대한 불안감(37%)과 외로
움(25%)을 꼽았음.
- 필드에서 직접 60대, 70대, 80대 여성 고령자들을 대상으로 심층 인터뷰한
결과 공통적으로 나타났던 우려 요인이었으며, (1/19 1차 그룹 인터뷰; 60대
2명, 70대 2명, 1/24 2차 그룹 인터뷰; 80대 4명) 이를 통해 혼자 사는 고령자
들의 가장 큰 니즈는 외롭지 않은 삶, 안전이 보장되는 삶이라는 것을 알 수
있었음.
외로움 >> 쓸쓸하거나 외롭지 않고 활력있는 삶에 대한 니즈
불안감 >> 안전이 보장되어 걱정없이 안심할 수 있는 삶에 대한 니
즈
• “혼자 있으면 방에 들어가서 할일이 없으니까. 혼자 하루종일 테레비만 보
구. 불끄고 잠자고. 말할 사람이 전혀 없으니까 말할 기회가 없잖아.” (70대
이xx)
• “다른 분들은 부군이 계시지만, 우리는 혼자거든, 좋을때도 있지만 어쩔
때는 굉장히 고독감을 느끼고, 외롭지. 독거노인들이 많잖아. 동무같은
게 있으면 외로움을 덜타지.” (80대 김xx)
• “사람들이 살다가 죽어도, 몇달 지내서 시체로 발견하잖아. 위험한 상황이 우
리는 항상 불안하거든, 그게 제일 겁나는거야. 이건 내 혼자만의 문제가 아니
고 사회적 문제지.” (80대 김xx)
• “물 올려놓고 깜빡하는거야, 쇼파에 앉아있다가도 잊어버리는거야, 돌아서면
잊어버리고. 냄새맡고 알아차리는거야, 탄내가 나니까. 냄비가 까맣게 타버려
서 버렸어. 이게 노인들의 현상이야, 고구마 찌면 시간되면 알려주고, 그런게
그게 우리한테 제일 필요한거지.” (80대 이xx)
• “누군가 있으면 좋을 것 같아, 너무 심심하잖아. 친구같은 게 있으면 좋지.”
(70대 조xx)
50. Value Function
- 서울시 통계에 따르면 고령자들의 여가활동에서 TV는 60%를 차
지하므로, 고령자의 주활동을 함께함으로써 컴패니언쉽을 형성할
수 있음.
- TV 프로그램 컨텐츠 데이터를 통해 맥락에 맞는 다양한 리액션을
움직임, 진동, 말소리로 제공 (예: 고령자,”저 나쁜놈 저거저거” > 로
봇, “맞아요. 저 나쁜놈!”)
As a Buddy : Watch TV Together As a Guard : Secure house safety
- 센서를 통해 감지된 환경 정보를 활용하여 집안의 안전상태를 파
악하고, 위험한 상황이 감지되면 컴패니언은 고령자에게 알림을 주
며, 알림에 대한 반응이 없을시 이를 다른 가족에게 전달함.
- 파악된 안전상황을 TV모니터의 일부 스크린을 통해 시각적으로
도 전달하여 고령자가 상시 집안의 상태를 확인하고 안심할 수 있
도록 함.
51. Value Function
System Structure
1
Technical Element
2
3
4
5
6
1
2
3
4
5
6
TV 프로그램 정보 (사운드&자막) 기반의 감
성 추출 및 디지털 컴패니언의 감성 인터랙션
기술
실 환경에서 고령자의 활동 및 실내외 환경
정보 기반 안전/안심 인터랙션 기술
고령자와의 음성 및 햅틱 기반 인터랙션 및 감성 추
출 기술
고령자의 삶의 질 향상을 위한 라이프
로그 처리 및 기기 간 연결 기술
고령자의 감성 및 수용성을 확보한 디지털 컴패니언 디자인
서브유저를 고려한 다양한 형태의 Shared Agent 기술
52.
53. Reasoning Part
컨텐츠 특성 기반 반응
컨텐츠 관련 제공 정보 종류
TV content
Reaction rule
Behavior
Interaction rule
Sensing 데이터 결합을 통한 context 추론 및 rule matching
Environmental
Alert rule
상황별 위험도
위험도에 따른 반응
Multi-modal 정보제공 방식
User & sub-user 인터랙션 방식
사용자 행동에 따른 반응
TV context
Environmental
context
Behavior
context
Verbal context
Tempera
ture
Closed
caption
TV sound
humidity
54. Human Aided Reasoning (1)
TV context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change
TV content
Reaction
Reasoning
rule
TV context
Emotional
empathy
Behavior
expression
Human Aided
(emotional, behavior)
Closed caption
TV sound feature
External API
TV program information
기쁨, 슬픔, 놀람, 무서움, 지루함, etc
물리적 움직임
음성, 동작 등 표현
55. Human Aided Reasoning (2)
Environmental context 기반의 actuating과 human-aided reaction의 결합을 통한 reasoning rule change
Environment
al Alert
Reasoning
rule
Environment
al context
Attentive
reaction
Graphical
alert
Human Aided
(emotional, behavior)
Humidity, temperature, brightness, etc
소리, 움직임 등
물리적 움직임
반응 시간, 강도, 처리여부 등
57. 맞벌이 가정: 유배우가구 중 동거여부와 상관없이 가구주와 배우자가 모두 취업자인 가구 (통계청)
43.6 43.5 42.9 43.9 43.9 44.9
0
10
20
30
40
50
2011 2012 2013 2014 2015 2016
(년도)
(%)
<맞벌이 가정 비율> <자녀 연령별 맞벌이 비율>
(통계청, 2017)
- 전체 맞벌이 가구는 533만1천가구로 전년(2015년)보다 12만5천명(2.4%) 증가
- 맞벌이 가구 비율은 44.9%로 2011년 조사 이후 최대치를 기록
- 우리나라 20대 여성들은 취업에 대해 94.2%의 여성들이 직업을 가져야 한다는 입장을 보였고, 맞벌이 가구는 점차 늘어날 것으로 보임 (정보미,
(통계청, 2017)
남편은 일주일 근로 시간이 평균 40시간 이상,아내는 25시간 이상으로 근무하는 부부 (정보미, 2016)
Target +User
58. (맞벌이 부부, 7~17세의 자녀)
맞벌이 가정의 문제점
[부모 측면]
아이에 대한 불안감, 죄책감
이중역할에 대한 심리적 부담
[자녀 측면]
불안감, 외로움, 소외감
과잉행동장애, 학교폭력
- 부모와 자녀가 떨어져 있는 시간 동안
일상적인 상호작용 부족으로 발생
빈집에 들어 올 때 자녀가 느끼는 외로움 감소에
부모가 도움이 될 수 있게 도와 준다면,
자녀의 외로움과 부모의 불안감이 동시에 감소
아이에게 핸드폰을 쥐어주거나 방과후 학원 뺑뺑이를 시킴 스마트폰 중독 등 새로운 문제가 발생하게 됨
Target +User
59. Time
Situational Loneliness
(혼자 집에 있을 때)
Out-Home In-Home
Transient Loneliness
(혼자 집에 들어올 때)
Out-Home In-Home Out-Home In-Home
Enter-Home Enter-Home
Short-term Loneliness
Long-term Loneliness
Enter-Home
학원 가기 전에 집에 얘기할 사람이 있었으면..
Value Function
60. Physical
Sensor
Behavior
Feature
Prediction Model
(with ML)
Interaction Expression
feature
Loneliness
Level
상황정보
(Attentive + Ambient)
Reasoning
Rule
Greeting Rule
Connectedness
Rule
Loneliness Level
Measure
Human Aided
(Greeting)
Human Aided
(Connectedness)
Human Aided
(Top-down)
Rule
Confirm
Human Aided
(Bottom-Up)
Rule
Generation
<3 Modules and Elements of Intelligent Service Robot>
Research Frame
65. • 홀로 운전: 동승자 없이 다양한 상황에 놓여 arousal 상태가 급변하는 운전자
• High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음
✓ Dynamic: 옆 차량의 급격한 끼어들기, 앞 차량의 급브레이크, 뒤 차량의 경적 소리
✓ Static: 차가 매우 막히는 상황
• Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌
✓ 매우 단순한 도로 환경
✓ 일정한 속도, 커브 없음
Target +User
66. • High Arousal (Stress): 주변 환경의 영향으로 인해 스트레스를 받음
✓ National Highway Traffic Safety Administration (NHTSA)에서 집계한 데이터 Fatality Analysis Reporting System (FARS)
에 따르면, 운전자의 분노 (road rage)로 인한 연간 사망 사고가 247건 발생 (2004년의 열 배)
✓ SBS에서 방송하는 TV 프로그램 [맨 인 블랙박스]에서는 운전자 분노로 인한 사건 영상이 꾸준히 나옴
Target +User
https://www.nhtsa.gov/research-data/fatality-analysis-reporting-system-fars
67.
68. • Low Arousal (Drowsiness, Boredom, Fatigue): 주변 환경의 영향으로 인해 졸음, 지루함, 피로를 느낌
✓ 미국, 2009년 ~ 2013년, 72,000 건의 졸음 운전 사고 발생하였다. 41,000명의 부상자, 800명 이상의 사망자가 발생
(NHTSA, 2016)
✓ AAA의 자료에 따르면, 2009년부터 2013년까지 발생한 졸음 운전 사고의 21%는 목숨을 앗아간 치명적 사고 (Tefft, 2014)
✓ 2013년부터 2015년의 경찰청 통계자료에 따르면, 매해 졸음 운전으로 인한 교통사고는 약 2,500건에 이르고, 사망자는
120여 명, 부상은 5,000여 명, 치사율은 4.7%로 나타났다. (경찰청 통계자료)
Target +User
Higgins, J. S., Michael, J., Austin, R., Å kerstedt, T., Van Dongen, H. P., Watson, N., ... & Rosekind, M. R. (2017). Asleep at the Wheel—The Road to
Addressing Drowsy Driving. Sleep, 40(2), zsx001.
Korean National Police Agency. Retrieved from http://www.police.go.kr/portal/main/contents.do?menuNo=200193.
74. HCI/UX Researcher: AI/Robot 기술을 활용한 시스템을 개발하여 HCI/UX 연구를 진행하고자 하는 연구자 및 연구팀
<Robot 시장의 증가>
- 소비자용 로봇 기술과 인공지능을 활용한 기술로 인한 수익이 증가할 것으로 예상됨
- HCI/UX 연구의 중요 부분이 Human Robot Interaction, Human – AI Interaction으로 변화하고 있음
- 많은 HCI 연구자들이 이러한 변화에 발맞춰 새로운 HCI Tool에 대한 고민을 하고 있음 (Marquardt, 2017).
Marquardt, N., Houben, S., Beaudouin-Lafon, M., & Wilson, A. (2017). HCITools: strategies and best practices for designing, evaluating and sharing technical HCI toolkits.
Target +User
<AI 시장의 증가>
75. - 기존에는 Interaction Design에만 집중하였지만, 이제는 그 외에도 다양한 분야에 대한 Design 함께 필요해짐
- 따라서 HCI 연구를 위한 prototype의 개발에 소요되는 시간이 급격히 상승
Target +User
<Robotics Design> <Circuit/Board Design>
<Program Design>
<Product Design>
<Interaction Design>
77. Value Function
TimeResearch Design Prototype Experiment Evaluation
Literature Companion Platform Field Study Statistics/Open Coding
1. 기존에 WoZ로 이루어지던 prototype을 자동화된 companion으로 손쉽게 prototype하기 위한 플랫폼을 제공
2. 연구 타임라인에 있어서 prototype의 개발이 HCI 연구 시간에 중심이 되지 않게 하는 것을 목적으로 함
3. 특히 실험실 환경보다는 field study에 초점을 맞추어 실제 사용자 가정 내의 환경에서 사용할 수 있도록 함
4. HCI 연구에서 활용할 수 있는 범용적인 prototype 플랫폼이 되기 위해 공통적인 센서와 엑츄에이터를 탑재
5. 연구 목적에 따라 특정 센서 값에 대한 엑츄에이터 작동 알고리즘을 추가하여 활용할 수 있도록 함