Emotioneel IntelligenteZorgrobots die onzeAutonomie StimulerenMatthijs Pontiermatthijspon@gmail.com
Waar ik het over ga hebben• SELEMCA• Moreel redeneren voor Robots• Emotionele Intelligentie: Silicon Coppelia• Moreel rede...
SELEMCA• ‘Caredroids’ ontwikkelen: Robots of Computer Agentsdie Patienten en Zorgverleners kunnen ondersteunen• Focus op p...
Applicaties: Zorg-agents4Den Haag, 10-06-2013 NWO Bessensap 2013
Toepassingen: Zorgrobots5Den Haag, 10-06-2013 NWO Bessensap 2013
Mogelijke functionaliteiten• Zorgmakelaar:Zoek zorg die past bij behoeften patient• Vriendje: Wordt vriendjes met patient ...
Ethische Zorgrobots• Zorg dat de robot zich ethisch goed gedraagt• Erg belangrijk; Patienten zijn in een kwetsbare positie...
Achtergrond Machine Ethics• Machines worden steeds autonomer Rosalind Picard (1997): ‘‘The greater the freedom ofa machin...
Moral reasoning systemWe hebben een moral reasoning system ontwikkelddie kan balanceren tussen verschillende morele doelen...
Model autonomieDen Haag, 10-06-2013 10NWO Bessensap 2013Kan uitspraken rechtersimuleren over:- Bemoeizorg- Zelfbindingsver...
Limitaties moral reasoning• Alleen moral reasoning resulteert in ‘koude beslissingen’• Wallack, Franklin & Allen (2010): “...
Problem: Not Able to SimulateTrolley Dilemma vs Footbridge Dilemma• Greene et al. (2001): morele dilemmas verschillensyste...
Oplossing: Voeg Emotionele Processing toe• Eerder ontwikkelden we Silicon Coppelia, eencomputermodel van emotionele intell...
Silicon Coppelia14Den Haag, 10-06-2013 NWO Bessensap 2013
Speed-dating ExperimentDen Haag, 10-06-2013 NWO Bessensap 2013
Silicon Coppelia + Moral Reasoning:Beslissingen gebaseerd op:1. Rationele invloeden• Helpt deze actie me mijn doelen te be...
Resultaten Moral Reasoning +Silicon CoppeliaKill 1 to Save 5 Do NothingMoral systemTrolley XFootbridge XMoral CoppeliaTrol...
Teaser Voorlopige Resultaten:• We onderzoeken in hoeverre het model aansluit opdata van criminologen, over invloed ratio e...
Conclusies• Door behulp van theorieen uit (medische) ethiekkunnen we robots bouwen die autonomie mensenstimuleren• Affect ...
Bedankt voor jullie aandacht!20Matthijs Pontiermatthijspon@gmail.comhttp://camera-vu.nl/matthijshttp://www.linkedin.com/in...
Upcoming SlideShare
Loading in...5
×

Emotionally intelligent caredroids that improve our autonomy

641

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
641
On Slideshare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
1
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Transcript of "Emotionally intelligent caredroids that improve our autonomy"

  1. 1. Emotioneel IntelligenteZorgrobots die onzeAutonomie StimulerenMatthijs Pontiermatthijspon@gmail.com
  2. 2. Waar ik het over ga hebben• SELEMCA• Moreel redeneren voor Robots• Emotionele Intelligentie: Silicon Coppelia• Moreel redeneren + Silicon Coppelia = Moral CoppeliaDen Haag, 10-06-2013 NWO Bessensap 2013 2
  3. 3. SELEMCA• ‘Caredroids’ ontwikkelen: Robots of Computer Agentsdie Patienten en Zorgverleners kunnen ondersteunen• Focus op patienten die langdurig in zorginstellingmoeten verblijven3Den Haag, 10-06-2013 NWO Bessensap 2013
  4. 4. Applicaties: Zorg-agents4Den Haag, 10-06-2013 NWO Bessensap 2013
  5. 5. Toepassingen: Zorgrobots5Den Haag, 10-06-2013 NWO Bessensap 2013
  6. 6. Mogelijke functionaliteiten• Zorgmakelaar:Zoek zorg die past bij behoeften patient• Vriendje: Wordt vriendjes met patient omeenzaamheid te voorkomen en activeer de patient• Coach: Assisteer de patient in het maken vangezonde keuzes: Bewegen, Gezond eten, Medicijnennemen, etc.6Den Haag, 10-06-2013 NWO Bessensap 2013
  7. 7. Ethische Zorgrobots• Zorg dat de robot zich ethisch goed gedraagt• Erg belangrijk; Patienten zijn in een kwetsbare positieWij richten ons op medische ethiek.• Daar zijn conflicten tussen:1. Autonomie2. Weldoen3. Niet schaden4. Gerechtigheid7Den Haag, 10-06-2013 NWO Bessensap 2013
  8. 8. Achtergrond Machine Ethics• Machines worden steeds autonomer Rosalind Picard (1997): ‘‘The greater the freedom ofa machine, the more it will need moral standards.’’• Machines interacteren steeds meer met mensenWe moeten zorgen dat machines ons geen kwaaddoen, of onze autonomie bedreigen• Machine ethics is belangrijk om mensen machines telaten vertrouwen8Den Haag, 10-06-2013 NWO Bessensap 2013
  9. 9. Moral reasoning systemWe hebben een moral reasoning system ontwikkelddie kan balanceren tussen verschillende morele doelen9Den Haag, 10-06-2013 NWO Bessensap 2013Kan beslissingenmedisch-ethischeexperts simuleren
  10. 10. Model autonomieDen Haag, 10-06-2013 10NWO Bessensap 2013Kan uitspraken rechtersimuleren over:- Bemoeizorg- Zelfbindingsverklaring
  11. 11. Limitaties moral reasoning• Alleen moral reasoning resulteert in ‘koude beslissingen’• Wallack, Franklin & Allen (2010): “even agents who adhere to adeontological ethic or are utilitarians may require emotionalintelligence as well as other ‘‘supra-rational’’ faculties, such as asense of self and a theory of mind”• Tronto (1993): “Care is only thought of as good care when it ispersonalized”11Den Haag, 10-06-2013 NWO Bessensap 2013
  12. 12. Problem: Not Able to SimulateTrolley Dilemma vs Footbridge Dilemma• Greene et al. (2001): morele dilemmas verschillensystematisch in de mate waarin emotioneleprocessing plaatsvindt en dat deze variaties inmate van emotionele processing de morelebeslissing beinvloeden.• Hun studie was geinspireerd door het verschil tussentwee varianten van een moreel dilemma:Trolley dilemma (moreelonpersoonlijk)Footbridge dilemma (moreel persoonlijk)12Den Haag, 10-06-2013 NWO Bessensap 2013
  13. 13. Oplossing: Voeg Emotionele Processing toe• Eerder ontwikkelden we Silicon Coppelia, eencomputermodel van emotionele intelligentie.• Dit kan in anderen geprojecteerd worden voor eenTheory of Mind• Het leert van ervaringen PersonalisatieVoeg Moral Reasoning toe aan Silicon Coppelia• Moral reasoning menselijker• Personaliseer morele beslissingen encommunicatie daarover13Den Haag, 10-06-2013 NWO Bessensap 2013
  14. 14. Silicon Coppelia14Den Haag, 10-06-2013 NWO Bessensap 2013
  15. 15. Speed-dating ExperimentDen Haag, 10-06-2013 NWO Bessensap 2013
  16. 16. Silicon Coppelia + Moral Reasoning:Beslissingen gebaseerd op:1. Rationele invloeden• Helpt deze actie me mijn doelen te bereiken?2. Affectieve invloeden• Reflecteert deze actie de betrokkenheid die ik voeltegenover de gebruiker?• Reflecteert deze actie de distantie die ik voel tegenover degebruiker?3. Moral reasoning• Is deze actie ethisch goed?Den Haag, 10-06-2013 16NWO Bessensap 2013
  17. 17. Resultaten Moral Reasoning +Silicon CoppeliaKill 1 to Save 5 Do NothingMoral systemTrolley XFootbridge XMoral CoppeliaTrolley XFootbridge X17Den Haag, 10-06-2013 NWO Bessensap 2013
  18. 18. Teaser Voorlopige Resultaten:• We onderzoeken in hoeverre het model aansluit opdata van criminologen, over invloed ratio en affect opcriminele keuzes• Het model blijkt gebruikt te kunnen worden omcriminele keuzes van mensen te simuleren en tevoorspellenDen Haag, 10-06-2013 18NWO Bessensap 2013
  19. 19. Conclusies• Door behulp van theorieen uit (medische) ethiekkunnen we robots bouwen die autonomie mensenstimuleren• Affect toevoegen aan rationeel moreel redeneren isbelangrijk wanneer robots communiceren metmensen over beslissingen• De combinatie van ratio en affect is nuttig voortoepassingen waarin menselijk beslisgedrag wordtgesimuleerd (bijvoorbeeld bij het verlenen van zorg,of in entertainment)19Den Haag, 10-06-2013 NWO Bessensap 2013
  20. 20. Bedankt voor jullie aandacht!20Matthijs Pontiermatthijspon@gmail.comhttp://camera-vu.nl/matthijshttp://www.linkedin.com/in/matthijspontierhttp://crispplatform.nl/projects/selemcaDen Haag, 10-06-2013 NWO Bessensap 2013

×