Star Trek Italian Club - STICCon 2008
2008-05-23 - Conferenza scientifico-divulgativa tenuta con Ing. Mario Arrigoni Neri, Politecnico di Milano, Dipartimento di Elettronica e Informazione, Sezione Intelligenza Artificiale.
http://www.novasemantics.it/attach/Pubblicazioni/STICCON08.pdf
Intelligenza artificiale tra fantascienza e realtà
La Misura di un... Robot
1. La misura di un... Robot
A
Ing. Mario Arrigoni Neri Ph.D.
AIRLab – Politecnico di Milano
NOVA Semantics
Ing. Marco Bresciani
Alcatel-Lucent Italia SpA
Wireless Transmission Product Group R&D
B
3. Star Trek e i Robot
●
●
●
Intelligenze artificiali,
androidi, naniti, borg...
di tutto un po'!
Data (Welcome to Italy,
Brent!) è l'esemplare
più avanzato;
EMH (Welcome back,
Robert!), il dottore
olografico, si evolve...
VOY: The Bride of Chaotica
5. Etica
Metaetica analitica [Moore]
L'etica non costituisce alcuna forma di conoscenza, ma ha
solo a che fare con emozioni, raccomandazioni e prescrizioni.
Terminologia convenzionale
Terminologia classica
●
●
Morale : comportamenti emergenti
ed informali
Etica : studio sistematico
della morale
●
●
●
Morale : insieme di valori generali
e condivisi che governano la convivenza
civile
Etica (come disciplina) : disciplina
“scientifica” (etica pratica) che
recepisce e studia i fenomeni della
morale
Etica (come prodotto) : insieme
di regole di comportamento
6. Robo-Etica
Tema triplice:
E' etico, rispetto all'uomo
costruire ed usare
macchine
Dipendenza
Dignità umana
Sicurezza
Diritti sociali
●
●
Diritti : uomo
Resp : uomo
Quali problemi etici
si pongono rispetto
alle macchine?
Diritti dei robot?
Autodeterminazione
●
●
Diritti : robot
Resp : uomo
Possiamo costruire
dei robot dotati di una
propria etica?
Etica sintetica
responsabilità
●
●
Diritti : Resp : robot
7. La Nascita della Roboetica
2005 Unico obiettivo a lungo termine del
comitato delle Hawaii
10. Questioni etiche
Si pongono dei problemi nell'integrazione tra robot ed esseri umani:
●
Sicurezza
●
Sostituzione dell'uomo con le macchine
●
Accettazione sociale
●
Addiction
●
Applicazioni sensibili:
● Militare
● Sessuale
10
● Economia
● Biorobotica
8
18. Interfacce uomo-macchina
Macro controllo del comportamento
[Delgado 1965]
Controllo fine del comportamento [2002]
3
Programma di neuro-chirurgia
per il controllo politico della
società [Delgado 1974]
una nuova era di lobotomie
terapeutiche?
20. Il Golem dell'IA ?
9
Siamo già in grado di riprodurre:
●
Menti molto semplici (seppie,
molluschi, Homer)
●
Piccoli porzioni delle menti
di mammiferi
(cervelletto, sistema
vegetativo)
21. La Misura di un... Uomo?
2
●
●
●
●
I Robot hanno diritti?
Data ha affrontato
un processo
Federale;
EMH ha avuto il
diritto di autospegnersi;
Altri esempi?
TNG: The Measure of a Man
23. IA e vita?
Oggi, un sistema di Intelligenza Artificiale è in grado di:
●
●
●
●
●
●
●
Imitare il comportamento di altre macchine
Mostrare curiosità (exploration vs. exploitation)
Riconosce se stesso ed agenti simili (specie)
Apprendere dai propri errori
Ricercare i propri obiettivi (proattività)
Riprodursi, anche evolvendo
Guarire (ripararsi)
[Kemeny 1972]
14
Sei caratteristiche della vita:
● Metabolismo
● Locomozione
● Riproducibilità
● Individualità
● Intelligenza
● Composizione “naturale”
Test superato anche secondo Weizenbaum
(il creatore di ELIZA)
24. Diritti alle IA?
Una entità non ha diritti fino a quando qualche
autorità pubblica non è disposta a perseguire le
azioni inconsistenti con tali diritti.
Per avere dei diritti occorre che un
individuo [Stone]:
●
●
possa esercitare azioni legali
l'autorità debba tener conto dei danni
subiti dall'individuo nell'eventuale
irrogazione della pena
ES: padrone che chiede risarcimenti per
i danni subiti da uno schiavo
La definizione di diritto può cambiare in
ottica civile ed in ottica penale
Diritto d'autore e macchine
autoprogrammanti
25. Chi si sta muovendo
In Svezia i datori di lavoro pagano le stesse tasse per i robot e per gli impiegati
In Giappone alcune compagnie pagano tasse per i robot
In Giappone nel 2005 è stato modificato il codice della strada per ammettere
la circolazione di robot
26. Le tre leggi di Asimov (1942)
Prima Legge
Un robot non può recare danno a un essere umano, né
può permettere che, a causa del suo mancato
intervento, un essere umano riceva danno.
Seconda Legge
Un robot deve obbedire agli ordini impartiti dagli esseri
umani, a meno che questi ordini non contrastino con la
Prima Legge.
Isaac Asimov (1920-1992)
Terza Legge
Un robot deve salvaguardare la propria esistenza, a
meno che questa autodifesa non contrasti con la Prima
o la Seconda Legge.
Legge Zero
Un robot non può danneggiare l'Umanità, né può permettere che, a causa del suo
mancato intervento, l'Umanità riceva danno;
27. Limiti dell'approccio “a leggi”
Le leggi di comportamento “cablate” in un robot autonomo lo (ri)trasformano in
uno schiavo
Il genuino comportamento etico deve derivare da una riflessione sui principi
morali.
Abbandono dell'approccio “black box” tipico dell'IA moderna
valori
etica
etica
comportamento
comportamento
28. Teorie etiche
Discussioni secolari sulle leggi che regolano il comportamento umano hanno portato
alla domanda fondamentale:
“Vista la situazione attuale, che azione dovrei compiere?”
Richiede un modello formale che permetta di ottenere automaticamente una condotta
partendo dai valori:
● Teoria dell'azione
● Logica deontica
Teorie dell'etica:
●
●
Teorie conseguenziali (o conseguenzialiste)
Teorie deontologiche
29. Teorie conseguenzialiste
...
Le azioni vengono giudicate a seconda delle conseguenze a cui portano.
Un agente etico sceglierà l'azione che porta nel miglior stato possibile
richiede di:
●
Descrivere lo stato attuale del mondo
●
Generare le possibili azioni
●
Predire gli stati del mondo a cui conducono le azioni
●
Una misura di desiderabilità degli stati raggiunti
Quanto sono in grado di prevedere?
● Indeterminismo del mondo
● Comportamenti colposamente non etici?
30. Utilitarismo - 1
...
Misura più comune di desiderabilità degli stati:
n=∑U K i∗pi
Pi ?
Sono i valori di base sui quali voglio costruire l'etica:
● edonista → piacere
● salute
● Benessere
● Porter → Sopravvivenza, sicurezza, sociali,
realizzazione, autorealizzazione
32. Utilitarismo - 3
n=∑U K i∗pi
Empiricamente si osservano modelli non puntuali (etica egualitaria):
∑U K i∗g p i
0
Ki= f Pi
f(.)
g(.)
U?
Donne? Razza? Religione? Feti? Animali? ... robot ?
33. Etiche deontologiche
●
●
Le azioni sono classificare in classi o categorie
Alcune azioni sono obbligatorie o vietate a prescindere dagli effetti
Gert [1988]
● Non uccidere
● Non causare dolore
● Non danneggiare
● Non privare della libertà
● Non privare del piacere
● Non ingannare
● Mantieni le promesse
● Non imbrogliare
● Obbedisci alle leggi
● Fai il tuo dovere
Ma sono veramente deontologiche?
Confine “sfumato”
Conflitti tra regole
●
●
●
●
Priorità fissa [Ross]
Eccezioni
Giudice razionale [Gert]
Imperativo categorico [Kant]
35. L'agente etico perfetto
11
Tesi provocatoria:
“Proprio perché un robot non deve scendere a patti con dei comportamenti intelligenti
innati può comportarsi rigorosamente secondo un'etica”
“I robot sono più etici degli uomini”
36. Responsabilità
Azioni etiche ma non legali:
● Agevolare un ferito all'ospedale
● Disobbedienza civile
Azioni legali ma non etiche:
● Tradire la fiducia (al di fuori di contratti)
● ... storia ...
Robot come prodotti:
●
●
●
●
Blanda impredicibilità
Codice legacy
APPRENDIMENTO
MAS
37. Norme e punizioni
Ogni impianto normativo serve a far coincidere l'utile
personale con l'utile collettivo
Il problema della punizione
Agenti robotici:
● Non temono i danni
● Non temono la distruzione
Agenti software:
● “no body to kick”
● “no Soul to Damn”
Diritto societario? Persone giuridiche?
n=∑U K i∗pi
p i= pi '−∑V E j∗P j
E = probabilità di irrogazione
P = danno soggettivo della pena
V = violazioni commesse
ASSUNZIONI:
● Sistema penale lineare (additivo)
● Pena contestuale
38. Star Trek: Robot e Emozioni
Star Trek – First Contact
TNG: Descent
Star Trek – First Contact
TNG: The Offspring
39. Macchine e sentimenti
13
●
●
Esperienza biologica: i
sentimenti scatenano
l'azione (Vulcan hanno
le emozioni, ma le
governano);
Macchina. Devo
imporre un “istinto”;
●
Data;
●
...
40. Emotion Computing
●
Humor
–
–
Studio dell'incongruenza; sorpresa
–
Ambiguità e doppi sensi.
–
●
Ironia figura estetica: il significato
contrario alla forma;
Intenzionalità;
Produzione:
–
–
●
JAPE;
HAHAcronym [Stock et al., 2003].
Riconoscimento:
–
caratterizzazione del testo
(classificazione) [Mihalcea, 2005].
41. Chi siamo? Dove andiamo?
Quanti siamo?
Ing. Marco Bresciani
Ing. Mario Arrigoni Neri Ph.D.
marco.bresciani@alcatel-lucent.it
m.arrigoni@novasemantics.it
Un fiorino!