SlideShare a Scribd company logo
1 of 41
1
Prof. Aggr. FEDERICO COSTANTINI
UNIUD / DISG
INTELLIGENZA ARTIFICIALE. SFIDE, OPPORTUNITÀ ED INSIDIE
L’ETICA COME “DESIGN”
NELL’INTELLIGENZA ARTIFICIALE
VENERDÌ 6 NOVEMBRE 2020, ore 15.00 – 18.00
WEBINAR
2
Sommario
(1) Introduzione
Leggi di Asimov / Fantascienza = Engineering ethics / Realtà
(2) Diversi approcci all’etica
L’esempio del "Trolley problem” nei veicoli a guida autonoma
(3) I principali documenti in tema di Etica e AI
In particolare: Ethics Guidelines for Trustworthy AI (Unione Europea)
(4) Ethical design nel concreto
Novità dal Parlamento Europeo (20 ottobre 2020)
(5) Conclusioni
Sintesi e valutazioni finali
(6) Riferimenti
Bibliografia essenziale per approfondimento
</>
3
(1) Introduzione
Leggi di Asimov / Fantascienza = Engineering ethics / Realtà
4
(1) Introduzione
Un immancabile riferimento, per quanto evocativo,
che rimane ancora letterario: le tre (quattro) «leggi
della robotica»
0-. Un robot non può recare danno all'umanità, né può
permettere che, a causa del proprio mancato intervento,
l'umanità riceva danno.
1.- Un robot non può recar danno a un essere umano
né può permettere che, a causa del proprio mancato
intervento, un essere umano riceva danno. Purché
questo non contrasti con la Legge Zero
2.- Un robot deve obbedire agli ordini impartiti dagli
esseri umani, purché tali ordini non contravvengano alla
Legge Zero e alla Prima Legge.
3.- Un robot deve proteggere la propria esistenza,
purché questa autodifesa non contrasti con la Legge
Zero, la Prima Legge e la Seconda Legge.
https://www.wired.it/play/libri/20
20/01/02/isaac-asimov-padri-
fantascienza/
Isaac Asimov (1920 - 1992)
5
(1) Introduzione
… per una impostazione realistica: un
monito a non eludere il problema della
responsabilità morale degli inventori:
“[…] to throw the problem of his
responsibility on the machine, whether it
can learn or not, is to cast his
responsibility to the winds, and to find it
coming back seated on the whirlwind.”
Wiener, Norbert, The Human Use of Human Beings.
Cybernetics and Society, Boston, Houghton Mifflin,
1950
https://it.wikipedia.org/wiki
/Norbert_Wiener
Norbert Wiener (1894 - 1964)
6
(1) Introduzione
Il problema del rimorso …
We knew the world would not be the
same. A few people laughed, a few
people cried, most people were
silent. I remembered the line from
the Hindu scripture, the Bhagavad-
Gita: Vishnu is trying to persuade
the Prince that he should do his
duty and, to impress him, takes on
his multi-armed form and says,
"Now I am become Death, the
destroyer of worlds." I suppose
we all thought that, one way or
another.
https://en.wikiquote.org/wiki/Robert_Oppenheimer#/media/File:Tri
nity_Test_-
_Oppenheimer_and_Groves_at_Ground_Zero_001.jpg
Julius Robert Oppenheimer (1904–1967) - Trinity Test (Manhattan Project) </>
7
(2) Diversi approcci all’etica
L’esempio del "Trolley problem” nei veicoli a guida
autonoma
8
(2) Diversi approcci all’etica
Formulazione originale del «Trolley Problem»
Manovratore = individuo
Leva = tecnologia
Dilemma: Inerzia -> 5 «morti» // Azione -> 1 «omicidio»
9
(2) Diversi approcci all’etica
Rivisitazione del dilemma con riferimento alle «smart cars» (livello 5 SAE J3016)
AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF,
J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in
«Nature», 563 n. 7729 (2018), pp. 59-64
The «moral Machine» EXPERIMENT
Nine factors:
sparing humans (versus pets), J
staying on course (versus swerving),
sparing passengers (versus pedestrians),
Sparing more lives (versus fewer lives),
sparing men (versus women),
Sparing the young (versus the elderly),
sparing pedestrians who cross legally (versus
jaywalking),
sparing the fit (versus the less fit),
sparing those with higher social status (versus
lower social status).
39.61 million decisions
from 233 countries, dependencies, or territories
http://moralmachine.mit.edu/
10
(2) Diversi approcci all’etica
Formalizzazione del problema etico
CONTISSA, GIUSEPPE, FRANCESCA LAGIOIA E
GIOVANNI SARTOR, The Ethical Knob: ethically-
customisable automated vehicles and the law, in
«Artificial intelligence and law», 25 n. 3 (2017), pp.
365-378
11
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi aspetti:
1.- Costruzione del problema
«Etica» (visione ecosistemica, cosmologica, collettiva)
«Morale» (impostazione sistemica, individualistica, singolare)
2.- Livelli di complessità (riformulazione contemporanea)
«meta-etica» (studio del fondamento, limiti e significato delle regole morali),
«etica normativa» (studio di cosa è «bene» o «male»),
«etica applicata» (cosa è «giusto» o «sbagliato» in un contesto) -> es: bioetica
3.- A seconda del punto di partenza dell’analisi
Agente (virtù) / Azione (normativismo) / Conseguenze (utilitarismo)
4.- rivisitazione in chiave informatica
Etica dell’informazione (Bene = informazione / Male = entropia)
12
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
1.- Diversa costruzione del problema:
«Etica» (visione ecosistemica, cosmologica, collettiva)
vs.
«Morale» (impostazione sistemica, individualistica, singolare)
13
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
2.- Diversi livelli di complessità (riformulazione
contemporanea)
«meta-etica» (studio del fondamento, limiti e significato delle regole morali)
«etica normativa» (studio di cosa è «bene» o «male»)
«etica applicata» (studio di cosa è «giusto» o «sbagliato» in un determinato
contesto) -> es: bioetica
14
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.1.- L’agente
problema: quando l’agente è «buono»?
implicazione: è «bene» qualsiasi cosa faccia l’agente buono (a prescindere
dall’azione e dalle conseguenze)
Impostazione: «etica della virtù» (Anscombe, 1958; MacIntyre, 1980)
15
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.2- L’azione
problema: quando l’azione è «buona»?
implicazione: è «bene» qualsiasi azione sia intrinsecamente buona (a prescindere dalle
intenzioni e dalle conseguenze)
Impostazione: «etica deontologica»
- Matrice cealistica -> «etica della virtù» tradizionale (basata sull’ordine naturale)
- Matrice costruttivistica -> etica moderna, basata su un sistema alternativo:
- Natura razionale dell’uomo (Kant, 1785),
- Agire comunicativo (Habermas, 1981),
- Formalizzazione dell’equilibrio sociale («maximin» + «velo di ignoranza») (Rawls,
1971),
- Principio astratto di libertà individuale (Nozick, 1974).
16
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.3- Le conseguenze
Problema: quando le conseguenze sono «buone»?
Implicazione: se è «bene» una conseguenza, lo è a prescindere dalle intenzioni
dell’agente e dal valore o disvalore intrinseco dell’azione
Impostazione: la valutazione delle conseguenze dipende:
- Dal contesto o «situazione» (Fletcher, 1966),
- Dal risultato ottenuto:
- Consequenzialismo
- Utilitarismo “the greatest happiness of the greatest number that is the measure of
right and wrong” (Bentham, 1776, Mill, 1863).
- Average / Total …
17
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
5.- Rivisitazione del problema in chiave informatica:
«Etica dell’informazione»
- Bene = organizzazione, informazione
- Male = disorganizzazione, entropia
18
(2) Diversi approcci all’etica
Insomma:
La formalizzazione delle questioni etiche (es: veicoli a guida autonoma) è possibile
rispetto all’approccio utilitarista, in cui si assume che i valori etici siano misurabili e
quindi «calcolabili». Ma questa è solo una delle impostazioni.
E comunque anch’essa presenta le sue difficoltà applicative (es: differenze
culturali).
AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF, J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in
«Nature», 563 n. 7729 (2018), pp. 59-64
</>
19
(3) I principali documenti in tema
di Etica e AI
In particolare: Ethics Guidelines for Trustworthy AI (UE)
20
(3) I principali documenti in tema di Etica e AI
Alcuni documenti notevoli
- 2017 Asilomar AI, https://futureoflife.org/ai-principles/
- 2018 EGE (European Group on Ethics in Science and New Technologies), Statement on
Artificial Intelligence, Robotics and ‘Autonomous’ Systems
https://ec.europa.eu/info/research-and-innovation/strategy/support-policy-making/scientific-
support-eu-policies/ege_en
- 2019 (IEEE) Ethically Aligned Design (v.1 / v.2) https://ethicsinaction.ieee.org/
- 2019 (8 aprile) (AI HLEG- UE) Ethics Guidelines for Trustworthy AI
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
- 2019 (19 giugno) (AI HLEG- UE) Policy and investment recommendations for trustworthy
Artificial Intelligence https://ec.europa.eu/digital-single-market/en/news/policy-and-
investment-recommendations-trustworthy-artificial-intelligence
- 2020 (17 luglio) EU White Paper on Artificial Intelligence
https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-
excellence-and-trust_en
CFR: https://futurium.ec.europa.eu/en/content/official-documents-and-reports
21
(3) I principali documenti in tema di Etica e AI
2019 (IEEE) Ethically Aligned Design (v.1)
1. Human Rights A/IS shall be created and operated to respect, promote, and protect
internationally recognized human rights.
2. Well-being A/IS creators shall adopt increased human well-being as a primary success
criterion for development.
3. Data Agency A/IS creators shall empower individuals with the ability to access and
securely share their data, to maintain people’s capacity to have control over their identity.
4. Effectiveness A/IS creators and operators shall provide evidence of the effectiveness
and fitness for purpose of A/IS.
5. Transparency The basis of a particular A/IS decision should always be discoverable.
6. Accountability A/IS shall be created and operated to provide an unambiguous rationale
for all decisions made.
7. Awareness of Misuse A/IS creators shall guard against all potential misuses and risks
of A/IS in operation.
8. Competence A/IS creators shall specify and operators shall adhere to the knowledge
and skill required for safe and effective operation.
22
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
23
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Componenti della IA «affidabile»:
«tre componenti che dovrebbero essere presenti
durante l'intero ciclo di vita del sistema:
a) legalità, l'IA deve ottemperare a tutte le leggi e ai
regolamenti applicabili,
b) eticità, l'IA deve assicurare l'adesione a principi e
valori etici, e
c) robustezza, dal punto di vista tecnico e sociale
poiché, anche con le migliori intenzioni, i sistemi di
IA possono causare danni non intenzionali»
24
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Principi etici:
1.Rispetto dell’autonomia umana
2.Prevenzione dei danni
3.Equità
4.Esplicabilità
25
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Requisiti fondamentali
1. Intervento e sorveglianza umani
2. Robustezza tecnica e sicurezza
3. Riservatezza e governance dei dati
4. Trasparenza
5. Diversità, non discriminazione, equità
6. Benessere sociale e ambientale
7. Accountability
26
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
La valutazione è un processo continuo
</>
27
(4) Ethical design nel concreto
Novità dal Parlamento Europeo (20 ottobre 2020)
28
(4) Ethical design nel concreto
L’idea del «DESIGN» come «creazione di artefatti», ovvero l’attività umana
concepita come sintesi tra
- Teoria / pratica
- Contemplazione / operatività
- Idealismo / materialismo
La pratica del «design»: un esempio ormai celebre
- Privacy by design (Ann Kavourkian)
- GDPR art. 25 Privacy by design / by default
- Guidelines 4/2019 on Article 25 Data Protection by Design and by Default
Version 2.0 Adopted on 20 October 2020
29
(4) Ethical design nel concreto
Testi approvati dal Parlamento Europeo nella seduta del 20 ottobre 2020
- TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate
-> Proposta di Regolamento
- TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
- TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di
intelligenza artificiale
-> Risoluzione
https://www.europarl.europa.eu/doceo/document/TA-9-2020-10-20-TOC_IT.html
30
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
IA / R / TC
«Alto Rischio»
Definizione Art. 4 e), Valutazione art. 14(1) "alto rischio"
rischio
- Significativo
- associato allo sviluppo, alla diffusione e all'utilizzo […]
- di causare lesioni o danni
- a individui o società
- in violazione delle
- norme in materia di diritti fondamentali
- e sicurezza stabilite dal diritto dell'Unione,
- in considerazione del
- loro utilizzo o della loro finalità specifici,
- del settore nel quale sono sviluppate, diffuse o
utilizzate
- e della gravità della lesione o del danno che ci si può
attendere
IA / R / TC
*comuni*
Elenco Allegato al Regolamento
«esaustivo e cumulativo»
Utilizzi o finalità ad alto rischio
Assunzione
Valutazione degli studenti e
assegnazione di voti
Stanziamento di fondi pubblici
Concessione di prestiti
[…]
Settori ad alto rischio
Occupazione
Istruzione
Assistenza sanitaria
Trasporti
Energia
[…]
Autorità
Nazionale
di
controllo
(art. 18)
31
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
IA / R / TC
«Alto Rischio»
art. 5
Principi etici
Rispetto principi art.
5 (art. 6)
IA / R / TC
«comuni»
Requisiti ulteriori
- Art. 7 controllo umano
- Art. 8 trasparenza
- Art. 9 assenza bias
- Art. 10 gender balance
- Art. 11 Ambiente
- Art. 12 Privacy
- Art. 13 Ricorso
Valutazione
di
conformità
(art. 15)
Certificato
europeo di
Conformità Etica
(art. 16)
«CECE»(!?)
Facoltà
art. 16(2)
32
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
Norme ulteriori:
- Art. 17(3) controllo e monitoraggio sulla «qualità» dei dati provenienti da fonti
esterne da parte di «sviluppatori, operatori e utenti»
- Art. 17(4) conformità a «protocolli industriali e commerciali»
- Art. 18 autorità di controllo «Garante» nazionale per segnalazioni e vigilanza
33
(4) Ethical design nel concreto
TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
Definizione Art. 3 c) "alto rischio"
Un potenziale significativo
- in un sistema di IA che opera in modo autonomo
- di causare danni o pregiudizi
- a una o più persone
- in modo casuale e che va oltre quanto ci si possa
ragionevolmente aspettare;
L'importanza del potenziale dipende
- dall'interazione tra la gravità dei possibili danni o pregiudizi,
- dal grado di autonomia decisionale,
- dalla probabilità che il rischio si concretizzi
- dalla modalità e dal contesto di utilizzo del sistema di IA;
Definizione diversa !!!
IA / R / TC
«Alto Rischio»
Responsabilità
oggettiva
Valutazione sul
tipo di
responsabilità
civile
IA / R / TC
*comuni*
Presunzione di
colpa
Elenco Allegato al Regolamento
[ancora «in bianco»]
34
(4) Ethical design nel concreto
TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
IA / R / TC
«Alto Rischio»
IA / R / TC
*comuni*
Presunta colpa
Mero fatto
illecito
Fondamento della
responsabilità
(salva forza
maggiore)
Esimente
Dimostrazione contraria (art. 8()2)) 2 ipotesi
a) Attivato nonostante misure adottate […]
b) Aggiornamenti e manutenzione
Assicurazione
obbligatoria
Prescrizione del
diritto al risarcimento
Ordinaria (legge
dello Stato, es: 5
anni art. 2043 CC)
Speciale: 10
anni / 30 anni
(art. 7)
35
(4) Ethical design nel concreto
TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di
intelligenza artificiale -> Risoluzione
In sintesi:
- I sistemi di IA, per quanto evoluti, non avranno personalità
giuridica
- Differenza tra creazioni umane realizzate attraverso IA e
creazioni generate autonomamente dalla IA: nel primo caso la
disciplina rimane quella esistente, nel secondo dovrebbe essere
diversa (ma analoga)
- Il principio di originalità si riferisce all’inventiva umana
- Il concetto di creazione intellettuale si riferisce alla persona
- Possibile revisione della direttiva sulle banche dati (!)
36
(4) Ethical design nel concreto
Un esempio di Responsible Research Innovation nel settore della sanità)
Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible Research and Innovation’.
Robotics and Autonomous Systems 86: 152–161, p. 158
</>
37
(5) Conclusioni
Sintesi e valutazioni finali
38
(5) Conclusioni
TAKE AWAY
1) Dove sono finiti il «bene» e il «male»? Etica (fantascienza) / metaetica (realtà)?
2) Quella che chiamiamo «etica» è in fondo «qualità» (da Robert Pirsig agli standard
ISO, alla certificazione «etica»)?
3) Dopo la «accountability» del GDPR, come sarà la compliance alla «IA Ethics»
certificata UE?
4) Etica e politica della IA: la «governance» della IA è necessariamente un «bene»?
5) E gli altri? geopolitica della IA (USA / UE / CINA / Russia / India / Giappone)
- Intelligenza naturale (essere umano) / intelligenza artificiale (algoritmo)
- Morale individuale / Etica collettiva (singolo Stato) / Etica globale (genere umano)
</>
39
(6) Riferimenti
Riferimenti utili per approfondimento
40
(6) Riferimenti
Anscombe, G. E. M. 1958. ‘Modern Moral Philosophy’. Philosophy 33 (124): 1–19.
Awad, E., S. Dsouza, R. Kim, J. Schulz, J. Henrich, A. Shariff, J. F. Bonnefon E I. Rahwan, The Moral Machine
experiment, in «Nature», 563 n. 7729 (2018), pp. 59-64
Bentham, Jeremy. 1776. A Fragment on Government. London: Printed for T. Payne.
Contissa, Giuseppe, Francesca Lagioia E Giovanni Sartor, The Ethical Knob: ethically-customisable automated
vehicles and the law, in «Artificial intelligence and law», 25 n. 3 (2017), pp. 365-378
Fletcher, Joseph Francis. 1966. Situation Ethics. The New Morality. Philadelphia: Westminster Press.
Floridi, Luciano, Pensare l'infosfera. La filosofia come design concettuale, Milano, Cortina, 2020
Floridi, Luciano, The Ethics of Information, Oxford, Oxford University Press, 2013
Foot, Philippa, The problem of abortion and the doctrine of double effect, in «Oxford Review», 5 (1967), pp. 5-15
Habermas, Jürgen. 1981. Theorie des Kommunikativen Handelns. 2 vols. Frankfurt am Main: Suhrkamp Verlag.
Kant, Immanuel. 1785. Grundlegung Zur Metaphysik Der Sitten. Riga: Hartknoch.
MacIntyre, Alasdair Chalmers. 1980. After Virtue. A Study in Moral Theory. Notre Dame: University of Notre Dame
Press.
Mill, John Stuart. 1863. Utilitarianism. London: Parker and Bourn.
Moore, George Edward. 1903. Principia Ethica. Cambridge: University Press.
Nozick, Robert. 1974. Anarchy, State, and Utopia. New York: Basic Books.
Rawls, John. 1971. A Theory of Justice. Cambridge: The Belknap.
Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible
Research and Innovation’. Robotics and Autonomous Systems 86: 152–161.
Wallach, Wendell, and Colin. Allen. 2008. Moral Machines. Teaching Robots Right from Wrong.
Wiener, Norbert, The Human Use of Human Beings. Cybernetics and Society, Boston, Houghton Mifflin, 1950
41
Grazie per l’attenzione!
federico.costantini[@]uniud.it

More Related Content

Similar to L’ETICA COME “DESIGN” NELL’INTELLIGENZA ARTIFICIALE

20151120 Intervento Convegno Este - Public version - No Download
20151120 Intervento Convegno Este - Public version - No Download20151120 Intervento Convegno Este - Public version - No Download
20151120 Intervento Convegno Este - Public version - No DownloadFederico Costantini
 
Vecchi problemi filosofici per la nuova intelligenza artificiale
Vecchi problemi filosofici per la nuova intelligenza artificialeVecchi problemi filosofici per la nuova intelligenza artificiale
Vecchi problemi filosofici per la nuova intelligenza artificialeFausto Intilla
 
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...Valerio Eletti
 
Verso una scienza aperta? Nuovi modelli di comunicazione della ricerca
Verso una scienza aperta? Nuovi modelli di comunicazione della ricercaVerso una scienza aperta? Nuovi modelli di comunicazione della ricerca
Verso una scienza aperta? Nuovi modelli di comunicazione della ricercaFrancesca Di Donato
 
La Prospettiva delle Scienze Sociali
La Prospettiva delle Scienze SocialiLa Prospettiva delle Scienze Sociali
La Prospettiva delle Scienze Socialiasvsa
 
Seminario al CTL - Verso una scienza aperta
Seminario al CTL - Verso una scienza apertaSeminario al CTL - Verso una scienza aperta
Seminario al CTL - Verso una scienza apertaFrancesca Di Donato
 
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi Futuri
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi FuturiIntelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi Futuri
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi FuturiAntonio Lieto
 
Rassegna stampa tedx transmedia 2013
Rassegna stampa tedx transmedia 2013Rassegna stampa tedx transmedia 2013
Rassegna stampa tedx transmedia 2013Applepie S.r.l.
 
Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)ValentinaMichelaFalv
 
Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)ValentinaMichelaFalv
 
Teorie Della Comunicazione Di Massa V2.4 Marcobinotto
Teorie Della Comunicazione Di Massa V2.4   MarcobinottoTeorie Della Comunicazione Di Massa V2.4   Marcobinotto
Teorie Della Comunicazione Di Massa V2.4 MarcobinottoMarco Binotto
 
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...Claudio Lombardo
 
Sicurezza comportamentale, cultura di sicurezza
Sicurezza comportamentale, cultura di sicurezzaSicurezza comportamentale, cultura di sicurezza
Sicurezza comportamentale, cultura di sicurezzaCarlo Bisio (1000 +)
 
Lezione sui Nuovi Media - Ricreare la Comunicazione - di Stefano Triberti
Lezione sui Nuovi Media - Ricreare la Comunicazione -  di Stefano TribertiLezione sui Nuovi Media - Ricreare la Comunicazione -  di Stefano Triberti
Lezione sui Nuovi Media - Ricreare la Comunicazione - di Stefano TribertiRiva Giuseppe
 
Operazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoOperazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoFausto Intilla
 
201203021 comphumanities 2012
201203021 comphumanities 2012201203021 comphumanities 2012
201203021 comphumanities 2012Stefano Lariccia
 
I maker contribuiscono a migliorare la nostra società?
I maker contribuiscono a migliorare la nostra società?I maker contribuiscono a migliorare la nostra società?
I maker contribuiscono a migliorare la nostra società?Paola Negrin
 
La struttura “reticolare” del diritto: esposizione e critica di un paradigma
La struttura “reticolare” del diritto:  esposizione e critica di un paradigmaLa struttura “reticolare” del diritto:  esposizione e critica di un paradigma
La struttura “reticolare” del diritto: esposizione e critica di un paradigmaFederico Costantini
 

Similar to L’ETICA COME “DESIGN” NELL’INTELLIGENZA ARTIFICIALE (20)

20151120 Intervento Convegno Este - Public version - No Download
20151120 Intervento Convegno Este - Public version - No Download20151120 Intervento Convegno Este - Public version - No Download
20151120 Intervento Convegno Este - Public version - No Download
 
Robotica ed Etica
Robotica ed EticaRobotica ed Etica
Robotica ed Etica
 
Vecchi problemi filosofici per la nuova intelligenza artificiale
Vecchi problemi filosofici per la nuova intelligenza artificialeVecchi problemi filosofici per la nuova intelligenza artificiale
Vecchi problemi filosofici per la nuova intelligenza artificiale
 
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...
Nuovi scenari sociali, reti digitali e accumulo di big data. Un approccio sis...
 
Verso una scienza aperta? Nuovi modelli di comunicazione della ricerca
Verso una scienza aperta? Nuovi modelli di comunicazione della ricercaVerso una scienza aperta? Nuovi modelli di comunicazione della ricerca
Verso una scienza aperta? Nuovi modelli di comunicazione della ricerca
 
La Prospettiva delle Scienze Sociali
La Prospettiva delle Scienze SocialiLa Prospettiva delle Scienze Sociali
La Prospettiva delle Scienze Sociali
 
Seminario al CTL - Verso una scienza aperta
Seminario al CTL - Verso una scienza apertaSeminario al CTL - Verso una scienza aperta
Seminario al CTL - Verso una scienza aperta
 
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi Futuri
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi FuturiIntelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi Futuri
Intelligenza Artificiale e Chatbot: Limiti Attuali e Sviluppi Futuri
 
Rassegna stampa tedx transmedia 2013
Rassegna stampa tedx transmedia 2013Rassegna stampa tedx transmedia 2013
Rassegna stampa tedx transmedia 2013
 
Artificial Life Learning
Artificial Life LearningArtificial Life Learning
Artificial Life Learning
 
Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)
 
Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)Dispense freq ec_pol-2013-2014 (2)
Dispense freq ec_pol-2013-2014 (2)
 
Teorie Della Comunicazione Di Massa V2.4 Marcobinotto
Teorie Della Comunicazione Di Massa V2.4   MarcobinottoTeorie Della Comunicazione Di Massa V2.4   Marcobinotto
Teorie Della Comunicazione Di Massa V2.4 Marcobinotto
 
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...
DAL COGNITIVISMO ALLA ROBOTICA: LA TEORIA DELLA MENTE NELL’INTERAZIONE UOMO-R...
 
Sicurezza comportamentale, cultura di sicurezza
Sicurezza comportamentale, cultura di sicurezzaSicurezza comportamentale, cultura di sicurezza
Sicurezza comportamentale, cultura di sicurezza
 
Lezione sui Nuovi Media - Ricreare la Comunicazione - di Stefano Triberti
Lezione sui Nuovi Media - Ricreare la Comunicazione -  di Stefano TribertiLezione sui Nuovi Media - Ricreare la Comunicazione -  di Stefano Triberti
Lezione sui Nuovi Media - Ricreare la Comunicazione - di Stefano Triberti
 
Operazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoOperazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer Quantistico
 
201203021 comphumanities 2012
201203021 comphumanities 2012201203021 comphumanities 2012
201203021 comphumanities 2012
 
I maker contribuiscono a migliorare la nostra società?
I maker contribuiscono a migliorare la nostra società?I maker contribuiscono a migliorare la nostra società?
I maker contribuiscono a migliorare la nostra società?
 
La struttura “reticolare” del diritto: esposizione e critica di un paradigma
La struttura “reticolare” del diritto:  esposizione e critica di un paradigmaLa struttura “reticolare” del diritto:  esposizione e critica di un paradigma
La struttura “reticolare” del diritto: esposizione e critica di un paradigma
 

More from Federico Costantini

Digital transformation: Smart Working, sicurezza e dati personali
Digital transformation: Smart Working, sicurezza e dati personaliDigital transformation: Smart Working, sicurezza e dati personali
Digital transformation: Smart Working, sicurezza e dati personaliFederico Costantini
 
COVID19 vs GDPR: the case of “Immuni” Italian app
COVID19 vs GDPR: the case of “Immuni” Italian appCOVID19 vs GDPR: the case of “Immuni” Italian app
COVID19 vs GDPR: the case of “Immuni” Italian appFederico Costantini
 
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...COST Action CA16222 on Autonomous and Connected Transport –How block chain co...
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...Federico Costantini
 
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...Federico Costantini
 
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...Federico Costantini
 
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...20180914 “Inaction is not an option”. Informazione, diritto e società nella p...
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...Federico Costantini
 
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...Federico Costantini
 
20170928 A (very short) introduction
20170928 A (very short) introduction20170928 A (very short) introduction
20170928 A (very short) introductionFederico Costantini
 
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...Federico Costantini
 
Social network, social profiling, predictive policing. Current issues and fut...
Social network, social profiling, predictive policing. Current issues and fut...Social network, social profiling, predictive policing. Current issues and fut...
Social network, social profiling, predictive policing. Current issues and fut...Federico Costantini
 
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...Collecting Evidence in the «Information Society»: Theoretical Background, Cur...
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...Federico Costantini
 
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane""Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"Federico Costantini
 
Problemi inerenti la “sicurezza” negli “autonomous vehicles”
Problemi inerenti la “sicurezza” negli “autonomous vehicles”Problemi inerenti la “sicurezza” negli “autonomous vehicles”
Problemi inerenti la “sicurezza” negli “autonomous vehicles”Federico Costantini
 
Introduzione generale ai problemi della prova digitale
Introduzione generale ai problemi della prova digitaleIntroduzione generale ai problemi della prova digitale
Introduzione generale ai problemi della prova digitaleFederico Costantini
 
«Information Society» and MaaS in the European Union: current issues and futu...
«Information Society» and MaaS in the European Union: current issues and futu...«Information Society» and MaaS in the European Union: current issues and futu...
«Information Society» and MaaS in the European Union: current issues and futu...Federico Costantini
 
POSTER: "When an algorithm decides «who has to die». Security concerns in “A...
POSTER: "When an algorithm decides «who has to die».  Security concerns in “A...POSTER: "When an algorithm decides «who has to die».  Security concerns in “A...
POSTER: "When an algorithm decides «who has to die». Security concerns in “A...Federico Costantini
 
Società dell’Informazione e “diritto artificiale”. Il problema del “controll...
Società dell’Informazione e “diritto artificiale”.  Il problema del “controll...Società dell’Informazione e “diritto artificiale”.  Il problema del “controll...
Società dell’Informazione e “diritto artificiale”. Il problema del “controll...Federico Costantini
 
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?Federico Costantini
 

More from Federico Costantini (20)

Digital transformation: Smart Working, sicurezza e dati personali
Digital transformation: Smart Working, sicurezza e dati personaliDigital transformation: Smart Working, sicurezza e dati personali
Digital transformation: Smart Working, sicurezza e dati personali
 
COVID19 vs GDPR: the case of “Immuni” Italian app
COVID19 vs GDPR: the case of “Immuni” Italian appCOVID19 vs GDPR: the case of “Immuni” Italian app
COVID19 vs GDPR: the case of “Immuni” Italian app
 
20191004 Gamification PA
20191004 Gamification PA20191004 Gamification PA
20191004 Gamification PA
 
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...COST Action CA16222 on Autonomous and Connected Transport –How block chain co...
COST Action CA16222 on Autonomous and Connected Transport –How block chain co...
 
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...
20181012 Intelligenza artificiale e soggezione all'azione amministrativa: il ...
 
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...
20180327 Intelligenza artificiale e “computabilità giuridica” tra diritto civ...
 
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...20180914 “Inaction is not an option”. Informazione, diritto e società nella p...
20180914 “Inaction is not an option”. Informazione, diritto e società nella p...
 
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
 
20170928 A (very short) introduction
20170928 A (very short) introduction20170928 A (very short) introduction
20170928 A (very short) introduction
 
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...
20170927 Introduzione ai problemi concernenti prova come “informazione” e “in...
 
Social network, social profiling, predictive policing. Current issues and fut...
Social network, social profiling, predictive policing. Current issues and fut...Social network, social profiling, predictive policing. Current issues and fut...
Social network, social profiling, predictive policing. Current issues and fut...
 
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...Collecting Evidence in the «Information Society»: Theoretical Background, Cur...
Collecting Evidence in the «Information Society»: Theoretical Background, Cur...
 
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane""Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"
"Società dell'Informazione", organizzazione del lavoro e "Risorse Umane"
 
Problemi inerenti la “sicurezza” negli “autonomous vehicles”
Problemi inerenti la “sicurezza” negli “autonomous vehicles”Problemi inerenti la “sicurezza” negli “autonomous vehicles”
Problemi inerenti la “sicurezza” negli “autonomous vehicles”
 
Introduzione generale ai problemi della prova digitale
Introduzione generale ai problemi della prova digitaleIntroduzione generale ai problemi della prova digitale
Introduzione generale ai problemi della prova digitale
 
«Information Society» and MaaS in the European Union: current issues and futu...
«Information Society» and MaaS in the European Union: current issues and futu...«Information Society» and MaaS in the European Union: current issues and futu...
«Information Society» and MaaS in the European Union: current issues and futu...
 
POSTER: "When an algorithm decides «who has to die». Security concerns in “A...
POSTER: "When an algorithm decides «who has to die».  Security concerns in “A...POSTER: "When an algorithm decides «who has to die».  Security concerns in “A...
POSTER: "When an algorithm decides «who has to die». Security concerns in “A...
 
Società dell’Informazione e “diritto artificiale”. Il problema del “controll...
Società dell’Informazione e “diritto artificiale”.  Il problema del “controll...Società dell’Informazione e “diritto artificiale”.  Il problema del “controll...
Società dell’Informazione e “diritto artificiale”. Il problema del “controll...
 
Conoscenza in Festa 2016
Conoscenza in Festa 2016Conoscenza in Festa 2016
Conoscenza in Festa 2016
 
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
 

L’ETICA COME “DESIGN” NELL’INTELLIGENZA ARTIFICIALE

  • 1. 1 Prof. Aggr. FEDERICO COSTANTINI UNIUD / DISG INTELLIGENZA ARTIFICIALE. SFIDE, OPPORTUNITÀ ED INSIDIE L’ETICA COME “DESIGN” NELL’INTELLIGENZA ARTIFICIALE VENERDÌ 6 NOVEMBRE 2020, ore 15.00 – 18.00 WEBINAR
  • 2. 2 Sommario (1) Introduzione Leggi di Asimov / Fantascienza = Engineering ethics / Realtà (2) Diversi approcci all’etica L’esempio del "Trolley problem” nei veicoli a guida autonoma (3) I principali documenti in tema di Etica e AI In particolare: Ethics Guidelines for Trustworthy AI (Unione Europea) (4) Ethical design nel concreto Novità dal Parlamento Europeo (20 ottobre 2020) (5) Conclusioni Sintesi e valutazioni finali (6) Riferimenti Bibliografia essenziale per approfondimento </>
  • 3. 3 (1) Introduzione Leggi di Asimov / Fantascienza = Engineering ethics / Realtà
  • 4. 4 (1) Introduzione Un immancabile riferimento, per quanto evocativo, che rimane ancora letterario: le tre (quattro) «leggi della robotica» 0-. Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno. 1.- Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero 2.- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge. 3.- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge. https://www.wired.it/play/libri/20 20/01/02/isaac-asimov-padri- fantascienza/ Isaac Asimov (1920 - 1992)
  • 5. 5 (1) Introduzione … per una impostazione realistica: un monito a non eludere il problema della responsabilità morale degli inventori: “[…] to throw the problem of his responsibility on the machine, whether it can learn or not, is to cast his responsibility to the winds, and to find it coming back seated on the whirlwind.” Wiener, Norbert, The Human Use of Human Beings. Cybernetics and Society, Boston, Houghton Mifflin, 1950 https://it.wikipedia.org/wiki /Norbert_Wiener Norbert Wiener (1894 - 1964)
  • 6. 6 (1) Introduzione Il problema del rimorso … We knew the world would not be the same. A few people laughed, a few people cried, most people were silent. I remembered the line from the Hindu scripture, the Bhagavad- Gita: Vishnu is trying to persuade the Prince that he should do his duty and, to impress him, takes on his multi-armed form and says, "Now I am become Death, the destroyer of worlds." I suppose we all thought that, one way or another. https://en.wikiquote.org/wiki/Robert_Oppenheimer#/media/File:Tri nity_Test_- _Oppenheimer_and_Groves_at_Ground_Zero_001.jpg Julius Robert Oppenheimer (1904–1967) - Trinity Test (Manhattan Project) </>
  • 7. 7 (2) Diversi approcci all’etica L’esempio del "Trolley problem” nei veicoli a guida autonoma
  • 8. 8 (2) Diversi approcci all’etica Formulazione originale del «Trolley Problem» Manovratore = individuo Leva = tecnologia Dilemma: Inerzia -> 5 «morti» // Azione -> 1 «omicidio»
  • 9. 9 (2) Diversi approcci all’etica Rivisitazione del dilemma con riferimento alle «smart cars» (livello 5 SAE J3016) AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF, J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in «Nature», 563 n. 7729 (2018), pp. 59-64 The «moral Machine» EXPERIMENT Nine factors: sparing humans (versus pets), J staying on course (versus swerving), sparing passengers (versus pedestrians), Sparing more lives (versus fewer lives), sparing men (versus women), Sparing the young (versus the elderly), sparing pedestrians who cross legally (versus jaywalking), sparing the fit (versus the less fit), sparing those with higher social status (versus lower social status). 39.61 million decisions from 233 countries, dependencies, or territories http://moralmachine.mit.edu/
  • 10. 10 (2) Diversi approcci all’etica Formalizzazione del problema etico CONTISSA, GIUSEPPE, FRANCESCA LAGIOIA E GIOVANNI SARTOR, The Ethical Knob: ethically- customisable automated vehicles and the law, in «Artificial intelligence and law», 25 n. 3 (2017), pp. 365-378
  • 11. 11 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi aspetti: 1.- Costruzione del problema «Etica» (visione ecosistemica, cosmologica, collettiva) «Morale» (impostazione sistemica, individualistica, singolare) 2.- Livelli di complessità (riformulazione contemporanea) «meta-etica» (studio del fondamento, limiti e significato delle regole morali), «etica normativa» (studio di cosa è «bene» o «male»), «etica applicata» (cosa è «giusto» o «sbagliato» in un contesto) -> es: bioetica 3.- A seconda del punto di partenza dell’analisi Agente (virtù) / Azione (normativismo) / Conseguenze (utilitarismo) 4.- rivisitazione in chiave informatica Etica dell’informazione (Bene = informazione / Male = entropia)
  • 12. 12 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 1.- Diversa costruzione del problema: «Etica» (visione ecosistemica, cosmologica, collettiva) vs. «Morale» (impostazione sistemica, individualistica, singolare)
  • 13. 13 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 2.- Diversi livelli di complessità (riformulazione contemporanea) «meta-etica» (studio del fondamento, limiti e significato delle regole morali) «etica normativa» (studio di cosa è «bene» o «male») «etica applicata» (studio di cosa è «giusto» o «sbagliato» in un determinato contesto) -> es: bioetica
  • 14. 14 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 3.- Diversa impostazione del problema a seconda del punto di partenza: 3.1.- L’agente problema: quando l’agente è «buono»? implicazione: è «bene» qualsiasi cosa faccia l’agente buono (a prescindere dall’azione e dalle conseguenze) Impostazione: «etica della virtù» (Anscombe, 1958; MacIntyre, 1980)
  • 15. 15 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 3.- Diversa impostazione del problema a seconda del punto di partenza: 3.2- L’azione problema: quando l’azione è «buona»? implicazione: è «bene» qualsiasi azione sia intrinsecamente buona (a prescindere dalle intenzioni e dalle conseguenze) Impostazione: «etica deontologica» - Matrice cealistica -> «etica della virtù» tradizionale (basata sull’ordine naturale) - Matrice costruttivistica -> etica moderna, basata su un sistema alternativo: - Natura razionale dell’uomo (Kant, 1785), - Agire comunicativo (Habermas, 1981), - Formalizzazione dell’equilibrio sociale («maximin» + «velo di ignoranza») (Rawls, 1971), - Principio astratto di libertà individuale (Nozick, 1974).
  • 16. 16 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 3.- Diversa impostazione del problema a seconda del punto di partenza: 3.3- Le conseguenze Problema: quando le conseguenze sono «buone»? Implicazione: se è «bene» una conseguenza, lo è a prescindere dalle intenzioni dell’agente e dal valore o disvalore intrinseco dell’azione Impostazione: la valutazione delle conseguenze dipende: - Dal contesto o «situazione» (Fletcher, 1966), - Dal risultato ottenuto: - Consequenzialismo - Utilitarismo “the greatest happiness of the greatest number that is the measure of right and wrong” (Bentham, 1776, Mill, 1863). - Average / Total …
  • 17. 17 (2) Diversi approcci all’etica In realtà le cose non sono così semplici, perché ci sono diversi problemi: 5.- Rivisitazione del problema in chiave informatica: «Etica dell’informazione» - Bene = organizzazione, informazione - Male = disorganizzazione, entropia
  • 18. 18 (2) Diversi approcci all’etica Insomma: La formalizzazione delle questioni etiche (es: veicoli a guida autonoma) è possibile rispetto all’approccio utilitarista, in cui si assume che i valori etici siano misurabili e quindi «calcolabili». Ma questa è solo una delle impostazioni. E comunque anch’essa presenta le sue difficoltà applicative (es: differenze culturali). AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF, J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in «Nature», 563 n. 7729 (2018), pp. 59-64 </>
  • 19. 19 (3) I principali documenti in tema di Etica e AI In particolare: Ethics Guidelines for Trustworthy AI (UE)
  • 20. 20 (3) I principali documenti in tema di Etica e AI Alcuni documenti notevoli - 2017 Asilomar AI, https://futureoflife.org/ai-principles/ - 2018 EGE (European Group on Ethics in Science and New Technologies), Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems https://ec.europa.eu/info/research-and-innovation/strategy/support-policy-making/scientific- support-eu-policies/ege_en - 2019 (IEEE) Ethically Aligned Design (v.1 / v.2) https://ethicsinaction.ieee.org/ - 2019 (8 aprile) (AI HLEG- UE) Ethics Guidelines for Trustworthy AI https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai - 2019 (19 giugno) (AI HLEG- UE) Policy and investment recommendations for trustworthy Artificial Intelligence https://ec.europa.eu/digital-single-market/en/news/policy-and- investment-recommendations-trustworthy-artificial-intelligence - 2020 (17 luglio) EU White Paper on Artificial Intelligence https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach- excellence-and-trust_en CFR: https://futurium.ec.europa.eu/en/content/official-documents-and-reports
  • 21. 21 (3) I principali documenti in tema di Etica e AI 2019 (IEEE) Ethically Aligned Design (v.1) 1. Human Rights A/IS shall be created and operated to respect, promote, and protect internationally recognized human rights. 2. Well-being A/IS creators shall adopt increased human well-being as a primary success criterion for development. 3. Data Agency A/IS creators shall empower individuals with the ability to access and securely share their data, to maintain people’s capacity to have control over their identity. 4. Effectiveness A/IS creators and operators shall provide evidence of the effectiveness and fitness for purpose of A/IS. 5. Transparency The basis of a particular A/IS decision should always be discoverable. 6. Accountability A/IS shall be created and operated to provide an unambiguous rationale for all decisions made. 7. Awareness of Misuse A/IS creators shall guard against all potential misuses and risks of A/IS in operation. 8. Competence A/IS creators shall specify and operators shall adhere to the knowledge and skill required for safe and effective operation.
  • 22. 22 (3) I principali documenti in tema di Etica e AI https://ec.europa.eu/digital- single-market/en/news/ethics- guidelines-trustworthy-ai
  • 23. 23 (3) I principali documenti in tema di Etica e AI https://ec.europa.eu/digital- single-market/en/news/ethics- guidelines-trustworthy-ai Componenti della IA «affidabile»: «tre componenti che dovrebbero essere presenti durante l'intero ciclo di vita del sistema: a) legalità, l'IA deve ottemperare a tutte le leggi e ai regolamenti applicabili, b) eticità, l'IA deve assicurare l'adesione a principi e valori etici, e c) robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali»
  • 24. 24 (3) I principali documenti in tema di Etica e AI https://ec.europa.eu/digital- single-market/en/news/ethics- guidelines-trustworthy-ai Principi etici: 1.Rispetto dell’autonomia umana 2.Prevenzione dei danni 3.Equità 4.Esplicabilità
  • 25. 25 (3) I principali documenti in tema di Etica e AI https://ec.europa.eu/digital- single-market/en/news/ethics- guidelines-trustworthy-ai Requisiti fondamentali 1. Intervento e sorveglianza umani 2. Robustezza tecnica e sicurezza 3. Riservatezza e governance dei dati 4. Trasparenza 5. Diversità, non discriminazione, equità 6. Benessere sociale e ambientale 7. Accountability
  • 26. 26 (3) I principali documenti in tema di Etica e AI https://ec.europa.eu/digital- single-market/en/news/ethics- guidelines-trustworthy-ai La valutazione è un processo continuo </>
  • 27. 27 (4) Ethical design nel concreto Novità dal Parlamento Europeo (20 ottobre 2020)
  • 28. 28 (4) Ethical design nel concreto L’idea del «DESIGN» come «creazione di artefatti», ovvero l’attività umana concepita come sintesi tra - Teoria / pratica - Contemplazione / operatività - Idealismo / materialismo La pratica del «design»: un esempio ormai celebre - Privacy by design (Ann Kavourkian) - GDPR art. 25 Privacy by design / by default - Guidelines 4/2019 on Article 25 Data Protection by Design and by Default Version 2.0 Adopted on 20 October 2020
  • 29. 29 (4) Ethical design nel concreto Testi approvati dal Parlamento Europeo nella seduta del 20 ottobre 2020 - TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate -> Proposta di Regolamento - TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale -> Proposta di Regolamento - TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale -> Risoluzione https://www.europarl.europa.eu/doceo/document/TA-9-2020-10-20-TOC_IT.html
  • 30. 30 (4) Ethical design nel concreto TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate -> Proposta di Regolamento N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]» IA / R / TC «Alto Rischio» Definizione Art. 4 e), Valutazione art. 14(1) "alto rischio" rischio - Significativo - associato allo sviluppo, alla diffusione e all'utilizzo […] - di causare lesioni o danni - a individui o società - in violazione delle - norme in materia di diritti fondamentali - e sicurezza stabilite dal diritto dell'Unione, - in considerazione del - loro utilizzo o della loro finalità specifici, - del settore nel quale sono sviluppate, diffuse o utilizzate - e della gravità della lesione o del danno che ci si può attendere IA / R / TC *comuni* Elenco Allegato al Regolamento «esaustivo e cumulativo» Utilizzi o finalità ad alto rischio Assunzione Valutazione degli studenti e assegnazione di voti Stanziamento di fondi pubblici Concessione di prestiti […] Settori ad alto rischio Occupazione Istruzione Assistenza sanitaria Trasporti Energia […] Autorità Nazionale di controllo (art. 18)
  • 31. 31 (4) Ethical design nel concreto TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate -> Proposta di Regolamento N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]» IA / R / TC «Alto Rischio» art. 5 Principi etici Rispetto principi art. 5 (art. 6) IA / R / TC «comuni» Requisiti ulteriori - Art. 7 controllo umano - Art. 8 trasparenza - Art. 9 assenza bias - Art. 10 gender balance - Art. 11 Ambiente - Art. 12 Privacy - Art. 13 Ricorso Valutazione di conformità (art. 15) Certificato europeo di Conformità Etica (art. 16) «CECE»(!?) Facoltà art. 16(2)
  • 32. 32 (4) Ethical design nel concreto TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate -> Proposta di Regolamento N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]» Norme ulteriori: - Art. 17(3) controllo e monitoraggio sulla «qualità» dei dati provenienti da fonti esterne da parte di «sviluppatori, operatori e utenti» - Art. 17(4) conformità a «protocolli industriali e commerciali» - Art. 18 autorità di controllo «Garante» nazionale per segnalazioni e vigilanza
  • 33. 33 (4) Ethical design nel concreto TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale -> Proposta di Regolamento Definizione Art. 3 c) "alto rischio" Un potenziale significativo - in un sistema di IA che opera in modo autonomo - di causare danni o pregiudizi - a una o più persone - in modo casuale e che va oltre quanto ci si possa ragionevolmente aspettare; L'importanza del potenziale dipende - dall'interazione tra la gravità dei possibili danni o pregiudizi, - dal grado di autonomia decisionale, - dalla probabilità che il rischio si concretizzi - dalla modalità e dal contesto di utilizzo del sistema di IA; Definizione diversa !!! IA / R / TC «Alto Rischio» Responsabilità oggettiva Valutazione sul tipo di responsabilità civile IA / R / TC *comuni* Presunzione di colpa Elenco Allegato al Regolamento [ancora «in bianco»]
  • 34. 34 (4) Ethical design nel concreto TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale -> Proposta di Regolamento IA / R / TC «Alto Rischio» IA / R / TC *comuni* Presunta colpa Mero fatto illecito Fondamento della responsabilità (salva forza maggiore) Esimente Dimostrazione contraria (art. 8()2)) 2 ipotesi a) Attivato nonostante misure adottate […] b) Aggiornamenti e manutenzione Assicurazione obbligatoria Prescrizione del diritto al risarcimento Ordinaria (legge dello Stato, es: 5 anni art. 2043 CC) Speciale: 10 anni / 30 anni (art. 7)
  • 35. 35 (4) Ethical design nel concreto TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale -> Risoluzione In sintesi: - I sistemi di IA, per quanto evoluti, non avranno personalità giuridica - Differenza tra creazioni umane realizzate attraverso IA e creazioni generate autonomamente dalla IA: nel primo caso la disciplina rimane quella esistente, nel secondo dovrebbe essere diversa (ma analoga) - Il principio di originalità si riferisce all’inventiva umana - Il concetto di creazione intellettuale si riferisce alla persona - Possibile revisione della direttiva sulle banche dati (!)
  • 36. 36 (4) Ethical design nel concreto Un esempio di Responsible Research Innovation nel settore della sanità) Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible Research and Innovation’. Robotics and Autonomous Systems 86: 152–161, p. 158 </>
  • 37. 37 (5) Conclusioni Sintesi e valutazioni finali
  • 38. 38 (5) Conclusioni TAKE AWAY 1) Dove sono finiti il «bene» e il «male»? Etica (fantascienza) / metaetica (realtà)? 2) Quella che chiamiamo «etica» è in fondo «qualità» (da Robert Pirsig agli standard ISO, alla certificazione «etica»)? 3) Dopo la «accountability» del GDPR, come sarà la compliance alla «IA Ethics» certificata UE? 4) Etica e politica della IA: la «governance» della IA è necessariamente un «bene»? 5) E gli altri? geopolitica della IA (USA / UE / CINA / Russia / India / Giappone) - Intelligenza naturale (essere umano) / intelligenza artificiale (algoritmo) - Morale individuale / Etica collettiva (singolo Stato) / Etica globale (genere umano) </>
  • 40. 40 (6) Riferimenti Anscombe, G. E. M. 1958. ‘Modern Moral Philosophy’. Philosophy 33 (124): 1–19. Awad, E., S. Dsouza, R. Kim, J. Schulz, J. Henrich, A. Shariff, J. F. Bonnefon E I. Rahwan, The Moral Machine experiment, in «Nature», 563 n. 7729 (2018), pp. 59-64 Bentham, Jeremy. 1776. A Fragment on Government. London: Printed for T. Payne. Contissa, Giuseppe, Francesca Lagioia E Giovanni Sartor, The Ethical Knob: ethically-customisable automated vehicles and the law, in «Artificial intelligence and law», 25 n. 3 (2017), pp. 365-378 Fletcher, Joseph Francis. 1966. Situation Ethics. The New Morality. Philadelphia: Westminster Press. Floridi, Luciano, Pensare l'infosfera. La filosofia come design concettuale, Milano, Cortina, 2020 Floridi, Luciano, The Ethics of Information, Oxford, Oxford University Press, 2013 Foot, Philippa, The problem of abortion and the doctrine of double effect, in «Oxford Review», 5 (1967), pp. 5-15 Habermas, Jürgen. 1981. Theorie des Kommunikativen Handelns. 2 vols. Frankfurt am Main: Suhrkamp Verlag. Kant, Immanuel. 1785. Grundlegung Zur Metaphysik Der Sitten. Riga: Hartknoch. MacIntyre, Alasdair Chalmers. 1980. After Virtue. A Study in Moral Theory. Notre Dame: University of Notre Dame Press. Mill, John Stuart. 1863. Utilitarianism. London: Parker and Bourn. Moore, George Edward. 1903. Principia Ethica. Cambridge: University Press. Nozick, Robert. 1974. Anarchy, State, and Utopia. New York: Basic Books. Rawls, John. 1971. A Theory of Justice. Cambridge: The Belknap. Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible Research and Innovation’. Robotics and Autonomous Systems 86: 152–161. Wallach, Wendell, and Colin. Allen. 2008. Moral Machines. Teaching Robots Right from Wrong. Wiener, Norbert, The Human Use of Human Beings. Cybernetics and Society, Boston, Houghton Mifflin, 1950