Intervento al Webinar "Intelligenza Artificiale. Sfide, Opportunità ed Insidie", 6 novembre 2020, organizzato dal Comitato Italiano Ingegneria dell’Informazione, Consiglio Nazionale Ingegneri
NETWORK ANALYSIS AND «PREDICTIVE POLICING»: TOWARDS A «PROFILING SOCIETY»?
L’ETICA COME “DESIGN” NELL’INTELLIGENZA ARTIFICIALE
1. 1
Prof. Aggr. FEDERICO COSTANTINI
UNIUD / DISG
INTELLIGENZA ARTIFICIALE. SFIDE, OPPORTUNITÀ ED INSIDIE
L’ETICA COME “DESIGN”
NELL’INTELLIGENZA ARTIFICIALE
VENERDÌ 6 NOVEMBRE 2020, ore 15.00 – 18.00
WEBINAR
2. 2
Sommario
(1) Introduzione
Leggi di Asimov / Fantascienza = Engineering ethics / Realtà
(2) Diversi approcci all’etica
L’esempio del "Trolley problem” nei veicoli a guida autonoma
(3) I principali documenti in tema di Etica e AI
In particolare: Ethics Guidelines for Trustworthy AI (Unione Europea)
(4) Ethical design nel concreto
Novità dal Parlamento Europeo (20 ottobre 2020)
(5) Conclusioni
Sintesi e valutazioni finali
(6) Riferimenti
Bibliografia essenziale per approfondimento
</>
4. 4
(1) Introduzione
Un immancabile riferimento, per quanto evocativo,
che rimane ancora letterario: le tre (quattro) «leggi
della robotica»
0-. Un robot non può recare danno all'umanità, né può
permettere che, a causa del proprio mancato intervento,
l'umanità riceva danno.
1.- Un robot non può recar danno a un essere umano
né può permettere che, a causa del proprio mancato
intervento, un essere umano riceva danno. Purché
questo non contrasti con la Legge Zero
2.- Un robot deve obbedire agli ordini impartiti dagli
esseri umani, purché tali ordini non contravvengano alla
Legge Zero e alla Prima Legge.
3.- Un robot deve proteggere la propria esistenza,
purché questa autodifesa non contrasti con la Legge
Zero, la Prima Legge e la Seconda Legge.
https://www.wired.it/play/libri/20
20/01/02/isaac-asimov-padri-
fantascienza/
Isaac Asimov (1920 - 1992)
5. 5
(1) Introduzione
… per una impostazione realistica: un
monito a non eludere il problema della
responsabilità morale degli inventori:
“[…] to throw the problem of his
responsibility on the machine, whether it
can learn or not, is to cast his
responsibility to the winds, and to find it
coming back seated on the whirlwind.”
Wiener, Norbert, The Human Use of Human Beings.
Cybernetics and Society, Boston, Houghton Mifflin,
1950
https://it.wikipedia.org/wiki
/Norbert_Wiener
Norbert Wiener (1894 - 1964)
6. 6
(1) Introduzione
Il problema del rimorso …
We knew the world would not be the
same. A few people laughed, a few
people cried, most people were
silent. I remembered the line from
the Hindu scripture, the Bhagavad-
Gita: Vishnu is trying to persuade
the Prince that he should do his
duty and, to impress him, takes on
his multi-armed form and says,
"Now I am become Death, the
destroyer of worlds." I suppose
we all thought that, one way or
another.
https://en.wikiquote.org/wiki/Robert_Oppenheimer#/media/File:Tri
nity_Test_-
_Oppenheimer_and_Groves_at_Ground_Zero_001.jpg
Julius Robert Oppenheimer (1904–1967) - Trinity Test (Manhattan Project) </>
7. 7
(2) Diversi approcci all’etica
L’esempio del "Trolley problem” nei veicoli a guida
autonoma
9. 9
(2) Diversi approcci all’etica
Rivisitazione del dilemma con riferimento alle «smart cars» (livello 5 SAE J3016)
AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF,
J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in
«Nature», 563 n. 7729 (2018), pp. 59-64
The «moral Machine» EXPERIMENT
Nine factors:
sparing humans (versus pets), J
staying on course (versus swerving),
sparing passengers (versus pedestrians),
Sparing more lives (versus fewer lives),
sparing men (versus women),
Sparing the young (versus the elderly),
sparing pedestrians who cross legally (versus
jaywalking),
sparing the fit (versus the less fit),
sparing those with higher social status (versus
lower social status).
39.61 million decisions
from 233 countries, dependencies, or territories
http://moralmachine.mit.edu/
10. 10
(2) Diversi approcci all’etica
Formalizzazione del problema etico
CONTISSA, GIUSEPPE, FRANCESCA LAGIOIA E
GIOVANNI SARTOR, The Ethical Knob: ethically-
customisable automated vehicles and the law, in
«Artificial intelligence and law», 25 n. 3 (2017), pp.
365-378
11. 11
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi aspetti:
1.- Costruzione del problema
«Etica» (visione ecosistemica, cosmologica, collettiva)
«Morale» (impostazione sistemica, individualistica, singolare)
2.- Livelli di complessità (riformulazione contemporanea)
«meta-etica» (studio del fondamento, limiti e significato delle regole morali),
«etica normativa» (studio di cosa è «bene» o «male»),
«etica applicata» (cosa è «giusto» o «sbagliato» in un contesto) -> es: bioetica
3.- A seconda del punto di partenza dell’analisi
Agente (virtù) / Azione (normativismo) / Conseguenze (utilitarismo)
4.- rivisitazione in chiave informatica
Etica dell’informazione (Bene = informazione / Male = entropia)
12. 12
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
1.- Diversa costruzione del problema:
«Etica» (visione ecosistemica, cosmologica, collettiva)
vs.
«Morale» (impostazione sistemica, individualistica, singolare)
13. 13
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
2.- Diversi livelli di complessità (riformulazione
contemporanea)
«meta-etica» (studio del fondamento, limiti e significato delle regole morali)
«etica normativa» (studio di cosa è «bene» o «male»)
«etica applicata» (studio di cosa è «giusto» o «sbagliato» in un determinato
contesto) -> es: bioetica
14. 14
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.1.- L’agente
problema: quando l’agente è «buono»?
implicazione: è «bene» qualsiasi cosa faccia l’agente buono (a prescindere
dall’azione e dalle conseguenze)
Impostazione: «etica della virtù» (Anscombe, 1958; MacIntyre, 1980)
15. 15
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.2- L’azione
problema: quando l’azione è «buona»?
implicazione: è «bene» qualsiasi azione sia intrinsecamente buona (a prescindere dalle
intenzioni e dalle conseguenze)
Impostazione: «etica deontologica»
- Matrice cealistica -> «etica della virtù» tradizionale (basata sull’ordine naturale)
- Matrice costruttivistica -> etica moderna, basata su un sistema alternativo:
- Natura razionale dell’uomo (Kant, 1785),
- Agire comunicativo (Habermas, 1981),
- Formalizzazione dell’equilibrio sociale («maximin» + «velo di ignoranza») (Rawls,
1971),
- Principio astratto di libertà individuale (Nozick, 1974).
16. 16
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
3.- Diversa impostazione del problema a seconda del
punto di partenza:
3.3- Le conseguenze
Problema: quando le conseguenze sono «buone»?
Implicazione: se è «bene» una conseguenza, lo è a prescindere dalle intenzioni
dell’agente e dal valore o disvalore intrinseco dell’azione
Impostazione: la valutazione delle conseguenze dipende:
- Dal contesto o «situazione» (Fletcher, 1966),
- Dal risultato ottenuto:
- Consequenzialismo
- Utilitarismo “the greatest happiness of the greatest number that is the measure of
right and wrong” (Bentham, 1776, Mill, 1863).
- Average / Total …
17. 17
(2) Diversi approcci all’etica
In realtà le cose non sono così semplici, perché ci sono diversi problemi:
5.- Rivisitazione del problema in chiave informatica:
«Etica dell’informazione»
- Bene = organizzazione, informazione
- Male = disorganizzazione, entropia
18. 18
(2) Diversi approcci all’etica
Insomma:
La formalizzazione delle questioni etiche (es: veicoli a guida autonoma) è possibile
rispetto all’approccio utilitarista, in cui si assume che i valori etici siano misurabili e
quindi «calcolabili». Ma questa è solo una delle impostazioni.
E comunque anch’essa presenta le sue difficoltà applicative (es: differenze
culturali).
AWAD, E., S. DSOUZA, R. KIM, J. SCHULZ, J. HENRICH, A. SHARIFF, J. F. BONNEFON E I. RAHWAN, The Moral Machine experiment, in
«Nature», 563 n. 7729 (2018), pp. 59-64
</>
19. 19
(3) I principali documenti in tema
di Etica e AI
In particolare: Ethics Guidelines for Trustworthy AI (UE)
20. 20
(3) I principali documenti in tema di Etica e AI
Alcuni documenti notevoli
- 2017 Asilomar AI, https://futureoflife.org/ai-principles/
- 2018 EGE (European Group on Ethics in Science and New Technologies), Statement on
Artificial Intelligence, Robotics and ‘Autonomous’ Systems
https://ec.europa.eu/info/research-and-innovation/strategy/support-policy-making/scientific-
support-eu-policies/ege_en
- 2019 (IEEE) Ethically Aligned Design (v.1 / v.2) https://ethicsinaction.ieee.org/
- 2019 (8 aprile) (AI HLEG- UE) Ethics Guidelines for Trustworthy AI
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
- 2019 (19 giugno) (AI HLEG- UE) Policy and investment recommendations for trustworthy
Artificial Intelligence https://ec.europa.eu/digital-single-market/en/news/policy-and-
investment-recommendations-trustworthy-artificial-intelligence
- 2020 (17 luglio) EU White Paper on Artificial Intelligence
https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-
excellence-and-trust_en
CFR: https://futurium.ec.europa.eu/en/content/official-documents-and-reports
21. 21
(3) I principali documenti in tema di Etica e AI
2019 (IEEE) Ethically Aligned Design (v.1)
1. Human Rights A/IS shall be created and operated to respect, promote, and protect
internationally recognized human rights.
2. Well-being A/IS creators shall adopt increased human well-being as a primary success
criterion for development.
3. Data Agency A/IS creators shall empower individuals with the ability to access and
securely share their data, to maintain people’s capacity to have control over their identity.
4. Effectiveness A/IS creators and operators shall provide evidence of the effectiveness
and fitness for purpose of A/IS.
5. Transparency The basis of a particular A/IS decision should always be discoverable.
6. Accountability A/IS shall be created and operated to provide an unambiguous rationale
for all decisions made.
7. Awareness of Misuse A/IS creators shall guard against all potential misuses and risks
of A/IS in operation.
8. Competence A/IS creators shall specify and operators shall adhere to the knowledge
and skill required for safe and effective operation.
22. 22
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
23. 23
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Componenti della IA «affidabile»:
«tre componenti che dovrebbero essere presenti
durante l'intero ciclo di vita del sistema:
a) legalità, l'IA deve ottemperare a tutte le leggi e ai
regolamenti applicabili,
b) eticità, l'IA deve assicurare l'adesione a principi e
valori etici, e
c) robustezza, dal punto di vista tecnico e sociale
poiché, anche con le migliori intenzioni, i sistemi di
IA possono causare danni non intenzionali»
24. 24
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Principi etici:
1.Rispetto dell’autonomia umana
2.Prevenzione dei danni
3.Equità
4.Esplicabilità
25. 25
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
Requisiti fondamentali
1. Intervento e sorveglianza umani
2. Robustezza tecnica e sicurezza
3. Riservatezza e governance dei dati
4. Trasparenza
5. Diversità, non discriminazione, equità
6. Benessere sociale e ambientale
7. Accountability
26. 26
(3) I principali documenti in tema di Etica e AI
https://ec.europa.eu/digital-
single-market/en/news/ethics-
guidelines-trustworthy-ai
La valutazione è un processo continuo
</>
28. 28
(4) Ethical design nel concreto
L’idea del «DESIGN» come «creazione di artefatti», ovvero l’attività umana
concepita come sintesi tra
- Teoria / pratica
- Contemplazione / operatività
- Idealismo / materialismo
La pratica del «design»: un esempio ormai celebre
- Privacy by design (Ann Kavourkian)
- GDPR art. 25 Privacy by design / by default
- Guidelines 4/2019 on Article 25 Data Protection by Design and by Default
Version 2.0 Adopted on 20 October 2020
29. 29
(4) Ethical design nel concreto
Testi approvati dal Parlamento Europeo nella seduta del 20 ottobre 2020
- TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate
-> Proposta di Regolamento
- TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
- TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di
intelligenza artificiale
-> Risoluzione
https://www.europarl.europa.eu/doceo/document/TA-9-2020-10-20-TOC_IT.html
30. 30
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
IA / R / TC
«Alto Rischio»
Definizione Art. 4 e), Valutazione art. 14(1) "alto rischio"
rischio
- Significativo
- associato allo sviluppo, alla diffusione e all'utilizzo […]
- di causare lesioni o danni
- a individui o società
- in violazione delle
- norme in materia di diritti fondamentali
- e sicurezza stabilite dal diritto dell'Unione,
- in considerazione del
- loro utilizzo o della loro finalità specifici,
- del settore nel quale sono sviluppate, diffuse o
utilizzate
- e della gravità della lesione o del danno che ci si può
attendere
IA / R / TC
*comuni*
Elenco Allegato al Regolamento
«esaustivo e cumulativo»
Utilizzi o finalità ad alto rischio
Assunzione
Valutazione degli studenti e
assegnazione di voti
Stanziamento di fondi pubblici
Concessione di prestiti
[…]
Settori ad alto rischio
Occupazione
Istruzione
Assistenza sanitaria
Trasporti
Energia
[…]
Autorità
Nazionale
di
controllo
(art. 18)
31. 31
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
IA / R / TC
«Alto Rischio»
art. 5
Principi etici
Rispetto principi art.
5 (art. 6)
IA / R / TC
«comuni»
Requisiti ulteriori
- Art. 7 controllo umano
- Art. 8 trasparenza
- Art. 9 assenza bias
- Art. 10 gender balance
- Art. 11 Ambiente
- Art. 12 Privacy
- Art. 13 Ricorso
Valutazione
di
conformità
(art. 15)
Certificato
europeo di
Conformità Etica
(art. 16)
«CECE»(!?)
Facoltà
art. 16(2)
32. 32
(4) Ethical design nel concreto
TA(2020)0275 Quadro relativo agli aspetti etici dell'intelligenza artificiale, della
robotica e delle tecnologie correlate -> Proposta di Regolamento
N.B. «compresi software, algoritmi e dati utilizzati o prodotti [….]»
Norme ulteriori:
- Art. 17(3) controllo e monitoraggio sulla «qualità» dei dati provenienti da fonti
esterne da parte di «sviluppatori, operatori e utenti»
- Art. 17(4) conformità a «protocolli industriali e commerciali»
- Art. 18 autorità di controllo «Garante» nazionale per segnalazioni e vigilanza
33. 33
(4) Ethical design nel concreto
TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
Definizione Art. 3 c) "alto rischio"
Un potenziale significativo
- in un sistema di IA che opera in modo autonomo
- di causare danni o pregiudizi
- a una o più persone
- in modo casuale e che va oltre quanto ci si possa
ragionevolmente aspettare;
L'importanza del potenziale dipende
- dall'interazione tra la gravità dei possibili danni o pregiudizi,
- dal grado di autonomia decisionale,
- dalla probabilità che il rischio si concretizzi
- dalla modalità e dal contesto di utilizzo del sistema di IA;
Definizione diversa !!!
IA / R / TC
«Alto Rischio»
Responsabilità
oggettiva
Valutazione sul
tipo di
responsabilità
civile
IA / R / TC
*comuni*
Presunzione di
colpa
Elenco Allegato al Regolamento
[ancora «in bianco»]
34. 34
(4) Ethical design nel concreto
TA(2020)0276 Regime di responsabilità civile per l'intelligenza artificiale
-> Proposta di Regolamento
IA / R / TC
«Alto Rischio»
IA / R / TC
*comuni*
Presunta colpa
Mero fatto
illecito
Fondamento della
responsabilità
(salva forza
maggiore)
Esimente
Dimostrazione contraria (art. 8()2)) 2 ipotesi
a) Attivato nonostante misure adottate […]
b) Aggiornamenti e manutenzione
Assicurazione
obbligatoria
Prescrizione del
diritto al risarcimento
Ordinaria (legge
dello Stato, es: 5
anni art. 2043 CC)
Speciale: 10
anni / 30 anni
(art. 7)
35. 35
(4) Ethical design nel concreto
TA(2020)0277 Diritti di proprietà intellettuale per lo sviluppo di tecnologie di
intelligenza artificiale -> Risoluzione
In sintesi:
- I sistemi di IA, per quanto evoluti, non avranno personalità
giuridica
- Differenza tra creazioni umane realizzate attraverso IA e
creazioni generate autonomamente dalla IA: nel primo caso la
disciplina rimane quella esistente, nel secondo dovrebbe essere
diversa (ma analoga)
- Il principio di originalità si riferisce all’inventiva umana
- Il concetto di creazione intellettuale si riferisce alla persona
- Possibile revisione della direttiva sulle banche dati (!)
36. 36
(4) Ethical design nel concreto
Un esempio di Responsible Research Innovation nel settore della sanità)
Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible Research and Innovation’.
Robotics and Autonomous Systems 86: 152–161, p. 158
</>
38. 38
(5) Conclusioni
TAKE AWAY
1) Dove sono finiti il «bene» e il «male»? Etica (fantascienza) / metaetica (realtà)?
2) Quella che chiamiamo «etica» è in fondo «qualità» (da Robert Pirsig agli standard
ISO, alla certificazione «etica»)?
3) Dopo la «accountability» del GDPR, come sarà la compliance alla «IA Ethics»
certificata UE?
4) Etica e politica della IA: la «governance» della IA è necessariamente un «bene»?
5) E gli altri? geopolitica della IA (USA / UE / CINA / Russia / India / Giappone)
- Intelligenza naturale (essere umano) / intelligenza artificiale (algoritmo)
- Morale individuale / Etica collettiva (singolo Stato) / Etica globale (genere umano)
</>
40. 40
(6) Riferimenti
Anscombe, G. E. M. 1958. ‘Modern Moral Philosophy’. Philosophy 33 (124): 1–19.
Awad, E., S. Dsouza, R. Kim, J. Schulz, J. Henrich, A. Shariff, J. F. Bonnefon E I. Rahwan, The Moral Machine
experiment, in «Nature», 563 n. 7729 (2018), pp. 59-64
Bentham, Jeremy. 1776. A Fragment on Government. London: Printed for T. Payne.
Contissa, Giuseppe, Francesca Lagioia E Giovanni Sartor, The Ethical Knob: ethically-customisable automated
vehicles and the law, in «Artificial intelligence and law», 25 n. 3 (2017), pp. 365-378
Fletcher, Joseph Francis. 1966. Situation Ethics. The New Morality. Philadelphia: Westminster Press.
Floridi, Luciano, Pensare l'infosfera. La filosofia come design concettuale, Milano, Cortina, 2020
Floridi, Luciano, The Ethics of Information, Oxford, Oxford University Press, 2013
Foot, Philippa, The problem of abortion and the doctrine of double effect, in «Oxford Review», 5 (1967), pp. 5-15
Habermas, Jürgen. 1981. Theorie des Kommunikativen Handelns. 2 vols. Frankfurt am Main: Suhrkamp Verlag.
Kant, Immanuel. 1785. Grundlegung Zur Metaphysik Der Sitten. Riga: Hartknoch.
MacIntyre, Alasdair Chalmers. 1980. After Virtue. A Study in Moral Theory. Notre Dame: University of Notre Dame
Press.
Mill, John Stuart. 1863. Utilitarianism. London: Parker and Bourn.
Moore, George Edward. 1903. Principia Ethica. Cambridge: University Press.
Nozick, Robert. 1974. Anarchy, State, and Utopia. New York: Basic Books.
Rawls, John. 1971. A Theory of Justice. Cambridge: The Belknap.
Stahl, Bernd Carsten, and Mark Coeckelbergh. 2016. ‘Ethics of Healthcare Robotics: Towards Responsible
Research and Innovation’. Robotics and Autonomous Systems 86: 152–161.
Wallach, Wendell, and Colin. Allen. 2008. Moral Machines. Teaching Robots Right from Wrong.
Wiener, Norbert, The Human Use of Human Beings. Cybernetics and Society, Boston, Houghton Mifflin, 1950