1.- Premessa: l’intelligenza artificiale come «pericolo» per l’umanità
2.- La nozione di intelligenza artificiale
3.- L’uso dell’intelligenza artificiale nel diritto
4.- Il problema della «soggettività artificiale»
5.- Conclusioni
1. Tredicesima lezione
La visione “Informatica” del Diritto
(3) Cibernetica di terzo grado:
intelligenza artificiale e soggettività artificiale
Dott. Avv. Federico Costantini
[nome].[cognome]@uniud.it
Dipartimento di Scienze giuridiche
Corso di informatica giuridica
Laurea magistrale in Giurisprudenza
Laurea triennale in Scienze dei Servizi Giuridici Pubblici e Privati
2. Giardini -> Padiglione giapponese
Avviso
le lezioni del 12 novembre 2015 e del 7 dicembre 2015 sono rinviate.
Questo è il calendario delle lezioni dedicate all’approfondimento):
Lezione Data
Rinviata giovedì 12 novembre 2015
14 lunedì 16 novembre 2015
15 giovedì 19 novembre 2015
16 lunedì 23 novembre 2015
17 giovedì 26 novembre 2015
18 lunedì 30 novembre 2015
19 giovedì 3 dicembre 2015
Rinviata lunedì 7 dicembre 2015
20 giovedì 10 dicembre 2015
3. Giardini -> Padiglione giapponese
Sommario lezione odierna
1.- Premessa: l’intelligenza artificiale come «pericolo» per l’umanità
2.- La nozione di intelligenza artificiale
3.- l’uso dell’intelligenza artificiale nel diritto
4.- il problema della «soggettività artificiale»
5.- Conclusioni
4. Cibernetica Informatica giuridica Argomenti trattati
Prima
cibernetica
Sistemi autopoietici “Società dell’informazione” come modello di
convivenza di carattere tecnocratico.
Seconda
cibernetica
Teoria della complessità Giustizia elettronica
Legimatica
Amministrazione digitale
“nichilismo giuridico”
Terza
cibernetica
Soggettività artificiale Intelligenza artificiale e ragionamento
giuridico
Intelligenza artificiale e responsabilità
giuridica.
Soggetto artificiale e sovranità (cenni alla
“guerra cibernetica”)
4
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
5. 5
L’intelligenza artificiale è
un «pericolo per
l’umanità»?
La lezione odierna prende spunto dall’attualità per porre una domanda di fondo.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Alcuni sostengono che lo sia, altri lo negano
6. 6
Alcuni riferimenti prima di iniziare:
- Frankenstein (Mary Shelley 1818);
- Der Golem (romanzo, Gustav Meyrink, 1915)
- Metropolis (film, Frizt Lang, 1927)
- 1984 (romanzo, George Orwell, 1948)
- 2001: A Space Odyssey (film, Stanley Kubrick, 1968)
- Blade Runner (film, Ridley Scott, 1982);
-The Matrix-The Matrix Reloaded-The Matrix Revolutions (film, Wachowski Brothers, 1999-
2003)
Si potrebbe dire che l’intelligenza artificiale non è un
tema rilevante, perché «è solo fantascienza» …
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
7. 7
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Alcuni prendono però molto sul serio l’argomento e sono molto critici sull’uso massiccio di
intelligenza artificiale …
14. Hartnett, Micheal, Creative Disruption: Merrill Lynch, Pierce, Fenner & Smith Incorporated, 2015, p. 12
http://www.bofaml.com/content/dam/boamlimages/documents/articles/D3_006/11511357.pdf
«The limiting case here would be general purpose robots that are effective
substitutes for human labor but at a fraction of the cost. In that case,
widespread unemployment could be an outcome – it depends on whether there
develops a large enough sector in the economy where humans have a
comparative advantage. This could be the arts and entertainment, or personal
care services, or areas that involve deeper analytical thinking that is not
amenable to existing forms of AI. The transitions from agriculture to
manufacturing, and then manufacturing to services, were feared by some to result
in mass unemployment. What happened instead is that some old jobs gradually
disappeared as technological progress supplanted them, while new – often
unanticipated – jobs arose in their place. This was not always ideal for individual
workers, who may have found it very difficult or near impossible to make the kind of
transitions needed to gain new work, but overall neither of these transitions caused
a massive rise in unemployment. The same may well be true for the next
transition».
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
15. 15
Omohundro, Steve. "Autonomous technology and the greater human good." Journal of Experimental
& Theoretical Artificial Intelligence 26, no. 3 (2014/07/03 2014): 303-315.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Alcuni comunque sostengono che tale tecnologia non potrà che portare benefici
17. 17
In realtà anche chi esprime preoccupazione o perplessità,
investe in direzione dello sviluppo dell’intelligenza artificiale,
sostenendo che qualcun altro dovrebbe «fare qualcosa»:
- Elon Musk -> guida automatica delle automobili
- Microsoft -> Cortana
- Google -> Deepmind
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
20. 20
D’altra parte, se considerassimo la questione sotto il profilo
meramente pratico, dovremmo rinunciare all’intelligenza
artificiale… e inaugurare una nuova forma di «luddismo»
http://en.wikipedia.org/wiki/Luddite
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
21. 21
In realtà per entrare nel merito del problema occorre capire cosa sia l’intelligenza artificiale.
Per fare ciò occorre riconoscere che l’argomento non è affatto nuovo e non nasce né con la
fantascienza né con l’informatica.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
22. 22
Occorre approfondire il tema tentando di trovarne le radici della nozione contemporanea di intelligenza
artificiale. Queste radici si trovano in una particolare visione del mondo.
«e così ci sarà un pensatore, che costruirà un
cervello che sappia pensare esattamente».
«und so ein Hirn, das trefflich denken soll, / wird künftig auch ein Denker machen» J.W.
Goethe, Faust II, 1831, atto II, vv. 6869-6870.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Di seguito si forniscono alcuni chiarimenti in ordine a due aspetti
dell’intelligenza artificiale contemporanea:
(1) filosofico
(2) tecnico
23. 23
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Si può sostenere che nella nozione di «intelligenza artificiale» sono compresi quattro diversi temi:
(1) la creazione dell’intelligenza artificiale, ossia il tentativo da parte dell’uomo di creare un oggetto
“pensante”, in modo da rispecchiarsi nel ruolo di Creatore;
(2) il riconoscimento di una soggettività giuridica all’intelligenza artificiale, quindi la attribuzione di
una responsabilità giuridica alla macchina in quanto dotata di “autonomia”;
(3) la configurazione dello Stato come soggetto artificiale tecnologico, in forma di sistema
autopoietico autocosciente;
(4) la partecipazione dell’individuo in una soggettività artificiale universale, surrogato tecnologico di
Dio.
24. 24
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
In questa lezione saranno approfonditi i temi (1), (2) e (3), mentre si può dire che il (4) è
già stato toccato in relazione alla nozione di «infosfera».
(1) la creazione dell’intelligenza artificiale, ossia il tentativo da parte dell’uomo di creare un oggetto
“pensante”, in modo da rispecchiarsi nel ruolo di Creatore;
(2) il riconoscimento di una soggettività giuridica all’intelligenza artificiale, quindi la attribuzione di
una responsabilità giuridica alla macchina in quanto dotata di “autonomia”;
(3) la configurazione dello Stato come soggetto artificiale tecnologico, in forma di sistema
autopoietico autocosciente;
(4) la partecipazione dell’individuo in una soggettività artificiale universale, surrogato tecnologico di
Dio.
25. 25
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Di seguito si distinguono per comodità gli aspetti filosofici da quelli tecnologici.
Un conto è comprendere quali siano le premesse teoretiche, un altro conto è capire come si sia
giunti alla tecnologia attualmente utilizzata.
26. 26
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Le premesse filosofiche dell’intelligenza
artificiale
27. 27
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Cibernetica e «naturalismo»
- natura e «seconda natura»
- cibernetica come sintesi tra estremi apparentemente inconciliabli
naturale / artificiale
biologico / elettronico
classicità / modernità
pensiero / azione
verità / effettività
materiale / immateriale
corpo / anima
hardware / software
filosofia / scienza
28. 28
La tecnologia come «seconda natura» dell’«uomo artificiale»
«l’uomo nuovo nasce, vive e muore in maniera diversa da quella degli altri uomini che
furono prima di lui. Grazie alla fecondazione artificiale, può essere partorito da una
donna rimasta vergine»
Vittorio Frosini, L'uomo artificiale. Etica e diritto nell'era planetaria, L'Alingua (Milano: Spirali,
1986), 8
«L’uomo d’oggi è venuto in possesso di quegli attributi, che nelle favole antiche
sembravano propri ed esclusivi degli esseri soprannaturali: può salire al cielo in
un carro di fuoco, può lanciare il fulmine e provocare un terremoto che distrugga
un’intera città, può assistere a ciò che avviene a distanze remotissime e altri
prodigi, a cui la tecnologia ci rende ormai avvezzi fin dall’infanzia, sicché hanno
perduto il loro carattere prodigioso, la loro dimensione sovrumana rispetto
all’uomo naturale conosciuto da tutte le generazioni precedenti»
Vittorio Frosini, La società tecnologica e i diritti di libertà," in Il diritto nella società tecnologica
(Milano: Giuffrè, 1981), 195.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
29. 29
Ars reminiscendi
memoria artificiale
Ars combinatoria
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Intelligenza artificiale
linguaggio artificiale
30. 30
Ars reminiscendi
memoria artificiale
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
- Ars reminiscendi come «nuova scienza»
rinascimentale
- l’accesso alla memoria artificiale come
conoscenza «magica» (magia naturale)
- memoria artificiale come dimensione
spirituale collettiva
- connessione tra memoria artificiale e
reminiscenza platonica
-> per analogia con il Backup: ‘compressione’,
‘trasferimento’ e ‘decompressione’ della
conoscenza
31. 31
Ars combinatoria
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
linguaggio artificiale
- ars combinatoria come erede dell’Ars
Magna di Raimondo Lullo
- la verità deriva dall’automatismo, che
diventa simbolo di conoscenza inopponibile.
- lo strumento tecnico come oracolo
- l’artificialità del linguaggio come sua
garanzia di purezza e rigore
- la codifica del linguaggio come metafora
della segretezza della conoscenza che viene
trasmessa attraverso di esso.
-> per analogia: la password per conoscere i
segreti dell’universo
32. 32
Ars reminiscendi
memoria artificiale
Ars combinatoria
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Intelligenza artificiale
linguaggio artificiale
33. 33
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
Le premesse tecnologiche
dell’intelligenza artificiale
34. 34
- ORIGINI:
estate del 1956, convegno interdisciplinare Dartmouth Summer Research Project on
Artificial Intelligence, organizzato dalla Fondazione Rockfeller e svoltosi al Dartmouth
College di Hannover, nel New Hampshire, con il contributo della RAND Corporation, della
IBM e di altre corporations.
- NOZIONE:
«insieme di concetti, metodi e strumenti volti alla rappresentazione formale della
conoscenza che si ha su un certo dominio di interesse per derivarne poi logicamente,
mediante inferenza, risposte a quesiti e soluzioni di problemi caratteristici di quel dominio»
Edward Feigenbaum
«scienza che consente di costruire macchine che eseguono compiti che considereremmo
intelligenti se fossero svolti dall’uomo» Marvin Minsky
«studio dei processi computazionali che consentono alle macchine di percepire,
ragionare, agire» P. H. Winston
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
35. 35
«le macchine possono
pensare?»
ALAN MATHISON TURING, Computing
Machinery and Intelligence, in «Mind»
LIX, n. 236 (1950)
Quando le machine possono dirsi
“intellligenti”?
-> test di Turing
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
36. 36
CAPTCHA
"Completely Automated Public Turing test to tell Computers and Humans Apart")
http://www.nucaptcha.com/demo
http://en.wikipedia.org/wiki/CAPTCHA
Le macchine stanno
imparando a superare il TEST
DI TURNNG quindi occorrono
protezioni più elevate.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
38. 38
“Sistemi legali esperti”
(1) RBR - “Rules based reasoning”
-> PROLOG dell’Imperial College.
(2) CBR - “Case Based Reasoning”
-> HYPO dell’Università del Michigan.
(3) teoria dell’argomentazione
-> GREBE di Karl Branting
-> HELIC – II, Tokyo Institute of Technology
Rappresentazione del ragionamento giuridico <-> Metodo <-> Teoria del diritto
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
39. 39
CARNEADE
https://github.com/carneades
(Tom Gordon, Università di Berlino)
Il progetto prevede la formalizzazione
di argomentazioni giuridiche.
A lato, la versione «RAW» di un
argomento di esempio.
https://github.com/carneades/carneade
s-
4/blob/master/examples/AGs/YAML/ba
chelor.yml
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
40. 40
Il problema di fondo dell’applicazione della AI al
diritto è la difficoltà di formalizzazione
Gödel, Kurt, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, in
«Monatshefte für Mathematik», 38 n. 1 (1931), pp. 173-198
-> Kurt Gödel in un breve articolo del 1931
dimostrò - formulando due teoremi - che la
logica non può autofondarsi, o meglio, che
essa non può che essere «incompleta».
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
41. 41
La soggettività giuridica e l’«intelligenza artificiale»
Questo tema può essere affrontato in due modi:
(1) il problema della soggettività giuridica degli
«agenti» dotati di intelligenza artificiale
(2) il problema dello Stato, soggetto giuridico per
eccellenza, concepito come «intelligenza artificiale»
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
42. 42
L’idea che anche l’intelligenza artificiale richieda di essere disciplinata
dal diritto è presente in Isaac Asimov, come è noto:
Le tre “leggi della robotica”:
«(1) Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo
mancato intervento, un essere umano riceva danno.
(2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino
con la Prima Legge.
(3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la
Prima e/o la Seconda Legge».
La “legge zero”
«Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato
intervento, l’umanità riceva danno».
(1) il problema della soggettività giuridica degli «agenti» dotati di intelligenza artificiale
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
43. 43
Problemi:
- cosa si intende per “umanità”?
- cosa è “bene” per l’uomo?
- ciò che è “bene” per l’umanità è bene sempre anche per
l’uomo?
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
44. 44
Applicazioni dell’intelligenza artificiale al diritto:
- mercati finanziari
- web agents
-> il “peculium” del diritto romano come tentativo di
soluzione per affermare una limitata autonomia patrimoniale
negli «agenti»
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
45. 45
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
(2) Lo Stato come «intelligenza artificiale» e la «guerra cibernetica»
46. 46
(Hobbes: Stato = «machina machinarum» -> naturalismo)
«Nature (the art whereby God hath made and governes the world) is by the
art of man, as in many other things, so in this also imitated, that it can make
an Artificial Animal. For seeing life is but a motion of Limbs, the begining
whereof is in some principall part within; why may we not say, that all
Automata (Engines that move themselves by springs and wheeles as doth a
watch) have an artificiall life? For what is the Heart, but a Spring; and the
Nerves, but so many Strings; and the Joynts, but so many Wheeles, giving
motion to the whole Body, such as was intended by the Artificer? Art goes
yet further, imitating that Rationall and most excellent worke of Nature,
Man».
La natura dello “stato cibernetico”
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
47. 47
«Intelligenza artificiale» = “Intelligenza Politica” + “Ragion di Stato”
Condivisione elettronica = libertà + democrazia
«Non si potrebbe dunque più raffigurare lo Stato secondo l’immagine tradizionale di un organismo
vivente (…) esso è oggi inteso come un sistema di relazioni, che possono essere programmate
diversamente sulla base di un sistema di informazioni e di decisioni, come avviene nei sistemi di
automazione informatica» V. Frosini, Riflessi sociali dell’informazione, in AA. VV., Studi in onore di
M.S. Giannini, vol. I, 351, Milano: Giuffrè, 1988
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
48. 48
(1) il controllo totale sui cittadini:
-> N.S.A. (National Security Agency) Untangling the Web: An Introduction to Internet Research, 28
febbraio 2007
(2) la “guerra elettronica”
-> U.S.A., 2010: CYBERCOM;
-> N.A.T.O., 2008: CCD COE -> «Manuale di Tallinn»
-> Italia: D.P.C.M.. 24 gennaio 2013 Direttiva recante indirizzi per la protezione cibernetica e la
sicurezza informatica nazionale (G.U. n. 66 del 19 marzo 2013).
Implicazioni della concezione cibernetica dello Stato
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
50. 50
Art. 2. Definizioni
1. Ai fini del presente decreto si intende per:
[…]
h) spazio cibernetico: l’insieme delle infrastrutture informatiche interconnesse, comprensivo di hardware,
software, dati ed utenti, nonché delle relazioni logiche, comunque stabilite, tra di essi;
i) sicurezza cibernetica: condizione per la quale lo spazio cibernetico risulti protetto grazie all’adozione di idonee
misure di sicurezza fisica, logica e procedurale rispetto ad eventi, di natura volontaria od accidentale, consistenti
nell’acquisizione e nel trasferimento indebiti di dati, nella loro modifica o distruzione illegittima, ovvero nel
danneggiamento, distruzione o blocco del regolare funzionamento delle reti e dei sistemi informativi o dei loro
elementi costitutivi;
l) minaccia cibernetica: complesso delle condotte che possono essere realizzate nello spazio cibernetico o
tramite esso, ovvero in danno dello stesso e dei suoi elementi costitutivi, che si sostanzia in particolare, nelle azioni
di singoli individui o organizzazioni, statuali e non, pubbliche o private, finalizzate all’acquisizione e al trasferimento
indebiti di dati, alla loro modifica o distruzione illegittima, ovvero a danneggiare, distruggere o ostacolare il regolare
funzionamento delle reti e dei sistemi informativi o dei loro elementi costitutivi;
m) evento cibernetico: avvenimento significativo, di natura volontaria od accidentale, consistente nell’acquisizione
e nel trasferimento indebiti di dati, nella loro modifica o distruzione illegittima, ovvero nel danneggiamento,
distruzione o blocco del regolare funzionamento delle reti e dei sistemi informativi o dei loro elementi costitutivi;
[…]
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
51. 51
Art. 11. Operatori privati
1. Gli operatori privati che forniscono reti pubbliche di comunicazione o servizi di comunicazione
elettronica accessibili al pubblico, quelli che gestiscono infrastrutture critiche di rilievo nazionale ed
europeo, il cui funzionamento è condizionato dall’operatività di sistemi informatici e telematici, ivi
comprese quelle individuate ai sensi dell’art. 1, comma 1, lett. d), del decreto del Ministro dell’interno
9 gennaio 2008, secondo quanto previsto dalla normativa vigente, ovvero previa apposita
convenzione:
a) comunicano al Nucleo per la sicurezza cibernetica, anche per il tramite dei soggetti
istituzionalmente competenti a ricevere le relative comunicazioni ai sensi dell’art. 16 -bis , comma 2,
lett. b) , del decreto legislativo n. 259/2003, ogni significativa violazione della sicurezza o dell’integrità
dei propri sistemi informatici, utilizzando canali di trasmissione protetti;
b) adottano le best practices e le misure finalizzate all’obiettivo della sicurezza cibernetica, definite ai
sensi dell’art. 16 -bis , comma 1, lett. a) , del decreto legislativo n. 259/2003, e dell’art. 5, comma 3,
lett. d) , del presente decreto;
c) forniscono informazioni agli organismi di informazione per la sicurezza e consentono ad essi
l’accesso alle banche dati d’interesse ai fini della sicurezza cibernetica di rispettiva pertinenza, nei
casi previsti dalla legge n. 124/2007;
d) collaborano alla gestione delle crisi cibernetiche contribuendo al ripristino della funzionalità dei
sistemi e delle reti da essi gestiti.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
52. 52
Problemi:
- «Killer robots»
- Internet come territorio di guerra e regime degli utenti (combattenti? Civili?
Ostaggi?)
- Utenti come “parte” dello “spazio cibernetico”, concepito in termini
teologici.
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
53. 53
La «singolarità tecnologica» -> l’etica “”planetaria” -> il computronium
Ray Kurzweil, La singolarità è vicina (Milano: Apogeo, 2008).
L’ideologia cibernetica ha come esito che l’uomo possa
un giorno fondersi con l’intelligenza artificiale,
divenendo parte di essa
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
54. 54
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.
http://www.ibtimes.co.uk/boston-dynamics-
unveils-humanoid-atlas-robot-that-can-run-
outdoors-handle-rocky-terrain-1515921
https://www.youtube.com/user/BostonDynamics
https://www.youtube.com/watch?v=M8YjvHYbZ9w
55. 55
TAKE AWAY
(1) per capire cosa è l’intelligenza artificiale occorre domandarsi cosa
sia l’intelligenza e cosa sia l’artificialità. Si tratta di concetti non tecnici
ma filosofici.
(2) per capire se l’intelligenza artificiale sia un pericolo occorre chiedersi
cosa si intende per «umanità». Si tratta di un problema filosofico.
(3) A limitare l’uso dell’intelligenza artificiale non è sufficiente una
prescrizione tecnica o una legge positiva, ma occorre compiere un
discorso molto più ampio
1.- Problema 2.- Nozione 3.- Uso nel diritto 4.- Sogg. Art. 5.- Concl.