Intelligenza artificiale tra fantascienza e realtàMarco Bresciani
Star Trek Italian Club - STICCon 2007
2007-05-25 - Conferenza scientifico-divulgativa tenuta con Ing. Mario Arrigoni Neri, Politecnico di Milano, Dipartimento di Elettronica e Informazione, Sezione Intelligenza Artificiale.
http://www.novasemantics.it/attach/Pubblicazioni/STICCON07.pdf
Intelligenza artificiale tra fantascienza e realtàMarco Bresciani
Star Trek Italian Club - STICCon 2007
2007-05-25 - Conferenza scientifico-divulgativa tenuta con Ing. Mario Arrigoni Neri, Politecnico di Milano, Dipartimento di Elettronica e Informazione, Sezione Intelligenza Artificiale.
http://www.novasemantics.it/attach/Pubblicazioni/STICCON07.pdf
Intelligenza artificiale applicata al diritto ed alla giustiziaEdoardo E. Artese
L'intelligenza artificiale è in costante evoluzione, in particolare con le moderne tecniche di machine learning. Dopo un rapido excursus sulla storia dell'intelligenza artificiale, si intende analizzare come una sistema che possa applicarsi a profili giuridici: non solo fornendo un aiuto nella gestione della giustizia e del mondo che ruota attorno ad essa (dai Tribunali agli Studi legali), ma spingendosi oltre, fino ad intervenire nelle fasi decisionali e valutative.
***
A.I. is constantly developing, especially with the new technique of
We started with a little"excursus" about the history of A.I. and after we focused on the application on law and justice.
Intelligenza Artificiale e Robotica - Applicazioni industriali e responsabili...Edoardo E. Artese
Le slide sono state proiettate durante il workshop a SMAU Padova 2019. L'intelligenza artificiale è un argomento sempre più sentito in ambito industriale e produttivo. Dopo una breve introduzione dello stato attuale dell'intelligenza artificiale e delle sue recenti evoluzioni, sono state analizzate le sue applicazioni in ambito industriale, concludendo dunque con una analisi giuridica dell'Intelligenza artificiale, con specifico riferimento alla responsabilità del produttore.
Sara Sisti, Freelance AI & Software Developer, Artist – “AI as a Medium: Nuov...Associazione Digital Days
L’Intelligenza Artificiale sta emergendo come un nuovo medium artistico, con la promessa di potenziare la creatività umana attraverso l’interazione con la tecnologia. In questa presentazione, analizzeremo il ruolo rivoluzionario dell’IA nel processo creativo ed esploreremo le nuove frontiere dell’espressione artistica e del design contemporaneo aperte da questo strumento.
Intelligenza artificiale applicata al diritto ed alla giustiziaEdoardo E. Artese
L'intelligenza artificiale è in costante evoluzione, in particolare con le moderne tecniche di machine learning. Dopo un rapido excursus sulla storia dell'intelligenza artificiale, si intende analizzare come una sistema che possa applicarsi a profili giuridici: non solo fornendo un aiuto nella gestione della giustizia e del mondo che ruota attorno ad essa (dai Tribunali agli Studi legali), ma spingendosi oltre, fino ad intervenire nelle fasi decisionali e valutative.
***
A.I. is constantly developing, especially with the new technique of
We started with a little"excursus" about the history of A.I. and after we focused on the application on law and justice.
Intelligenza Artificiale e Robotica - Applicazioni industriali e responsabili...Edoardo E. Artese
Le slide sono state proiettate durante il workshop a SMAU Padova 2019. L'intelligenza artificiale è un argomento sempre più sentito in ambito industriale e produttivo. Dopo una breve introduzione dello stato attuale dell'intelligenza artificiale e delle sue recenti evoluzioni, sono state analizzate le sue applicazioni in ambito industriale, concludendo dunque con una analisi giuridica dell'Intelligenza artificiale, con specifico riferimento alla responsabilità del produttore.
Sara Sisti, Freelance AI & Software Developer, Artist – “AI as a Medium: Nuov...Associazione Digital Days
L’Intelligenza Artificiale sta emergendo come un nuovo medium artistico, con la promessa di potenziare la creatività umana attraverso l’interazione con la tecnologia. In questa presentazione, analizzeremo il ruolo rivoluzionario dell’IA nel processo creativo ed esploreremo le nuove frontiere dell’espressione artistica e del design contemporaneo aperte da questo strumento.
2. IA: FORTE E
DEBOLE
● IA: DEFINIZIONE
● IA: FUNZIONAMENTO
● IA: OBIETTIVO
IA =DEFINIZIONE
L’abilità di un sistema tecnologico di risolvere
problemi o svolgere compiti e attività tipici della
mente e dell’abilità umane,seguendo opportuni
modelli.
IA =FUNZIONAMENTO
● avvicinare il funzionamento dei computer alle
capacità dell'intelligenza umana
● usa le simulazioni informatiche per fare ipotesi
sui meccanismi utilizzati dalla mente umana.
IA =OBIETTIVO
Comprendere e riprodurre (o emulare) l'intelligenza
umana attraverso l’apprendimento automatico
.
3. IA: FORTE E
DEBOLE
● IA = SCIENZA + INGEGNERIA
● IA: FORTE E DEBOLE
IA = SCIENZA + INGEGNERIA
● SCIENZA: formulare modelli oggettivi e
rigorosi e ottenere conferme
sperimentali
● INGEGNERIA: macchine prestazioni che
emulano comportamenti umani
IA = FORTE E DEBOLE
● IA FORTE: convinzione che le macchine
possano effettivamente essere
intelligenti.
● IA DEBOLE: convinzione che le macchine
possano comportarsi come se fossero
intelligenti.
4. IA: STORIA
● Nel 1956 per la prima volta John
McCarthny usò l’espressione “Artificial
intelligence”.
● Erone di Alessandria: primi automi
semoventi basati su meccanismi idraulici e
pneumatici.
● Raimondo Lullo: Ars Magna che permette
di ottenere una mappa universale dei
concetti.
● Leibniz: logica usata per ridurre il
ragionamento a una sorta di algebra del
pensiero.
● Cibernetica: studia i meccanismi con cui
uomini comunicano con l'ambiente esterno
● McCulloch & Pitts: propongono il primo
modello di neuroni artificiali.
● Verso la metà degli anni '80 si inizia a
parlare di reti neurali.
5. IA: AREE DI
APPLICAZIONE
● Pianificazione e schedulazioni autonome:
monitorare l'esecuzione del piano per
raggiungere un obiettivo.
● Pianificazione logistica: Sviluppo di tecniche
di pianificazione logistica
● Controllo autonomo: Controllo di veicoli in
movimento senza l'intervento dell'uomo.
● Giochi: Lo studio dei giochi ha determinato lo
sviluppo di numerose tecniche
● Programmazione automatica: costruire
sistemi che riescano a generare
automaticamente il programma desiderato.
● Comprensione del linguaggio naturale: In
questo campo non si sono ancora raggiunti
risultati tecnologicamente rilevanti.
6. IA: AREE DI
APPLICAZIONE
● Robotica: Campo in grande espansione. Si
articola in due aree: manipolazione e
navigazione
● BOT INFORMATICO: macchina che fa il
lavoro di un uomo.
● Sistemi esperti: Sono programmi informatici
in grado di risolvere problemi complessi
● Dimostrazione dei teoremi matematici: L'IA
viene utilizzata per la ricerca e la prova di
nuovi teoremi di aritmetica, geometria,
logica o meccanica.
● Domotica: l'area che si interessa dello
studio e della realizzazione della "casa
intelligente".
7. IA: SEI UN
UMANO?
● IA: CARATTERISTICHE
● IA: TEST DI TOURING
IA = CARATTERISTICHE:
Un computer per essere considerato umano deve:
● Interpretare il linguaggio umano
● Rappresentare le conoscenze
● Ragionare automaticamente
● Apprendere
IA = TEST DI TOURING:
metodo di verifica
dell'intelligenza artificiale
8. IA: SEI UN
UMANO?
● IA: CAPTCHA
● IA: STANZA CINESE DI SEARLE
IA =CAPTCHA
Test immaginato da Turing che sfrutta la peculiarità
del cervello umano di riconoscere
ISTANTANEAMENTE simboli.
IA =LA STANZA CINESE DI SEARLE
Ipotizza una stanza dove si inseriscono testi scritti in
una lingua e dalla quale escono gli stessi testi
tradotti in un'altra lingua.
9. IA:
INFORMATICA
E ROBOTICA
● IA: INFORMATICA E ROBOTICA
IA: INFORMAZIONE E ROBOTICA
● Computer: rappresentare la capacità
dell'intelligenza umana nel risolvere problemi
matematici e logici.
● Robot: rappresentare la facoltà dell'intelligenza
umana di interagire con la realtà.
10. IA:
INFORMATICA
E ROBOTICA
● IA: ELABORAZIONE
DELL’INFORMAZIONE
● IA: ATTUATORI E SENSORI
IA: ELABORAZIONE
DELL’INFORMAZIONE
Ci sono tre tipi di elaborazione
dell'informazione:
1. l'esecuzione di algoritmi
2. la gestione di dati
3. la risoluzione di problemi
IA: ATTUATORI E SENSORI
● Sistema degli Attuatori: interfaccia di
interazione in uscita dal robot verso il
mondo.
● Sistema dei Sensori: interfaccia di
interazione in entrata nel robot dal mondo.
11. IA: I FILM
● IA: MATRIX
IA: MATRIX
Il Grande Fratello ha trasformato il mondo in un
universo virtuale grazie al gigantesco computer
Matrix. Thomas Anderson si aggrega a un gruppo
di resistenti il cui capo Morpheus crede di avere
riconosciuto in lui l'Eletto, destinato a svegliare
l'umanità dal sonno cibernetico.
12. IA: I FILM
● IA: HER
IA: HER
Il film descrive un futuro nel quale i computer
hanno un ruolo di primissimo piano nella vita
delle persone. Tuttavia l’uscita sul mercato di
un nuovo sistema operativo provvisto di
intelligenza artificiale,
rivoluziona il rapporto
con la tecnologia.
Il protagonista inizia a
sviluppare con essa una
relazione complessa oltre
ogni immaginazione.
definizione
Cos’è l’Intelligenza Artificiale? In modo semplicistico potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – Artificial Intelligence come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.).
Il fermento attuale attorno a questa disciplina si spiega con la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics).
L’interesse della comunità scientifica per l’Intelligenza Artificiale ha inizio però da molto lontano: il primo vero progetto di Artificial Intelligence (ormai nota con l’acronimo AI) risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificialecui seguì poi nel 1949 il libro di Donald Olding Hebb, psicologo canadese, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. I primi prototipi funzionanti di reti neurali [cioè modelli matematici/informatici sviluppati per riprodurre il funzionamento dei neuroni biologici per risolvere problemi di intelligenza artificiale intesa, in quegli anni, come la capacità di una macchina di compiere funzioni e fare ragionamenti come una mente umana – ndr] arrivarono poi verso la fine degli anni ’50 e l’interesse del pubblico si fece maggiore grazie al giovane Alan Turing che già nel 1950 cercava di spiegare come un computer possa comportarsi come un essere umano.
Il termine Artificial Intelligence in realtà parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Da lì in poi la storia dell’Intelligenza Artificiale è stata abbastanza altalenante caratterizzata da avanzate significative dal punto di vista dei modelli matematici (sempre più sofisticati modellati per “imitare” alcune funzionalità cerebrali come il riconoscimento di pattern) ma con alti e bassi dal punto di vista della ricerca sull’hardware e sulle reti neurali. La prima grande svolta su quest’ultimo fronte è arrivata negli anni ’90 con l’ingresso sul mercato “allargato” (arrivando cioè al grande pubblico) dei processori grafici, le Gpu – graphics processing unit (chip di elaborazione dati molto più veloci delle Cpu, provenienti dal mondo del gaming ed in grado di supportare processi complessi molto più rapidamente, per altro operando a frequenze più basse e consumando meno energia rispetto alle “vecchie” Cpu).
L’ondata più recente è arrivata nell’ultimo decennio con lo sviluppo dei cosiddetti “chip neuromorfici”, ossia microchip che integrano elaborazione dati e storage in un unico micro componente (grazie all’accelerazione che ha avuto anche la ricerca nel campo delle nanotecnologie) per emulare le funzioni sensoriali e cognitive del cervello umano (ambito quest’ultimo dove si stanno concentrando anche molte startup).
Dalle reti neurali degli anni ’50 ad oggi
Guardando un po’ alla storia passata, è alla fine degli anni ’50 che risale il primo modello di rete neurale: si trattava del cosiddetto “percettrone”, proposto nel 1958 da Frank Rosenblatt (noto psicologo e computer scientist americano), una rete con uno strato di ingresso ed uno di uscita ed una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’ (minimizzazione degli errori); la funzione matematica, in sostanza, in base alla valutazione sui dati effettivi in uscita – rispetto ad un dato ingresso – altera i pesi delle connessioni (sinapsi) provocando una differenza tra l’uscita effettiva e quella desiderata. Alcuni esperti del settore fanno risalire proprio al percettrone di Rosenblatt la nascita della cibernetica e dell’Intelligenza Artificiale [Artificial Intelligence – AI: il termine in realtà fu coniato nel 1956 dal matematico statunitense John McCarthy, ed è del 1950 il primo assunto di Alan Turing nel quale spiega come un computer possa comportasri come un essere umano – ndr], anche se negli anni immediatamente successivi i due matematici Marvin Minsky e Seymour Papert dimostrarono i limiti del modello di rete neurale di Rosenblatt: il percettrone era in grado di riconoscere, dopo opportuno “addestramento” solo funzioni linearmente separabili (attraverso il training set – l’algoritmo di apprendimento – nello spazio vettoriale degli input, si riescono a separare quelli che richiedono un output positivo da quelli che richiedono un output negativo); inoltre, le capacità computazionali di un singolo percettrone erano limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali ‘modificare’ le sinapsi e quindi gli output. I due matematici Minsky e Papert intuirono che costruire una rete a più livelli di percettroni avrebbe potuto risolvere problemi più complessi ma in quegli anni la crescente complessità computazionale richiesta dall’addestramento delle reti mediante gli algoritmi non aveva ancora trovato una risposta sul piano infrastrutturale (non esistevano sistemi hardware in grado di ‘reggere’ tali operazioni).
La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti, abbassandoli di 10/20 volte.