Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Intelligenza Artificiale: come la vede il Prof. Hofmann

161 views

Published on

Come sempre, un punto di vista multidisciplinare, che va al di là della tecnologia approdando ad una visione più complessa e completa

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Intelligenza Artificiale: come la vede il Prof. Hofmann

  1. 1. Intervista al Prof. Ernesto Hofmann INTELLIGENZA ARTIFICIALE
  2. 2. Marzia Murè: Professor Hofmann, parafrasando Marx potremmo dire che un argomento spinoso si aggira per l’IT e non solo: l’Intelligenza Artificiale infatti sta suscitando Discussioni, polemiche e timori. A suo avviso quanto giustificati? Ernesto Hofmann: L'intelligenza artificiale è divenuta in questi ultimi anni uno dei temi più caldi dell'evoluzione della tecnologia. Si sono anche levate diverse grida di allarme a fronte della possibilità che l'uomo ne possa venire persino sopraffatto. Ora cercherò di mettere in luce alcuni aspetti che potrebbero aiutare per una migliore comprensione di quanto sta accadendo. Innanzitutto la parola stessa "intelligenza" è quanto mai sfuggente. Per quello che si indica genericamente con intelligenza non esiste in realtà un'entità di riferimento univoca: la nostra cultura e il nostro ambiente sociale non sono né universali nè assoluti.
  3. 3. Non dimentichiamoci che entità che ritenevamo del tutto univoche, come spazio, tempo e moto sono state profondamente ristrutturate da Einstein all'inizio del ventesimo secolo. In assenza di una chiara definizione di cosa sia l'intelligenza possiamo comunque chiederci come si stiano evolvendo i maggiori progetti di intelligenza artificiale (da qui abbreviata in AI). Nel 1936 il grande matematico Alan Turing, allora giovanissimo, scrisse un articolo di fondamentale importanza (On computable numbers...) nel quale definiva in maniera quanto mai precisa come un'ideale macchina di calcolo potesse eseguire tutti gli algoritmi matematici che sarebbe stato in grado di eseguire un uomo: uomo che Turing indicava come "the computer", ossia l'uomo che calcola.
  4. 4. Qualche anno dopo un altro giovane genio, Claude Shannon, nella sua tesi di laurea indicava come tale macchina si potesse costruire utilizzando semplici circuiti elettrici. E poco dopo, durante la seconda guerra mondiale, alcuni prototipi vennero costruiti. Si intuisce da quanto detto che fin dall'avvento dell'informatica c'era, per così dire, un'ambiguità latente. Poichè cervello umano e computer (ora intendiamo la macchina, a differenza di Turing) sembrano perfettamente equivalenti nella disciplina del calcolo perchè non pensare che tale equivalenza non si possa estendere anche alle altre attività cerebrali?
  5. 5. E' vero che un aereo vola, così come vola un uccello, ma sono due tipi di volo del tutto diversi. E sono profondamente diverse le strutture fisiche che attuano il volo. Una differenza di gran lunga maggiore si riscontra nel confronto tra la struttura fisica di un computer e quella di un cervello umano. Si valuta oggi che nel cervello umano siano presenti circa 100 miliardi di neuroni (forse qualcosa di meno). E ci sono circa 10 miliardi di transistor in un chip dei più evoluti microprocessori attuali. Forse certe paure sorgono dal fatto che tendiamo ad usare il termine “intelligenza” in modo troppo generico nel linguaggio corrente?
  6. 6. Il supercomputer cinese Sunway Taihu Light, che è attualmente classificato come il più potente supercomputer, ha circa 40.000 di questi processori e quindi, circa 400 trilioni di transistor (senza la memoria centrale), e con dimensioni non lontane da quelle di un piccolo campo di calcio. Trilioni è inteso come mille miliardi, ossia 10 elevato a 12. E' stato detto che ci vorrebbero oltre 7 miliardi di persone con altrettante calcolatrici elettroniche per 32 anni, per fare lo stesso calcolo che Sunway può risolvere in soli 60 secondi.
  7. 7. Però il cervello umano consuma una quindicina di Watt mentre Sunway oltre 15 MWatt, ossia un milione di volte di più. Ma per fare cosa e come? Qui è il punto chiave da comprendere bene. E occorre anche capire quale sia la reale struttura fisica di cervello e supercomputer. Il confronto andrebbe fatto innanzitutto tra circuiti (non transistor) e neuroni, ed è ancora un confronto molto approssimativo. Una decina di transistor per circuito riducono i 400 trilioni di Sunway a 40 trilioni, e poi occorre osservare che un neurone parla mediamente con migliaia di altri neuroni mentre in un computer un circuito parla con altri 3-4 circuiti.
  8. 8. Apparentemente, non c’è partita…ma è proprio così? In Sunway ci sono circa 100 trilioni di connessioni, definitivamente cablate. In un cervello umano 100 miliardi di neuroni x diecimila connessioni fanno un 10 seguito da quindici zeri, ossia mille trilioni di connessioni. Ma - e qui è il punto centrale - il cervello vive e le connessioni nascono e muiono. La foresta amazzonica con rami e liane che si modificano di continuo potrebbe raffigurare il cervello, mentre un complesso rigido di strade rappresenterebbe l'infrastruttura del supercomputer: due entità del tutto diverse.
  9. 9. E sembra che siano proprio le innumerevoli e dinamiche interconnessioni il segreto dell'intelligenza umana, il cui hardware ha livelli di miniaturizzazione e di consumi energetici ancora ben al di là delle possibilità della microelettronica. Comunque l'enorme infrastruttura di Sunway e di altri supercomputer è atta a eseguire in parallelo innumerevoli algoritmi. Ma l’attività del cervello è integralmente algoritmica?
  10. 10. Ricordiamo che un algoritmo è come una ricetta culinaria: si eseguono n passi e si ottiene il risultato. Qui è nata una prima illusione di AI: puntare su attività fortemente algoritmiche per emulare il cervello umano. La vittoria di IBM Deep Blue sul campione mondiale di scacchi Kasparov è stata un pò il trionfo di questa visione. Tuttavia Deep Blue poteva affrontare solo quel tipo di problemi e certamente non era in grado di imparare. C'è da dire che molti avevano intuito i limiti di un approccio algoritmico per AI, e già negli anni Settanta e Ottanta si era cercato di creare strutture software evolutive denominate genericamente Machine Learning. Stiamo affrontando il punto dell’apprendimento?
  11. 11. Si è cominciata a esplorare l'ipotesi di creare qualcosa, definito rete neurale, che in qualche modo potesse replicare alcuni meccanismi di apprendimento umano. Si è cercato prima di istruire il computer dandogli degli obiettivi da raggiungere e facendo in modo che la rete si perfezionasse (ricordiamo che parliamo di programmi caricati nel computer e automodificantesi) a fronte di dati e obiettivi via via proposti.
  12. 12. Un esempio un pò azzardato potrebbe far comprendere meglio il meccanismo di base. Immaginiamo di avere un insieme di punti su di un piano, punti che rappresentano il valore y in funzione del valore x. La rete neurale (ossia il programma) deve costruire una curva che in qualche modo possa far prevedere a fronte di futuri x quali saranno gli y. Per esempio una retta: y=ax +m. L'inclinazione della retta è data da a mentre la sua distanza dalle ascisse è data da m. Si tratta di trovare a ed m e poi si va a regime. E' ovvio che questo esempio è banalissimo, ma spesso una vivace immagine intuitiva è più didattica che non il timido attenersi a rigorose ma complesse teorie formali.
  13. 13. Con l'apparizione delle graphical units (GPU) tipiche dei videogiochi si è potuta utilizzare molta più capacità elaborativa anche su computer di medie dimensioni. E si è anche cercato di creare sistemi che non avessero bisogno di essere istruiti ma che fossero in grado di autoistruirsi utilizzando crescenti volumi di dati in ingresso. Questo ha permesso di rendere le reti neurali più profonde, ossia con più strati di neuroni artificiali. Come si è arrivati alle forme attuali?
  14. 14. E i risultati si cominciano a vedere concretamente. Il programma AlphaGo, sviluppato da Google DeepMind, é stato il primo software in grado di sconfiggere un campione internazionale nel gioco del go. Con AlphaGo siamo forse per la prima volta di fronte a un'applicazione AI in grado di apprendere, anche se in uno specifico e limitato contesto, quale quello del gioco go, che comunque è molto più aperto e complesso del gioco degli scacchi. E DeepMind intende perfezionare questa strategia per creare un computer in grado di apprendere in molteplici contesti.
  15. 15. In parallelo l'IBM sta perfezionando un altro approccio ad AI con il suo supercomputer Watson che dovrebbe essere in grado, nella sua applicazione più evoluta, di aiutare diverse cliniche mondiali, tra cui soprattutto il prestigioso Memorial Sloan-Kettering, a formulare accurate diagnosi e piani di cura per pazienti oncologici. E' una sfida questa quanto mai impegnativa perché l'avversario è non solo il più temibile ma anche il più sfuggente che l'uomo si trovi a combattere.
  16. 16. AI non pretende di emulare l'uomo nelle normali attività che fanno l'umanità di uomo. In sostanza per volare non occorre essere un uccello. La nuova visione di AI non è quella di un avversario della mente umana ma di un formidabile partner nella gestione della complessità, che un pò il leitmotiv di questi tempi. Quindi possiamo guardare all’AI come ad un alleato?
  17. 17. Ernesto Hofmann Laureato in fisica, programmatore, manager, direttore consulente, per quasi quarant’anni in IBM, Ernesto Hofmann è una delle grandi figure di riferimento della storia dell’informatica. Entrato in IBM nel 1968 nel Servizio di Calcolo Scientifico. Nel 1973 è diventato manager del Servizio di Supporto Tecnico del Centro di Calcolo dell'IBM di Roma. Dal 1978, come sistemista senior, è stato responsabile tecnico per l'IBM di diversi centri elaborazione dati di alcune grandi istituti di credito e di assicurazioni. Nel 1981 è stato trasferito per tre anni presso lo stabilimento francese di Montpellier dove l'IBM costruisce i suoi computer più grandi. Nel 1986 è stato trasferito presso lo stabilimento di Corbeil Essonnes dove vengono realizzati i chip di logica utilizzati dai computer IBM. In ambedue le assegnazioni ha svolto il ruolo di interfaccia tecnica tra i clienti ed i progettisti dello stabilimento. A partire dal 1986 è stato diverse volte negli USA per lunghi periodi, presso gli stabilimenti di Poughkeepsie e Fishkill, dove vengono progettati i grandi computer IBM. La sua attività negli USA gli ha consentito di approfondire sempre più l'evoluzione tecnologica oggi in atto nell'informatica. Dal 1984 è Direttore Consulente per i Sistemi Complessi dell'IBM Italia. È autore di molteplici pubblicazioni sull'informatica, sia di carattere tecnico sia divulgative, nonché di svariati articoli e interviste anche per la stampa non

×