• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
la tecnologia  e la nascita dell'intelligenza collettiva
 

la tecnologia e la nascita dell'intelligenza collettiva

on

  • 464 views

come la tecnologia e umani intergaiscono creando un intelligenza collettva. L'evoluzione va nella direzione dell'aumento di informazione.

come la tecnologia e umani intergaiscono creando un intelligenza collettva. L'evoluzione va nella direzione dell'aumento di informazione.

Statistics

Views

Total Views
464
Views on SlideShare
464
Embed Views
0

Actions

Likes
1
Downloads
4
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    la tecnologia  e la nascita dell'intelligenza collettiva la tecnologia e la nascita dell'intelligenza collettiva Document Transcript

    • Crescita esponenziale data dalla somma di curve a ‘S’ Curva detta a ‘S’ tempo sviluppo Andamento lineare e andamento esponenziale tempo s vilu p p o linerare esponenziale La tecnologia, il progresso e la nascita dell’intelligenza collettiva a cura di Roberto Siagri Visione lineare e crescita esponenziale Viviamo in un’era che non ha precedenti per le grandi opportunità di innovazione che ci vengono dalla tecnologia, ma abbiamo difficoltà a rendercene conto perché è tipico degli umani percepire il mondo in modo lineare. È proprio questo che ci impedisce di comprendere le crescite di tipo esponenziale, e quindi di avere una chiara visione di lungo periodo. I processi esponenziali sono controintuitivi, perché noi umani siamo fondamentalmente ancorati ad un modo di ragionare lineare (Fig. 1). Per spiegare questo concetto farò un esempio: se vi chiedessi di immaginare di piegare su se stesso un grande foglio di carta, poi di ripiegare il foglio doppio così ottenuto, e così via per cinquanta volte, e poi vi chiedessi di indovinare lo spessore raggiunto da questo immaginario foglio ripiegato, dubito che la maggioranza darebbe come risposta una misura superiore a qualche decina di centimetri, o qualche metro nel caso migliore. In realtà, lo spessore finale del foglio risulterebbe di 250 (circa 1015 ) volte lo spessore della carta, vale a dire, per un foglio che avesse uno spessore di poco più di un decimo di millimetro, un valore grosso modo equivalente alla distanza tra la Terra e il Sole. Fig. 1 Fig. 2 Fig. 3 L’esempio ci aiuta a percepire come l’andamento esponenziale sia per la nostra mente un concetto sfuggente. In realtà, tutti i fenomeni naturali hanno a che fare con espansioni di tipo esponenziale, che però vengono mascherate dall'inesorabile saturazione che ne limita effetti e durata: la crescita ad un certo punto comincia a rallentare fino a fermarsi, per poi andare incontro alla decadenza. Si pensi a un laghetto che viene poco a poco ricoperto dalle ninfee; si tratta a tutti gli effetti di una copertura esponenziale, ma questo andamento ci sfugge
    • perché la crescita è limitata nel tempo e nello spazio: una volta coperta tutta la superficie dello specchio d'acqua, le ninfee smettono di crescere e alla fine, avendo esaurito tutte le risorse a disposizione, muoiono. E' questo che normalmente avviene in natura: la crescita esponenziale cessa all’esaurirsi delle risorse, oppure per la rottura di un qualche equilibrio o meccanismo biologico che la rendeva possibile. Nel tempo, questo tipo di crescita segue una curva ad S (Fig. 2). Contrariamente alla natura, la tecnologia è immune al fenomeno della saturazione (o perlomeno lo sarà per molto tempo ancora) grazie ai processi di innovazione, che creano substrati tecnologici sempre più efficienti, e grazie al fatto che nel mondo delle tecnologie i guasti si possono, o si dovrebbero, riparare abbastanza facilmente. Inoltre, ogni tecnologia è alla base di una nuova tecnologia che spinge il progresso ancora più avanti. E' come se ogni tecnologia “imparasse” da quella precedente, sommando curve a S su curve a S e producendo un curva di crescita che è nel complesso ancora un'esponenziale (Fig. 3). Conservazione ed Innovazione Dopo queste prime riflessioni sulla natura esponenziale del progresso e sulla nostra difficoltà a comprenderlo, vorrei passare ad alcune considerazioni sulle ricadute sociali ed economiche che il progresso ha nella società umana. Per perpetrarsi, l’innovazione ha bisogno di nuove tecnologie, ovvero di nuovi trampolini da cui lanciarsi per fare un altro balzo in avanti: essa sfrutta la tecnologia come nuova “arma”, sconosciuta ai più, per modificare la struttura sociale ed economica in cui viviamo. E’ questa modifica che noi chiamiamo progresso. La cosa interessante, che si nota se analizziamo il progresso nul lungo periodo, è che i processi di innovazione, propedeutici alla modifica della struttura socioeconomica, avvengono indipendentemente dalla resistenza al cambiamento che la struttura esistente oppone. In altre parole, il processo di innovazione tecnologica è per certi versi inarrestabile, ovvero non dipende dalla volontà dei singoli gruppi umani né dai contesti locali, siano essi di guerra, di lotta religiosa, di epidemie, di carestie o quant'altro. Si tratta più di un fenomeno collettivo che riguarda tutta l'umanità, e che a lungo andare porterà grandi benefici in termini di benessere. I cambiamenti sociali a loro volta avvengono perché l’innovazione consente il ricambio della classe dirigente, che è alla base di un nuovo modo di pensare e di guardare al futuro. Non dimentichiamo tuttavia che introdurre nuove visioni del mondo e della vita umana non è mai impresa priva di rischi, come ben sapeva Machiavelli, il quale nel 1513 scriveva a Lorenzo de' Medici:   ʺE debbasi considerare come non è cosa più difficile a trattare, né più dubia a riuscire, né più pericolosa a  maneggiare, che farsi capo ad introdurre nuovi ordini. Perché lo introduttore ha per nimici tutti quelli che  delli ordini vecchi fanno bene, et ha tepidi defensori tutti quelli che delli ordini nuovi farebbono bene. La  quale tepidezza nasce, parte per paura delli avversarii, che hanno le leggi dal canto loro, parte dalla  incredulità delli uomini; li quali non credano in verità le cose nuove, se non ne veggono nata una ferma  esperienza. Donde nasce che qualunque volta quelli che sono nimici hanno occasione di assaltare, lo fanno  partigianamente, e quelli altri defendano tepidamente; in modo che insieme con loro si periclita.ʺ 1  L’innovazione ha inevitabilmente anche un forte impatto economico, perché ogni nuovo livello di innovazione consente di allargare i benefici da essa derivanti ad una classe sempre più 1 Niccolò Machiavelli, Il principe, http://www.liberliber.it/biblioteca/m/machiavelli/il_principe
    • PIL pro‐capite mondiale  a partire dall’anno 0  al 2000 USD ampia di individui (Fig. 4). Si pensi ad esempio all'invenzione della stampa, o all’automobile dopo la fabbrica fordista. Il fatto è che l’innovazione consente di fare cose che prima non si potevano fare, o che nessuno poteva permettersi di fare. Fig. 4 Potremmo dire quindi che l’innovazione consiste nel fare di più con molto di meno. Abbassare i costi di produzione delle cose per un dato livello di prestazioni, questo è il paradigma di base dell’innovazione. Ciò non significa necessariamente la rincorsa al prezzo più basso, ma piuttosto l’abbassamento della barriera di ingresso ad una certa prestazione: poter andare sulla luna a costi accessibili per una nazione significa fare innovazione, come lo è la realizzazione del telefono cellulare, che consente l’accesso alla telefonia mobile non più solo ai militari, ma anche ai civili, e via di questo passo fino alle innovazioni più recenti. L’essenza dell’innovazione Per avvicinarmi ancora di più all’essenza dell’innovazione, farò ricorso ad alcune semplici osservazioni. La natura delle cose dipende, o meglio dipendeva fino a poco tempo fa (prima della diffusione pervasiva dei calcolatori), da quattro grandezze fisiche: materia, energia, spazio e tempo. L’innovazione entra in gioco nel modo in cui si possono combinare queste quattro grandezze, attraverso l'apporto dell'intelligenza umana che fornisce informazioni di processo e di produzione. Ma fino all'avvento dei calcolatori embedded (calcolatori dentro le cose) l'informazione rimaneva comunque esterna al ritrovato. Nel momento in cui i calcolatori hanno incominciato ad entrare nei ritrovati, le innovazioni si sono susseguite a ritmi sempre
    • più elevati, perché oltre alle quattro grandezze sopra menzionate se ne è aggiunta una quinta, l’informazione, che non era più esterna alle cose ma ne diventava una componente intrinseca. Grazie a questa nuova grandezza, la compressione di materia, energia, spazio e tempo ha raggiunto livelli precedentemente impensabili: basti pensare agli attuali telefoni cellulari multimediali, la maggior parte dei quali ha prestazioni paragonabili, se non anche superiori, ai primi supercomputer degli anni ’70. Per esempio, il supercalcolatore Cray-1, introdotto sul mercato nel 1976 dalla Cray Research2 , era un calcolatore incredibilmente veloce per quei tempi, ed era stato progettato esplicitamente per il calcolo scientifico: aveva una prestazione teorica di 160 MIPS (Milioni di Istruzioni Per Secondo); disponeva di 8Mbytes di memoria principale; pesava 5,5 tonnellate (incluso il sistema di refrigerazione al freon); consumava 115 kWh di elettricità; e infine, costava 5,5 milioni di dollari, che attualizzati corrispondono a circa 29 milioni di dollari di oggi. Per renderci conto della compressione prodotta dall'innovazione tecnologica, si pensi che nel 2010, a parità di prestazione teorica, dalle 5,5 tonnellate degli anni ’70 si è passati a circa 150 g, con un fattore di compressione di circa 35.000 volte in termini di peso, 50.000 volte in termini di consumo e 70.000 volte in termini di costo assoluto. Se prendiamo invece in considerazione il prezzo al kg, vediamo che le cose non sono cambiate di molto: il Cray1 costava circa 1.000 dollari al kg, che attualizzati sono poco più di 5.000 dollari, così come un iPhone4 costa oggi circa 5.000 dollari al kg, anche se per fortuna pesa solo 137 grammi. Progresso e smaterializzazione Per avere un altro esempio eclatante di smaterializzazione, si può pensare a come si telefonava dall’Europa in America prima dell’avvento dei satelliti: ci si rende immediatamente conto della compressione avvenuta. Al tempo dei cavi transoceanici servivano 170.000tonnellate di rame per collegare l’Europa all’America; ora un satellite da un quarto di tonnellata svolge le stesse funzioni, anzi molto meglio, e con molta meno energia. Se vogliamo estendere l’uso di nuovi prodotti dobbiamo, per ovvi motivi di costo, usare sempre meno materia e meno energia, nonché occupare meno spazio, e inoltre il tutto deve essere disponibile in poco tempo. Così facendo, i prodotti non solo raggiungono una fascia sempre più ampia di popolazione, ma sono anche progressivamente più sostenibili. Questa tendenza alla sostenibilità non solo è figlia del progresso tecnologico, ma ha subito una rapida accelerazione da quando gli oggetti hanno assimilato al loro interno i computer e sono stati messi nelle condizioni di avere una seppur minima quantità di intelligenza: il nuovo contenuto informativo infatti sopperisce alla diminuzione della materia e dell'energia utilizzate. Questo trend verso la smaterializzazione era già stato osservato nel 1938 dall’inventore statunitense R. Buckminster Fuller3 , che grazie alla sua notevole versatilità di pensiero e a una capacità intuitiva eccezionale era riuscito a rivoluzionare gli schemi concettuali tradizionali e a comprendere come fonti energetiche rinnovabili, sostenibilità dello sviluppo e sopravvivenza del genere umano andassero di pari passo. Egli non solo concepiva la ricerca come un’attività al servizio del benessere dell’umanità, ma si interessava all’individuo e al mondo in cui vive, adottando un approccio multidisciplinare e sistemico. Fu Buckminster Fuller a coniare il termine «efemeralizzazione», postulando che in natura “il progresso va dal materiale all’astratto”. In seguito riformulerà il concetto definendo l’efemeralizzazione come “il principio del fare sempre di più con sempre meno peso, tempo ed energia per ogni dato 2 http://en.wikipedia.org/wiki/Cray-1, 3 R. Buckminster Fuller “Nine Chains to the Moon: An Adventure Story of Thought” , Lippincott, 1938.
    • livello di prestazione funzionale” ovvero per ogni data curva a S. Questo principio trova una perfetta applicazione nell’attuale miniaturizzazione dei prodotti, resa possibile dalle nuove tecnologie. Per chiarire come la compressione operata dalla tecnologia sui prodotti abbia un impatto sulla sostenibilità, basta esaminare il costo al kg di alcuni prodotti. Questa misura ci dà un'idea immediata di come il PIL (Prodotto Interno Lordo) dei Paesi ad alto contenuto tecnologico si stia smaterializzando. Il PIL infatti è sempre più leggero. La tabella qui di seguito illustra come in generale il costo al kg di un prodotto aumenti all’aumentare della quantità relativa di informazione incamerata nel prodotto stesso. In altre parole, si può ottenere sempre più valore con una quantità sempre minore di materia, purché si sappia come inserire all’interno delle cose la giusta quantità di informazione. Oggetto Costo al Chilo (Euro/kg) q.tà minima acquistabile (kg) Chip di nuova generazione ~33.000 ~0,030 Oro ~33.000 - Aereo da caccia F35 ~6000 ~13.000 SmartPhone ~5000 ~0,150 Airbus 380 ~1300 ~ 270.000 Notebook ~1000 ~1 Supercar ~150 ~1200 Carrarmato M1 ~50 ~60.000 Berlina ~30 ~1500 Utilitaria ~15 ~800 Ferro (AISI 304) ~2 - Il ruolo centrale dell’informazione Abbiamo introdotto precedentemente due concetti che meritano una qualche precisazione. Il primo è il concetto di informazione. L’informazione è intesa, in senso generale, come una sequenza ordinata di simboli che serve a memorizzare o trasmettere un messaggio. L'informazione è riferita a qualche cosa che non conoscevamo prima; infatti quello che già sappiamo non è informazione, e quello che siamo in grado di dedurre dai dati precedenti non è informazione. Solo quello che è nuovo, anche se desunto da conoscenze passate, ha contenuto informativo. Se la sequenza di simboli di un messaggio è già stata memorizzata, allora un’altra sequenza identica di simboli si potrà memorizzare facilmente, dato che l’unica informazione necessaria è che è stato ricevuto un secondo messaggio identico al precedente. Un'altra precisazione andrebbe fatta per il concetto di intelligenza, che possiamo definire come la capacità di comprimere o aumentare l’informazione. Tornando all’esempio della doppia memorizzazione del messaggio, un sistema intelligente è un sistema in grado di riconoscere i due messaggi e comprimere il secondo. Mettendo assieme le due cose, possiamo dire che un sistema è dotato di intelligenza se è dotato di processi che cambiano il contenuto informativo del sistema stesso. In termini strettamente fisici, potremmo dire che nel sistema avviene una variazione negativa o positiva di entropia. Visto che in fisica l’entropia per certi versi descrive la complessità del sistema, essa è strettamente legata al contenuto informativo del sistema stesso. Da questa definizione la condizione necessaria e sufficiente per avere un sistema intelligente è che esso disponga di almeno un sensore connesso ad un attuatore. Questa macchina
    • sensore-attuatore, che apparentemente non ha bisogno di calcolo e memoria, è infatti in grado di cambiare l’ambiente circostante e dunque l’informazione necessaria per descriverlo4 . Così come nel mondo reale, a partire dalla disposizione e combinazione di oggetti materiali (e dalla variazione di entropia risultante) possiamo parlare di azione intelligente, questa considerazione può essere traslata nel mondo dei calcolatori, dove l’intelligenza nasce dal modo in cui l’informazione cambia tramite l’uso combinato di calcolo e di memoria. D’ora in poi è di questo tipo di informazione, nel senso informatico del termine, che parleremo. Va da sé che per aumentare l’intelligenza di un sistema abbiamo bisogno di sempre più potenza di calcolo e sempre più memoria. L’aumento dell’intelligenza, grazie all’aumento delle prestazioni dei calcolatori, consente nuovi livelli di miniaturizzazione che hanno come conseguenza la possibilità di rendere sempre più intelligenti un numero sempre più grande di oggetti, innescando così un ciclo virtuoso di progresso. I limiti fisici del calcolo La storia dell’evoluzione del calcolatore è tutta raccontata dalla compressione delle quattro grandezze fisiche (energia, materia, spazio, tempo) e dall’espansione di una quinta grandezza non fisica: linformazione. Ma quanto possiamo andare avanti con questo processo di miniaturizzazione? Secondo alcuni calcoli fatti da Eric Drexel5 , spingendo sulla miniaturizzazione dei dispositivi si può, dal punto di vista teorico, incapsulare in un cubo di 1 cm di lato un calcolatore con una capacità di calcolo di 1.000 miliardi di miliardi di operazioni al secondo (1 seguito da 21 zeri). Per dare un'idea di cosa questo significhi basti pensare che tutti i calcolatori oggi presenti sul pianeta, dai più piccoli ai più grandi, insieme non arrivano a sviluppare una potenza di calcolo superiore ai 10 miliardi di miliardi di operazioni per secondo (1 seguito da 19 zeri). In altre parole, un calcolatore delle dimensioni di una zolletta di zucchero potrebbe contenere, in termini di operazioni eseguibili al secondo, ben 100 volte tutti i calcolatori attualmente presenti sul pianeta. Ma quanto consumerebbe un così piccolo calcolatore rispetto al consumo di tutti i calcolatori oggi in uso? Includendo nella categoria tutti i supercalcolatori, data server, personal computer, notebook, DVD player, MP3 player, console di gioco e telefoni cellulari si arriva ad un consumo stimato attorno ai 400 GigaWatt6 . Sempre secondo i calcoli fatti da Drexler, un calcolatore dalle prestazioni equivalenti all’attuale computer planetario consumerebbe solo 1.000 Watt (per avere un'idea delle grandezze in gioco, 1 Watt corrisponde all’energia che usiamo per sollevare la tazzina quando beviamo il caffè) contro i 400 miliardi di Watt attuali (quasi due volte l’energia elettrica usata dallo stato della California). Ci rimane ancora da fare un bel po’ di strada prima di arrivare a queste miniaturizzazioni e a questi consumi, ma la cosa bella è che la fisica lo consente, e ciò che non viola le leggi della fisica e che ha interesse per l’umanità presto o tardi verrà fatto. Ad oggi, il calcolatore più efficiente è ancora (anche se non lo sarà per molto) un calcolatore biologico, ovvero il cervello umano. Ogni cervello infatti pesa 1,5 kg, occupa uno spazio di circa 1,5 dm3 , ha una potenza di calcolo equivalente a 10 milioni di miliardi di operazioni al secondo e consuma solo 25 Watt. Il più grande calcolatore al mondo installato da poco in Giappone dispone di una potenza di calcolo di poco più di 8 milioni di miliardi di operazioni al 4 Nota: in realtà anche in questo caso elementare il sistema è dotato per definizione stessa di retroazione di una cella di memoria e di una unità di calcolo che manipola una unità di informazione. 5 K.Eric Drexler, Nanosystems: molecular machinery, manufacturing, and computation,. Wiley Interscience, 1992, 6 The Planetary Computer: in www.wired.com/images/article/magazine/1607/st_infoporn_1607.pdf
    • secondo. Al ritmo di progresso attuale, un calcolatore di questa potenza lo troveremo sullo scaffale del supermercato fra una dozzina d’anni, alle dimensioni, peso e prezzo degli attuali notebook. Attorno al 2025, dunque, il cervello umano cesserà di essere la macchina di calcolo più efficiente del pianeta (Fig. 5). Per comprendere fino in fondo i limiti fisici di prestazione dei calcolatori bisogna fare i conti non con le leggi della fisica classica, come fatto sopra, ma con quelle della fisica quantistica, che spiega il mondo del molto piccolo. Usando la fisica quantistica, Seth Lloyd ha dimostrato che si possono costruire calcolatori con capacità di calcolo oggi inimmaginabili. Utilizzando un solo kg di materia si potrebbe costruire un calcolatore in grado di eseguire 1051 operazioni al secondo senza consumare energia. Sulla base di come possono essere utilizzate le proprietà quantistiche degli elettroni o di altre particelle, si potrebbe in linea teorica assimilare l’intero universo ad un gigantesco calcolatore. Anche se in realtà siamo ancora lontani dal poter costruire dei calcolatori quantistici, nei laboratori di ricerca, in maniera molto elementare e con moltissime limitazione funzionali, si stanno cominciando ad ottenere i primi risultati. Fig. 5 C’è ancora tanto spazio per innovare: basta seguire i trend Sulla base delle considerazioni appena esposte, lo spazio per innovare appare
    • immensamente vasto, e come direbbe Feynman7 , c’è ancora tanto spazio nel molto piccolo. Per innovare, però, serve una materia prima che si chiama idea. Mai come in questi anni, grazie alle tecnologie digitali, le nuove idee sono state così accessibili a tutti, anche se sparse per il pianeta. E’ dalla combinazione di informazioni e di idee che nascono a ritmo sempre più veloce nuove innovazioni. Fare innovazione significa riuscire a selezionare idee che abbiano la capacità di plasmare il futuro e di entrare nel tessuto socio-economico. L’innovatore deve essere in grado di immaginare uno scenario entro il quale si possa sviluppare ragionevolmente il futuro. A tale proposito, proviamo a partire da quello che è successo negli ultimi trent'anni. Lo faremo seguendo tre trend, che sono anche rappresentati da tre leggi di scala. La prima è la legge di Moore, che risale ai primi anni '60, e che tenta di trovare una regola che sottende la crescita del numero di transistor nei chip. Questa legge afferma che il numero di transistor raddoppia ogni 24 mesi (così come raddoppiano velocità di elaborazione e capacità di memorizzazione dei computer) e il tutto avviene a parità di costo. La conseguenza pratica di questa legge è riassumibile nell’affermazione cheaper, smaller, faster. Con il passare del tempo il computer diventa contemporaneamente più economico, più piccolo e anche più veloce. Con questa legge siamo in grado di spiegare l'esistenza di tanti dei prodotti che ci circondano, ma non il fenomeno di internet. Ecco allora che ci viene in aiuto la legge di Metcalfe, che risale agli inizi degli anni '90. Questa legge si occupa delle connessioni in rete e del loro valore, e afferma che l’utilità di una rete cresce in misura quadratica rispetto al numero di computer connessi. Questo accade perché ogni volta che un computer si aggiunge alla rete, da una parte utilizza le risorse disponibili in rete, ma dall’altra rende disponibili nuove risorse per la rete stessa. Ne consegue che il valore di una comunità cresce seguendo una legge di potenza. La combinazione della legge di Moore con la legge di Metcalfe comincia infatti a spiegare l’esplosione di internet. Introduciamo adesso una terza legge di scala, proposta da Gilder all’inizio del secolo e relativa alla crescita della banda larga. Essa stabilisce che la larghezza totale di banda dei sistemi di comunicazione triplica ogni dodici mesi, e questo significa una crescita rapidissima della velocità di trasmissione di grandi quantità di dati. Ad esempio, la sostituzione dei cavi in rame con cavi in fibra ottica ha portato la capacità di trasporto dei dati a un livello quasi infinito. Se adesso combiniamo questi tre effetti, ecco che cominciamo a capire la nuova evoluzione di internet. Internet sta sempre più diventando un flusso di dati che ognuno di noi aggrega a suo piacimento. E’ tramite questi tre sviluppi che si è giunti alla nascita del cloud computing (detto anche “il cloud” o “la nuvola”). Con un ritardo di circa dieci anni da quando sono state concepite, queste tre leggi di scala hanno fatto sentire i primi importanti effetti: i personal computer agli inizi degli anni ’70, l’esplosione di internet alla fine degli anni ’90 e i primi vagiti del cloud computing qualche anno fa. Con il cloud computing, il cyberspazio ha finalmente raggiunto la maturità, ed è entrata nella sua fase matura anche la nuova economia, la cosiddetta «economia digitale», in cui il valore si è spostato dagli atomi ai bit. Come dice Negroponte8 , «non è più una questione di computer. È una questione di vita». Il cyberspazio è composto da reti di reti di reti di computer. Queste reti connettono una moltitudine di dispositivi intelligenti, che possono amplificare le nostre capacità e percezioni, agendo come un organismo vivente planetario. Da qualche parte il futuro è già scritto Questa continua evoluzione della rete (internet) è sotto gli occhi di tutti e interessa tutti. Pur 7 Richard Feynman annual meeting of the American Physical Society 29-12- 1959 8 Nicholas Negroponte, Being Digital, Vintage Publishing. 1995
    • essendo un'innovazione molto recente, dal punto di vista antropologico quella che noi oggi chiamiamo internet era già stata teorizzata. Ne possiamo trovare le tracce già prima del 1940 negli scritti del filosofo gesuita Teilhard de Chardin9 , secondo il quale “un numero sempre più grande di legami economici e psichici si sta formando ad una velocità sempre maggiore, e ogni giorno che passa diventa sempre più impossibile per ognuno di noi agire o pensare se non collettivamente”. Come dire che internet era ineludibile: si tratta di uno dei gradini dell’evoluzione e dunque dello sviluppo dell’umanità. Non solo ogni strato tecnologico è più efficiente e più intelligente del precedente, ma consentendo lo sviluppo di reti di comunicazione sempre più estese facilita l'interconnessione degli individui. Se analizziamo le grandi innovazioni tecnologiche dell’umanità, a partire dal linguaggio e poi dalla scrittura per arrivare a internet, quello che notiamo è la naturale tendenza alla globalizzazione della conoscenza. Questo sembra essere un trend ineludibile, non solo un fenomeno accelerativo. Questo percorso parte da lontano ed è stato molto lucidamente descritto sempre da Teilhard de Chardin, che distingueva il percorso evolutivo in tre fasi: evoluzione geologica, evoluzione biologica e infine evoluzione memetica e tecnologica10 . Quest’ultima fase avrebbe portato alla realizzazione della noosfera, ovvero alla rete pensante planetaria, vale a dire un sistema interconnesso di coscienza e informazione, una rete globale di autoconsapevolezza, di feedback istantaneo e di comunicazione globale. E’ facile oggi vedere dietro questa visione internet, la banda larga, il web 2.0 e il cloud. Un altro precursore - in questo caso degli aspetti tecnologici che stanno alla base del world wide web, come gli ipertesti ed il personal computer - è stato lo scienziato e tecnologo statunitense Vannevar Bush11 . Già negli anni Trenta dello scorso secolo, Bush si accorse che la conoscenza scientifica si stava espandendo ad una velocità superiore rispetto alla capacità dell'uomo di comprenderla o di controllarla. Per superare questo problema, pur sapendo che la tecnologia del tempo non era adeguata, concettualizzò il "memex" (contrazione di memory expansion) che potremmo definire come il primo personal computer che facesse uso di quelli che noi oggi chiamiamo ipertesti. Il memex infatti avrebbe dovuto consentire la creazione di collegamenti stabili tra documenti diversi, attraverso la loro semplice selezione e la pressione di un tasto da parte dell'utente. Nel definire questa macchina immaginaria, Bush operò anche una selezione tra le tecnologie del tempo e ipotizzò quale sarebbe stato il loro sviluppo futuro, speculando inoltre sulle conseguenze che una tale innovazione avrebbe potuto avere in campo sociale ed economico; tuttavia, contrariamente a Teilhard de Chardin che ne intuiva il valore per la collettività, Bush ne vedeva solo i benefici a livello individuale. Allora come direbbe William Gibson, “il futuro è già qui, ma non è ancore equamente distribuito”. Il futuro è già presente da qualche parte, attraverso gli scritti, le idee, i network che ne parlano e se lo stanno inventando. Costruire il proprio futuro vuol dire andare alla ricerca delle fonti, delle idee, non equamente distribuite intorno a noi. Questo avviene rimanendo curiosi, attivando i giusti network. Ciò ci permette, scrive Alan Kay, di rimanere attivi nei confronti del futuro. Gli indovini di oggi sanno prevedere il futuro perché se lo stanno inventando. 9 Teilhard De Chardin, Il fenomeno umano (1938-1940), Il Saggiatore,1968 - Edizioni Queriniana, 1995 10 Nota: da questa massiva collaborazione e competizione sta emergendo un nuovo modo di pensare e dove stanno assumendo sempre più importanza i “memi” che sono unità di informazione culturale rispetto ai geni che invece sono unità di informazione biologica.. 11 Vannevar Bush, As We May Think, The Atlantic Monthly, luglio 1945
    • Grafico normalizzato rispetto all’area del primo processore Intel, il 4004, che era composto di 2.300 transistor e aveva un'area di 12 mm2 . Con le tecnologie di produzione attuali sulla stessa area si possono far stare più di 60 milioni di transistor. Tecnologia e progresso Quanto finora detto sulla tecnologia è stato ben riassunto da John Smart12 in tre leggi che, come si vedrà, confermano quanto già detto. La prima afferma che la tecnologia “apprende” milioni di volte più velocemente degli umani. La seconda dice che gli umani sono catalizzatori selettivi delle tecnologie, e che quindi il processo di innovazione tecnologica è indipendente dalla volontà degli umani. La terza infine asserisce che la tecnologia si muove attraverso tre fasi: una prima fase in cui essa appare de-umanizzante, una seconda fase in cui è indifferente all’umanità e una terza fase in cui (se tutto va bene) la tecnologia diventa una rete umanizzante. A conferma della veridicità di questa legge possiamo analizzare gli effetti dello sviluppo dell’ICT (Information and Communication Technology) e del calcolo pervasivo: invece di de-umanizzare il mondo, queste tecnologie stanno effettivamente rendendo la rete umanizzante. La tecnologia dunque cresce esponenzialmente, e inoltre abbiamo appreso, facendo uso delle leggi della meccanica quantistica, che non saturerà a breve. Da questi due effetti deriva la considerazione che tutto sta accelerando, e che tale accelerazione implica la compressione degli intervalli di tempo tra uno stadio evolutivo e lo stadio successivo. Questa osservazione ha portato Ray Kurzweil13 a teorizzare la “legge del ritorno accelerato”, che potremmo sintetizzare dicendo che nel 21° secolo non assisteremo a 100 anni di progresso, ma molto probabilmente a 20.000 anni di progresso. Se utilizziamo la visione esponenziale di cui abbiamo parlato all’inizio e la applichiamo agli attuali trend di crescita, ci dovrebbe stupire un po’ di meno il pensare che in questo secolo assisteremo ad un progresso 200 volte superiore a quello raggiunto durante ill secolo scorso. Basti pensare alla legge di Moore: oggi in un chip di 12 mm2 si riescono ad impacchettare più di 60 milioni di transistor14 ; negli anni '70 nello stesso spazio si arrivava a metterne appena 2.300 (Fig. 6). Fig. 6 12 John Smart, Acceleration Studies Foundation, http://www.accelerating.org/ 13 Ray Kurzweil, The Singularity is Near, http://www.singularity.com/ 14 Nota: questo dato lo si ricava del processore Intel 10-Core Xeon Westmere-EX prodotto con un processo di produzione da 32nm e che in una superfice di 512 mm² contiene 2,600,000,000 di transistor Legge di Moore Numero di transistor per 12mm 2 Intel 4004, 2.300 transistor 12mm 2 di superficie di silicio
    • Uno sguardo al futuro Nel prossimo futuro, il «computer» come noi lo conosciamo scomparirà: sarà nascosto in ogni cosa attorno a noi e sarà interconnesso costantemente alla rete di comunicazione. Questo ci permetterà di migliorare le nostre capacità percettive (la cosiddetta «amplificazione» della realtà) fino a un livello che permetterà di cogliere molti più input di quanto potrebbe fare una persona priva di connessione, e di farlo in modo ubiquo, cioè senza il vincolo di essere presenti fisicamente nel luogo in cui si manifesta il fenomeno oggetto di attenzione. Grazie alla pervasività dei nuovi calcolatori, interconnessi tra loro su piccola e larga scala, non ci limiteremo dunque a visualizzare la realtà, né a virtualizzarla: la aumenteremo. Il navigatore satellitare è un chiaro esempio dell’applicazione di queste tecnologie: quando ci spostiamo da una città all’altra, quello che vediamo guidando l’automobile è la realtà che ci circonda. Ma programmando il nostro percorso con il navigatore, aumentiamo la realtà da noi percepita. Avvalendosi di sensori che localizzano la nostra posizione, il navigatore è in grado non solo di dirci quanto traffico troveremo nel tragitto, ma addirittura di monitorare gli ostacoli con notevole anticipo; potrà quindi consigliarci itinerari alternativi per raggiungere la stessa meta, sfruttando le maggiori informazioni che i nostri cinque sensi da soli non riuscirebbero a percepire. Il pervasive computing interessa dispositivi di calcolo distribuiti nel mondo fisico: computer indossabili (Fig. 7) e sensori inseriti in oggetti di uso quotidiano e nell’ambiente intorno a noi. In questa visione, il calcolo pervasivo riguarda sia i dispositivi periferici che i computer a elevate prestazioni (HPC) centralizzati (incluse le infrastrutture di comunicazione come reti WiFi e rete cellulare 3G) necessari a supportare applicazioni ubique tramite la nuova tecnologia del «cloud computing»15 . Nel prossimo futuro, l’infrastruttura del cloud computing, che io preferisco chiamare «esoscheletro computazionale», sarà estesa a molte attività umane e rappresenterà un ideale punto di partenza per la creazione di una futura classe di applicazioni e servizi, che saranno il risultato di un nuovo approccio collettivo e collaborativo, e i cui motori saranno il software «open source» e il crowdsourcing16 . Fig. 7 - ZyPad, un computer indossabile da polso (wearable computer) 15 La nuvola computazionale (cloud computing) indica una risorsa di calcolo e memoria disponibile on demand ed in modalità pay-per-use alla stessa stregua dell’energia elettrica. In altre parole il calcolo e la memorizzazione sono divenuti oggi con la tecnologia del cloud computing una ver e propria utility. 16 Il termine crowdsourcing (da crowd, gente comune, e outsourcing, esternalizzare attività) è un neologismo che definisce un modello di business nel quale una entità richiede lo sviluppo di un progetto/servizio/prodotto ad una comunità virtuale di persone non organizzate facendo uso degli strumenti web e/o portali su internet.
    • La diffusione dei computer segna il passaggio epocale da un mondo dove il computer è al centro della vita delle persone a un mondo che sarà collegato dai computer, i quali però saranno così integrati nella realtà da essere impercettibili. In questo contesto si assisterà a uno strano paradosso: le persone vivranno immerse nei computer, ma al centro dell’attenzione ci sarà l’essere umano. Questo nuovo mondo porterà con sé l’innegabile beneficio della cosiddetta «ubiquità virtuale». Per ubiquità si intende la capacità di trovarsi fisicamente in più luoghi nello stesso momento. I grandi cambiamenti che hanno interessato l’informatica negli ultimi vent’anni possono essere sintetizzati in un unico percorso: da un computer per molte persone (il mainframe) siamo passati a un computer per una singola persona (il Personal Computer) per arrivare allo stato attuale della tecnologia, che prevede molti computer interconnessi per tutti. I computer di ieri riempivano intere stanze a causa della loro dimensione; i computer di domani riempiranno le stanze in ragione del loro numero. Grazie alla tecnologia del Cloud, l’esoscheletro computazionale ha già preso forma per dar vita a tutta una nuova serie di servizi e applicazioni; come dice Ian Foster17 , è un sistema che «coordina risorse che non sono soggette a controllo centralizzato […] usando protocolli e interfacce standard, aperte e general-purpose […] per rendere disponibili tipologie di servizi non banali». Non useremo più i computer come singoli dispositivi separati gli uni dagli altri: attraverso questi sofisticati elementi interconnessi disporremo degli strumenti per amplificare la realtà esterna e la nostra ubiquità attraverso la rete e attraverso la griglia computazionale. Il progresso sarà tale che non vedremo più i computer come macchine, ma come parte integrante del nostro mondo, come un’estensione di noi stessi. È quello che intendiamo quando parliamo di scomparsa o invisibilità dei computer: essi diventeranno parte integrante del nostro ambiente, tanto che la loro esistenza sfuggirà all’attenzione. Sappiamo già che i computer sono presenti all’interno di telefoni, apparecchi TV, DVD, DVR, forni a microonde, frigoriferi, registratori di cassa, motociclette, automobili e moltissimi altri dispositivi e apparecchiature di uso quotidiano. Questa presenza ubiqua non è comunque ancora sufficiente: non dobbiamo semplicemente rendere i nostri dispositivi più intelligenti, dobbiamo anche interconnetterli all’esoscheletro computazionale e dotarli della capacità di «percepire» il mondo. Quando questo gap sarà colmato, avremo finalmente un esoscheletro che funziona come un’estensione dei nostri cinque sensi. Saremo in grado di evolverci da un corpo semi-ricco di capacità di elaborazione e povero di sensori a un supercorpo ricco di sensori e di capacità di elaborazione, che ci permetterà di comprendere meglio il mondo che ci circonda. Anche di questo scenario ci sono stati dei precursori e uno tra questi, Mark Weiser18 , lo troviamo tra la fine degli anni Ottanta e l’inizio degli anni Novanta dello scorso secolo, al PARC (Palo Alto Research Centre) della Xerox. Mark Weiser immaginò uno scenario che possiamo riassumere attraverso tre affermazioni tratte dai sui scritti: 1. il computer è destinato a scomparire 2. il calcolo diventerà ubiquo e pervasivo 3. le tecnologie sono rasserenanti. Quando l’esoscheletro sarà completo, saremo in grado di esplorare diversi tipi di interazione: persone con realtà amplificata, persone con persone, persone con macchine, macchine con macchine, macchine con persone e macchine con realtà. Con queste nuove immagini nella 17 Ian Foster, Carl Kesselman, The Grid 2: Blueprint for a New Computing Infrastructure, Morgan Kaufmann Publishers Inc.. 18 Mark Weiser, http://sandbox.parc.com/weiser/
    • mente, possiamo creare un mondo totalmente diverso da quello di oggi. È sufficiente immaginare l’aiuto che le tecnologie digitali potranno fornire per quanto riguarda l’assistenza di base: monitoraggio domiciliare delle persone affette da patologie (Fig. 8), possibilità di spostare pesi importanti senza provare la minima fatica, guida di mezzi potenzialmente pericolosi senza l’ausilio del pilota. I computer specializzati e invisibili diventeranno parte integrante dell’ambiente naturale umano, così da permetterci di fare «computing without computers» (elaborazioni senza computer). Conclusione: l’intelligenza collettiva e nuovi paradigmi Stiamo entrando in un nuovo mondo di oggetti intelligenti collaborativi. Gli oggetti sono intelligenti perché incorporano processori piccoli, economici e leggeri, e sono collaborativi grazie alle comunicazioni wireless, che rendono possibile la creazione di network spontanei. Paragonati agli oggetti tradizionali, questi oggetti intelligenti hanno caratteristiche totalmente diverse: essi possono ricordare eventi specifici, hanno una memoria, mostrano un comportamento sensibile al contesto, hanno consapevolezza della posizione/situazione, sono reattivi, comunicano con il loro ambiente e sono connessi in rete con altri oggetti intelligenti e con tutti gli altri dispositivi nella nuvola. Di fronte a questi cambiamenti, potremmo essere indotti a pensare che i contatti diretti tra le persone perderanno valore. A forza di realtà virtuale, le relazioni “digitali” sostituiranno le relazioni “reali”? Naturalmente non possiamo predire il futuro, ma possiamo rifarci alla storia. Quando Gutenberg inventò la stampa tipografica, alcuni suoi contemporanei profetizzarono: «È abominevole, perché ognuno si isolerà col suo libro e rinuncerà a dialogare con gli altri». Invece dopo l’invenzione della carta stampata le persone hanno continuato a parlare tra loro. Figura 8. Scenario di Calcolo Pervasivo per la cura della salute. Computer Veicolari
    • Lo stesso vale per il cinema, che non ha ucciso il teatro, così come la tv non ha ucciso il cinema e i libri non sono morti a causa della televisione. Ma forse la domanda potrebbe anche non avere senso, se la realtà virtuale sarà indistinguibile dalla reale. Al lettore non può sfuggire la riflessione sull’impatto positivo portato nei Paesi in via di sviluppo dalla smaterializzazione dell’infrastruttura di comunicazione e conseguente virtualizzazione dei computer. Se nei Paesi economicamente sviluppati la smaterializzazione porta al fiorire di innovazioni che amplificano ed aumentano la connessione tra gli individui, la mancanza di tali innovazioni causerebbe nei Paesi in via di sviluppo dei ritardi incolmabili nella crescita della qualità della vita. L’economia digitale basata sull’immateriale è un modo per portare un contributo creativo, economico e commerciale soprattutto in aree come Africa, America Latina, Sud-est asiatico e India senza dover passare obbligatoriamente attraverso la fase degli investimenti pesanti per produrre officine e macchine, i cui costi diventano insostenibili (e non solo economicamente ma anche per l’ambiente). Il progresso tecnologico sta permettendo di ridurre la distanza fra Paesi sviluppati e Paesi in via di sviluppo, e come immaginava Teilhard de Chardin il mondo sarà sempre più coeso e più democratico. Dal fenomeno emergente della rete pensante planetaria, ovvero dell’intelligenza collettiva, possiamo ricavare anche alcune regole che valgono per le attività umane e per le imprese. Siamo giunti ad una nuova forma di globalizzazione, ovvero la globalizzazione della collaborazione tra gli individui. In un mondo globale, usando le parole di Friedman19 , "la regola numero uno è quella di non cercare di costruire muri”, e se applichiamo questa regola alle attività umane allora la parola d’ordine è collaborare. Anche nelle attività economiche sempre più affari si faranno in collaborazione piuttosto che in competizione, visto che è difficile per le aziende dominare da sole la complessità della catena di creazione di valore. Da questa riflessione spunta un altro paradigma: la globalizzazione della conoscenza porta alla prevalenza del “know-who” e del “know-where” rispetto al “know-how”. Un aspetto che si può sintetizzare con un esempio, banale ma illuminante: ha più valore sapere dove si trova un giacimento di petrolio o come si fa ad estrarlo? Con il ventunesimo secolo siamo entrati in una fase che non può essere paragonata a nessun altro periodo storico dal punto di vista delle opportunità di sviluppo tecnologico e di progresso. Una nuova eccitante stagione sta arrivando, una stagione in cui potremo avere un nuovo «corpo» esterno: l’esoscheletro computazionale, che ci permetterà di avere una più completa visione del mondo e dell’universo. Abbiamo bisogno però di un cambio di paradigma per comprendere e apprezzare pienamente le opportunità che questa infrastruttura intelligente può offrire, e dovremo affrontare molte sfide relative a questioni come sicurezza, privacy, affidabilità. Questo è il secolo della conoscenza e dell’innovazione continua, e siamo giunti alle soglie di una grande mutazione della società. Ma, come dice Alessandro Baricco20 , la mutazione non significa essere spazzati via. Bisogna saper solo decidere quale parte del vecchio mondo portare nel mondo di domani. Nel futuro non porteremo quello che avremo salvato, e neanche quello che avremo protetto e nascosto, ma ciò che avremo lasciato mutare, così che possa ritornare in un’altra forma. 19 Friedman “the world is flat”, Farrar, Straus and Giroux, 2005 20 Alessandro Baricco “I barbari”, Fandango, 2006