Le città Intelligenti
Upcoming SlideShare
Loading in...5
×
 

Le città Intelligenti

on

  • 641 views

Come i computer stanno cambiando in meglio il mondo intorno a noi

Come i computer stanno cambiando in meglio il mondo intorno a noi

Statistics

Views

Total Views
641
Slideshare-icon Views on SlideShare
626
Embed Views
15

Actions

Likes
1
Downloads
18
Comments
0

2 Embeds 15

http://www.linkedin.com 10
https://twitter.com 5

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Le città Intelligenti Le città Intelligenti Document Transcript

    • Le città intelligenti. come i computer stanno cambiando in meglio il mondo intorno a noi Roberto Siagri ... perché, guardando il mondo di oggi, il cambiamento più evidente non è solo la disponibilità di tecnologia, ma il suo impatto sulla umanità. L’ICT altera radicalmente il modo in cui le persone abitano il mondo, come interagiscono, come percepiscono il mondo attorno a loro: infatti, sta cambiando quello che significa essere un essere umano nella società. Pensate alla consapevolezza che abbiamo del mondo che ci circonda, a come essa viene modificata e rafforzata dalla disponibilità di più flussi di informazioni provenienti da più fonti, tutte a misura dei nostri interessi. Questa consapevolezza estesa ha un impatto sulla nostra intelligenza, sulla nostra coscienza e sulla società: su quelle cose che sono fondamentali all’essenza umana.* Neelie Kroes (Vice-Presidente della Commissione Europea e responsabile dell’Agenda Digitale) Introduzione Il mondo è caldo, piatto e affollato, così Thomas Friedman1 intitola il suo ultimo libro. Fortunatamente possiamo notare che è anche sempre più intelligente. Sì, il nostro mondo sta diventando sempre più in grado di parlarci ed è sempre più interconnesso: persone, sistemi e oggetti possono comunicare e interagire gli uni con gli altri in modi completamente nuovi. Ora abbiamo la capacità di misurare, sentire e vedere in modo istantaneo lo stato di tutte le cose. Quando tutte le cose, inclusi i processi e metodi di * Paradiso conference: The Internet for a global sustainable future. Brussels, 8 settembre 2011. 1 T.L. Friedman, Caldo, piatto e affollato. Com’è oggi il mondo, come possiamo cambiarlo, Milano 2010. 773
    • lavoro saranno intelligenti, potremo rispondere al cambiare delle condizioni più rapidamente e con più precisione, e ottenere risultati previsionali migliori e una miglior ottimizzazione degli eventi futuri. Da questa trasformazione in atto prende corpo l’idea delle Città Intelligenti (dall’inglese Smart Cities), che sono città in grado di agire attivamente per migliorare la qualità della vita dei propri cittadini conciliandola con le esigenze del commercio, delle imprese di produzione e di servizi e delle istituzioni, grazie all’impiego diffuso e innovativo delle tecnologie digitali. Da questa definizione generale si intuisce la provenienza del termine; per capirne l’origine va compresa l’evoluzione storica dei calcolatori così come l’evoluzione storica del rapporto tra computer e umani. Come facevano notare Mark Weiser e John Seely Brown in un loro lavoro seminale del 1996 dal titolo Designing Calm Technology,2 l’evoluzione tecnologica ha la proprietà di modificare in maniera sostanziale il posto, al centro o alla periferia, della tecnologia nella nostra vita. Potremmo anche dire che ciò che conta non è la tecnologia in sé ma la sua relazione con noi individui. Per comprendere meglio la questione dobbiamo andare a vedere come il calcolatore moderno (il cosiddetto computer) ha cambiato nel corso della sua breve storia di circa 60 anni questa relazione. In questo breve lasso di tempo si possono infatti evidenziare tre fasi (fig. 1) contraddistinte da tre diversi tipi di paradigma di calcolo correlati con tre tipologie di relazione, che prima verranno elencate e poi descritte più in dettaglio. Nella prima fase il rapporto è stato del tipo mainframe, nella seconda il rapporto è stato del tipo personal computer e oggi, grazie alla connettività internet diffusa e al basso costo dei componenti elettronici (in inglese chip), siamo entrati a pieno titolo nella terza fase, quella dei “computer a distribuzione diffusa”, anche detta in ambito consumer fase dell’internet delle cose o internet degli oggetti (in inglese: Internet of Things, talvolta abbreviata con l’acronimo IoT) mentre in ambito professionale si usa di più l’acronimo M2M, dall’inglese Machine to Machine ovvero “macchina a macchina”. In seguito useremo l’acronimo IoT anziché l’acronimo M2M, anche se i due si possono per i nostri fini ritenere intercambiabili. M. Weiser, J.S. Brown, Designing Calm Technology, «PowerGrid Journal» I, 1 (1996) <http://powergrid.electriciti. com/1.01>. 2 774
    • 22 20 18 Vendite/Anno 16 Mainframe PC UC 14 12 10 8 6 4 2 0 1. I principali Trend dell’evoluzione del Calcolo e le unità vendute su base annua in unità relative.3 Benché in questa fase si sia entrati da pochi anni, l’origine del concetto di IoT è comunque attribuibile a Mark Weiser e lo si trova infatti già enucleato in un suo scritto4 del 1991 in cui lui immagina e descrive, per l’appunto, i calcolatori di oggi e la loro interazione con noi umani. Una fase evolutiva, questa terza, caratterizzata da una profonda interrelazione tra il mondo digitale (fatto di calcolo e di dati digitali in forma di bit) ed il mondo reale (in cui le cose sono fatte di atomi). Una fase che nel tempo ha assunto diversi nomi: Mark Weiser l’aveva chiamata la fase del computer ubiquo, poi a inizio secolo venne chiamata del calcolo pervasivo o anche dell’intelligenza diffusa (dall’inglese Ambient Intelligence). Una nuova fase per una nuova era, che ci porta a parlare di realtà aumentata in contrappo- <http://www.ubiq.com/hypertext/weiser/UbiHome.html>. M. Weiser, The Computer for the Twenty-First Century, «Scientific American», CCLXV, 3 (1991), 94-104. 3 4 775
    • sizione alla realtà virtuale che sta solo dentro il computer. La distribuzione capillare dei calcolatori negli oggetti materiali che ci stanno intorno ci permette di guardare il mondo come se avessimo più dei nostri cinque sensi, o meglio potenzia la nostra capacità di percepire la realtà, quasi che fossimo forniti di una sorta di esoscheletro computazionale5 che possiamo indossare virtualmente e che ci invia ed elabora quantità di dati tali da aumentare la capacità percettiva dei nostri sensi. Mentre la realtà virtuale è principalmente un problema di potenza di calcolo e programmi di simulazione, la realtà aumentata è invece un problema complesso di integrazione di fattori umani con l’informatica, con l’ingegneria e con le scienze sociali. Ecco allora che le città intelligenti sono città in grado di rendere disponibile la miriade di dati e informazioni che arrivano dai computer disseminati nell’area urbana, in modo da dare in tempo reale una migliore e più approfondita conoscenza della città agli amministratori e ai cittadini, facilitando la loro vita e liberandoli da tutta una serie di incombenze grazie ad una migliore qualità ed efficienza dei servizi di trasporto e ospitalità, di sicurezza, di pronto soccorso, di telemedicina, di risparmio energetico, di monitoraggio dell’inquinamento, di raccolta dei rifiuti e così via. Le città intelligenti ci danno dunque una maggiore tranquillità quando le abitiamo, perché ci sentiamo più preparati ad ogni evenienza, siamo cioè in grado di pianificare meglio il nostro futuro, che ci appare così meno minaccioso e meno imperscrutabile. Come immaginato da Weiser e Brown, la tecnologia approccia le nostre vite in una maniera così amichevole che già nel ’96 la chiamarono l’era della «tecnologia della calma», una tecnologia che, come vedremo, permette di mettere in relazione centro e periferia, donandoci una percezione del mondo più rassicurante. Le tre fasi evolutive dei calcolatori La prima fase, che va dalla fine degli anni ’50 alla fine degli anni ’80 dello scorso secolo, è chiamata mainframe, per ricordare il rapporto che le persone avevano con i computer, i quali erano per lo più gestiti da esperti a porte chiuse. Una fase in cui il computer era una risorsa scarsa e oltremodo costosa, il cui uso doveva essere prima negoziato con i responsabili R. Siagri, Pervasive computers and the GRID: the birth of a computational exoskeleton for augmented reality, in Proceedings of International Workshop on Principles of Software Evolution, Dubrovnik 2007, 1-4. 5 776
    • del centro di calcolo e poi condiviso con altri utenti esperti. Il tutto in una sorta di ritualità sacra dove la divinità era il mainframe, il tempio era il centro di calcolo, il gran sacerdote era il direttore del centro e i pochi utenti erano la sparuta schiera degli eletti ammessi ai riti. Nell’era dei mainframe, il rapporto tra umani e computer si riduceva a questo, perché più utilizzatori erano costretti a condividere la stessa macchina, ma si notava già un abbozzo di futuro, perché i terminali informatici (monitor e tastiera con un minimo di intelligenza locale) cresceranno sempre più in potenza e autonomia, e ci seguiranno nel tempo dato che tuttora interagiamo con il computer tramite gli occhi e le mani, fino a trasformarsi di recente in un’unica unità integrata il monitor con touch-screen dei nuovi tablet e smartphone. La seconda grande fase è stata quella del personal computer (PC), che possiamo collocare tra il 1985 e il 2005 (fig. 2). A metà degli anni ’80 il numero di persone che utilizzavano il personal computer superò il numero di persone che utilizzavano computer condivisi,6 e il rapporto con il computer diventò di tipo personale. Oggi siamo abituati a pensare al “nostro” computer, che contiene i nostri dati e interagisce direttamente e profondamente con essi, e quando non è occupato a fare le nostre cose non fa nient’altro. Ma il personal computer, quando cominciò a entrare nelle nostre case, era quasi come l’automobile: un elemento speciale, relativamente costoso, che ti poteva “portare dove volevi andare” ma richiedeva una notevole attenzione per operare. Oggi, proprio come si possono avere più automobili, si possono avere più personal computer, da utilizzare a casa, al lavoro e per andare in giro. La definizione allora di PC è quella di un computer con cui si ha un rapporto speciale e che viene utilizzato in maniera esclusiva, occupandone tutte le risorse. La spinta verso la standardizzazione,7 che rende possibile utilizzare lo stesso software su macchine di diversi costruttori, ha fatto sì che dei tanti possibili PC ne rimanesse uno solo: il PC derivato dall’iniziale progetto IBM, basato su processori Intel e con il sistema operativo Windows. <http://arstechnica.com/business/2012/08/from-altair-to-ipad-35-years-of-personalcomputer-market-share/4/>. 7 Il primo PC cosi come noi lo conosciamo fu prodotto da IBM. In seguito, grazie alla pubblicazione dell’architettura di progetto del PC, si sono fatti strada gli allora detti cloni, costruiti copiando alla lettera i PC IBM. Il passo successivo i è stato quello dei PC compatibili, che riproducevano le funzionalità del PC ma con un’implementazione originale. Oggi con l’avanzata standardizzazione delle funzioni e dei componenti, si parla solo di PC indipendentemente da chi ne sia il produttore. 6 777
    • 3000 2500 2000 Tablet Smartphone PC 1500 1000 500 0 2. Evoluzione delle vendite annuali di PC, tablet e smartphone.8 Oltre al PC tradizionale Wintel (Windows-Intel) va menzionato il PC MAC, prodotto unicamente dalla Apple, che è riuscito a resistere nel tempo ma per far questo si è progressivamente avvicinato, dal punto di vista hardware e software, al PC-Wintel. In questa seconda fase, tra l’altro, non sono affatto scomparsi i mainframe, perché grazie all’aumento progressivo e rapidissimo delle prestazioni dei PC, questi sono oggi in grado di svolgere sia la funzione di mainframe, sotto il nuovo nome di PC-server, sia la funzione di terminale sotto il nome di PC-client. Ecco allora che si parla di relazione tra PC server e PC client, la quale dà origine al binomio clientserver tuttora in uso, e di cui parleremo in dettaglio più avanti. Grafico ottenuto mettendo insieme dati da varie fonti: Gartner, IDC, Strategic Analytics, BI Intelligence. 8 778
    • Le tendenze principali nell’informatica Fase Informatica Tipo di relazione Rapporto Macchina-Umano 1° fase: mainframe molte persone condividono un computer 1:N 2° fase: PC un computer, una persona 1:1 diffusione di internet ... di transizione per... 3° fase: ubiquitous computing molti computer condivisi da ognuno di noi N:1 Prima di passare a descrivere la terza fase, due parole vanno spese su internet. Sul fenomeno internet si è scritto tanto e un po’ tutti abbiamo familiarità con questo termine. Per i nostri scopi diciamo solo che internet ha reso palese come le reti di calcolatori possano influenzare profondamente il modo di lavorare ed interagire delle persone, e questo era proprio quanto auspicato da Weiser. Miliardi di individui sono oggi interconnessi e le loro informazioni sono condivise. La possibilità di condividere informazioni non era affatto evidente nella prima fase di internet, quando il web era read-only, cioè il flusso dei dati era monodirezionale e andava unicamente dal sito all’utente. Le cose sono cambiate con il passaggio al web read-write, che ha permesso la bi-direzionalità dei flussi. La nascita dei blog e dei social network ha poi ulteriormente amplificato il fenomeno e si parla adesso del social web o web 2.0. È interessante notare che proprio internet riunisce gli elementi dell’era dei mainframe (oggi PC server) e dei PC client. Infatti il personal computer può anche essere visto come un terminale evoluto, in grado di vivere anche senza la connessione al PC server. Per questa ragione nel tempo si è progressivamente affermato l’uso del termine client al posto di terminal per identificare un PC collegato ad un server, dove il server “serve” i dati richiesti dal client. Internet amplifica su scala globale e massiva il paradigma del mainframe-terminale, o meglio del client-server. Il terminale quindi prima diventa PC client, e poi, grazie all’uso diffuso dei browser (Explorer, Firefox, Chrome), diventa PC web-client. Il mainframe invece prima diventa PC server e infine PC web-server. Da notare che se all’inizio, nel primo passaggio, c’era pur sempre bisogno dell’ufficio IT, nel secondo passaggio (grazie all’avvento del cloud computing, di cui parleremo più avanti, originatosi dalla combinazione della virtualizzazione dei server e delle tecnologie del web 2.0) non abbiamo più nemmeno bisogno di avere il nostro dipartimento IT, vale a dire che tutti possiamo disporre in modalità di servizio di quanti server vogliamo per il tempo che vogliamo. 779
    • La terza fase, quella che Weiser e Brown chiamarono del computer ubiquo, e che noi definiamo come smart computing, nasce dal risultato dell’interconnessione massiccia di informazioni personali, del business e della pubblica amministrazione. In quest’era anche il web cambierà, e si passerà al web 3.0. Il web 3.0 è ancora in divenire ma di sicuro possiamo dire che il passaggio da 2.0 a 3.0 significherà un migliore accesso alla enorme mole di dati presente sulla rete, ottenuto potenziando significativamente i motori di ricerca e gli strumenti di ricerca e analisi dei dati. Questa terza onda dell’informatica che stiamo oggi vivendo, iniziata agli albori del XXI secolo, si protrarrà fin oltre il 2020. Per comodità, potremmo prendere come punto di inizio il momento in cui le vendite di smartphone hanno superato le vendite di PC (fig. 2), cosa che è avvenuta alla fine del 2011.9 Con gli smartphone siamo sempre potenzialmente connessi ad internet e dunque siamo in grado di condividere i molteplici computer interconnessi alla rete, i quali possono essere, se opportunamente programmati, al nostro servizio. In questa terza fase ognuno di noi potrà condividere una crescente molteplicità di computer, dalle centinaia a cui possiamo accedere nel corso di pochi minuti di navigazione in internet, alle migliaia che avremo a disposizione non appena entreremo un po’ di più in questa fase, che è anche l’era dell’internet delle cose. Quando questa sarà al suo culmine, colloquieremo con computer incorporati nelle pareti, nelle sedie, nei vestiti, nelle auto, nelle varie macchine intorno a noi, in altre parole in tutte le cose. L’era dei computer ubiqui o pervasivi è fondamentalmente caratterizzata dalla connessione delle cose del mondo reale con il mondo digitale del calcolo. Questo processo di interconnessione si estenderà a tutte le scale dimensionali, compresa la scala microscopica, quando (e ciò avverrà entro pochi anni) si riusciranno a costruire le nano-macchine.10 Con la realizzazione delle nano-macchine molti settori conosceranno enormi progressi, e in particolare la medicina: farmaci mirati, nano-robot per riparare il corpo o ripulire arterie, per trovare e distruggere virus11 o per migliorare il metabolismo, e molto altro ancora, come la risoluzione di molte malattie neurodegenerative. <http://www.digitaltrends.com/mobile/smartphone-sales-exceed-those-of-pcs-forfirst-time-apple-smashes-record/>. 10 K. Gabriel, Engineering Microscopic Machines, «Scientific American», CCLXXIII, 3(1995), 118-121. 11 R.A. Freitas Jr , TheFuture of Nanomedicine <http://www.wfs.org/Dec09-Jan10/freitas.htm>. 9 780
    • L’era dell’internet delle cose e del Big-data Abbiamo visto prima il significato di client. Oggi, a proposito di miniaturizzazione, si parla di thin client e thin server per indicare i circuiti leggeri, piccoli ed economici che integrano un calcolatore in grado di accedere ad internet e fare sia funzione di server (che elabora e distribuisce dati in un’ottica di supervisione) che di client (che compie elaborazioni locali). È grazie a questo progresso in campo elettronico, ossia alla miniaturizzazione dei computer e al contemporaneo aumento delle prestazioni e riduzione dei costi, che possiamo oggi parlare di IoT. I nostri computer sono più potenti di quello usato dalla Nasa per il progetto Apollo che portò l’uomo sulla Luna, e costano poche centinaia di euro. Fra poco con meno di una decina di euro ci si potrà permettere di installare un web-server in ogni macchina industriale, attrezzatura per ufficio o elettrodomestico casalingo. Più le dimensioni ed i costi si riducono, più aumenta l’utilizzo e più l’IoT diventa realtà (fig. 3). Secondo le ultime stime, si prevede che saranno collegati a internet, entro il 2020, tra i 20 ed i 50 miliardi di dispositivi intelligenti interconnessi (fig. 4). 3. Miniaturizzazione moltiplicazione: tutto sta diventando intelligente. 781
    • Numero di disposiƟvi interconnessi a internet (miliardi) 50 40 30 20 Ericsson DaƟ pubblicaƟ dalle fonƟ tra il 2009 ed il 2011 Google Intel GMSA Cisco IMSresearch 10 0 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 4. Proiezione del numero di dispositivi connessi ad internet. Inoltre questi dispositivi saranno proprio quelli che genereranno il traffico di dati sulla rete. Un traffico che crescerà a dismisura, da qui il termine Big-data12 per indicare questo fenomeno (fig. 5) che ci costringerà ad ideare nuove strategie e tecnologie per gestirlo. Per capire di che mole di dati si parla, notiamo che in figura 5 l’asse dei dati è espresso in exabyte (un miliardo di miliardi di byte), e si vede che già dopo il 2015 si arriverà al migliaio di exabyte all’anno, pari a uno zettabyte. Per avere una idea di cosa sia uno zettabyte, possiamo pensare all’equivalente digitale di 36.000.000 di anni di video in alta definizione o anche a 250 miliardi di DVD, che se consideriamo uno spessore di 2 mm per ogni DVD, formerebbero una pila così alta da coprire metà della distanza tra la terra e la luna. Oltre alla complessità di gestione della mole di dati prodotti, si pone anche il problema di dover indirizzare in modo univoco ogni oggetto intelligente collegato alla rete, attraverso il ben noto indirizzo IP (dove IP sta per internet protocol). Il protocollo internet oggi maggiormente in uso è l’IPv4, ma non sarebbe in grado di gestire la situazione. Per questo è già stata implementata una nuova revisione del protocollo, nota con la sigla IDC definisce le tecnologie Big-data come una nuova generazione di tecnologie e architetture progettate per estrarre valore economico da volumi molto grandi di una vasta gamma di dati consentendone l’acquisizione ad alta velocità, la scoperta e/o analisi. 12 782
    • IPv6,13 in grado di indirizzare più di un migliaio di dispositivi per ogni atomo presente sulla superficie della terra.14 Non c’è dunque di che preoccuparsi nel caso di una futura proliferazione di nano-macchine intelligenti, l’umanità sarà in grado di indirizzarle e dunque anche gestirle. Non v’è dubbio che una mole di computer e di dati così enorme non può che avere un impatto sociale importante. Se analizziamo il fenomeno dal punto di vista storico ci accorgiamo che i computer avranno un impatto analogo a quello avuto da altre due grandi tecnologie del passato, il linguaggio e la scrittura. Sia il linguaggio che la scrittura sono state grandissime innovazioni che, passando attraverso varie fasi, hanno finito per diventare onnipresenti e parte del nostro sfondo. Esse sono oramai ovunque intorno a noi, e sono tecnologie così ovvie che ci dimentichiamo del loro enorme impatto sulla nostra vita quotidiana e anche di quanto tempo ci è stato necessario per padroneggiarle. Lo stesso succederà per il calcolo e i computer. Abbiamo visto che i fattori abilitanti di questa nuova fase sono da un lato la riduzione dei costi dei microchip e l’aumento delle loro prestazioni, un trend inarrestabile esemplificato dalla celebre legge di Moore,15 e dall’altro la sempre maggiore diffusione di internet grazie alla disponibilità di molteplici canali di comunicazione fissa e wireless a costi sempre più contenuti. Oggi nei paesi occidentali è facile trovare 50 microprocessori (microchip con funzione di calcolatore) in una casa media, e più di 30 in un’automobile di fascia medio alta. Sono presenti nei termostati, negli orologi, negli elettrodomestici, nei telecomandi, negli apparati audio-video, nei telefoni, in molti giocattoli e in tantissimi altri oggetti, anche se non ancora tutti dispongono di un canale di comunicazione persistente che li Internet Protocol Specification Version 6, <http://www.ietf.org/rfc/rfc2460.txt>; a confronto con l’IPv4, il protocollo internet attualmente in uso, il vantaggio più evidente dell’IPv6 è il suo spazio di indirizzamento. L’IPv4 dispone di 32 bit per gli indirizzi ovvero il numero massimo di indirizzi e di 232 o anche 4.3×109 (4.3 miliardi cioè un numero inferiore al numero degli umani nella Terra). L’IPv6 dispone di 120 bit per gli indirizzi cioè 2120 o 1.3×1036 (1,3 peta zetta) ovvero abbastanza per il futuro a venire. 14 <http://www.edn.com/electronics-blogs/other/4306822/IPV6-How-Many-IP13 Addresses-Can-Dance-on-the-Head-of-a-Pin->. La potenza dei computer raddoppia ogni 18 mesi. Nel 1965 Gordon Moore, co-fondatore di Intel, osservò che i circuiti integrati, meglio conosciuti come chip di silicio, sembravano essere conformi ad una legge prevedibile: fin dalla loro invenzione nel 1958, la densità dei transistor in ogni chip raddoppiava ogni anno. Egli ipotizzò quindi che questo trend si sarebbe protratto nel tempo. Nel 1975 Moore stimò che il tempo di raddoppio si sarebbe attestato attorno ai 24 mesi. In termini pratici, il risultato è che le prestazioni del personal computer raddoppiano ogni 18 mesi e questo è avvenuto per decenni. Questa previsione è comunemente nota come legge di Moore. 15 783
    • metta in relazione con il mondo esterno e dunque con i computer mobili che portiamo sempre con noi, e che fra pochissimo indosseremo come abiti. A tutt’oggi infatti molti oggetti dotati di computer non possono ancora essere classificati come IoT, visto che sono utilizzabili soltanto uno alla volta e non sono collegati alla rete internet. Potremo dire di essere nel pieno dell’era dell’internet delle cose quando tutti questi oggetti saranno connessi ad internet e potranno finalmente dialogare tra di loro e con noi umani. A quel punto avremo a disposizione miliardi di fonti di informazione e moltissimi modi per analizzarle sia in casa che in ufficio, ma soprattutto mentre ci muoveremo. Tra poco il forno della cucina scaricherà nuove ricette da preparare con i cibi che abbiamo in casa, il frigorifero ci informerà se gli alimenti sono in scadenza o se sono finiti, la bilancia colloquierà con gli elettrodomestici in cucina al fine di proporci i cibi più adatti alla nostra dieta; in un prossimo futuro possiamo perfino immaginare pareti di casa intelligenti con colori e superfici che si adatteranno alla situazione e pavimenti in grado di avvisarci della presenza di intrusi. 90 80 2015 Il traffico IP totale annuale ha raggiunto la soglia dell’exabyte Il traffico generato dai disposiƟvi mobile supera il traffico generato da disposiƟvi fissi Il numero dei disposiƟvi interconnessi è il doppio della popolazione del Pianeta Exabyte / Mese 70 2014 1/5 dei video Internet sono ora originaƟ da disposiƟvi non-PC 60 50 40 30 20 10 2012 i video Internet hanno raggiunto il 50% del traffico sulla rete. Il numero di abitazioni che generano >1TB al mese ha raggiunto il milione 2011 L’area dello schermo di tuƫ i disposiƟvi consumer ha raggiunto i 30 cm2 per persona. Il numero di disposiƟvi interconnessi ha raggiunto il numero di abitanƟ del Pianeta 2010 i video Internet hanno superato i P2P e rappresentano il più grande traffico Internet consumer 2010 Internet consumer ha superato l’internet business 2000 2005 2010 2015 5. La crescita esplosiva dei dati. Ma oltre a questo che è uno scenario domestico, l’avvento dell’IoT consentirà di ampliare enormemente la capacità dell’ICT (Information and Communication Technology) di semplificare le nostre vite, andando ad 784
    • occuparsi anche delle più piccole incombenze quotidiane e lasciandoci sempre più tempo da dedicare alle cose che per noi sono più importanti. Estendendo questo ragionamento agli ambienti urbani e alle città possiamo già immaginare quale grande aiuto ci potrà dare una rete pervasiva di computer: cartelli stradali dinamici in grado di gestire il traffico in maniera da ridurre gli ingorghi, utilizzo efficiente dei mezzi pubblici in funzione delle necessità effettive, gestione intelligente degli edifici in materia di risparmio energetico e di sicurezza, e in fin dei conti risoluzione della maggior parte dei problemi che oggi limitano la crescita sostenibile delle città e limitano la qualità della nostra vita. L’era dell’IoT sta cambiando radicalmente anche il modo di progettare i computer. Ora che i computer stanno entrando sempre più nelle nostre vite, dovranno essere sempre più alimentati a batteria o avere un basso impatto sulla bolletta energetica. Di conseguenza è diventato molto più importante che in passato il loro basso consumo o la durata della batteria. Dato che le prestazioni vanno parametrate al consumo, la metrica più importante è ora mips/watt, ovvero “milioni di istruzioni per secondo” per ogni watt16 richiesto. A tale proposito, Jonathan Koomey e i suoi colleghi della Stanford University hanno scoperto un’altra legge di tendenza che non riguarda le performance come la legge di Moore, ma l’efficienza energetica dei computer, e che ne descrive molto accuratamente l’evoluzione dal 1950 ad oggi. La legge di Koomey dice che il numero di calcoli per ogni joule17 di energia dissipata sta raddoppiando circa ogni 1,5 anni o anche, prendendo la formulazione originale: «dato un carico di calcoli fisso, la quantità di energia necessaria per eseguirlo si dimezza ogni 18 mesi». Un ulteriore parametro è bit/sec/m3, che misura la quantità di informazioni disponibili in un metro cubo di spazio per ogni secondo. Per quanto riguarda quest’ultimo parametro, è da notare che i limiti dati dalle leggi fisiche alle trasmissioni radio, e che potrebbero limitare l’uso pervasivo dei computer, possono essere in parte superati da opportune architet- L’ultima classifica della Green500 del 28 giugno 2013, che riporta i 500 supercomputer più energeticamente efficienti, ha come primo in classifica il supercomputer Aurora Tigon della Eurotech con 3,2 GFLOP/watt. Un GFLOPS equivale ad un miliardo di operazioni con la virgola al secondo. Un watt è la potenza richiesta per sollevare dal tavolo e portare alla bocca una tazzina di caffè. 17 L’energia di un joule è a grandi linee l’energia richiesta per sollevare dal tavolo e portare alla bocca una mela, o per alzare una mela (100 g) di un metro (100 cm). Un watt che è un joule al secondo è la potenza richiesta se si vuole portare la mela alla bocca in un secondo. I joule ci dicono quanta energia ci serve o eroghiamo, il watt ci dice con che velocità possiamo usare o erogare quell’energia. 16 785
    • ture software di trasporto dati tendenti a ridurre tutte le duplicazioni e ritrasmissioni. Questo è un aspetto da non trascurare quando si esce dal settore dell’intelligenza domestica per entrare in un contesto di città intelligente, dove la quantità di dispositivi interconnessi comincia a crescere in maniera molto significativa. Periferia e tecnologia delle calma Prima di addentrarci a discutere dell’impatto che questo immenso progresso tecnologico avrà sulla città, c’è un altro argomento che va affrontato. Si tratta del significato, dal punto di vista percettivo, dei due concetti di periferia e centro. Con la parola «periferia» definiamo quelle cose che ci stanno intorno, a cui siamo agganciati, ma delle quali non c’è bisogno di curarsi in modo esplicito.18 Un oggetto che sta alla nostra periferia è un oggetto per il quale abbiamo un’attenzione latente, ma che può essere portato al centro in pochissimo tempo. In altre parole, è periferia tutto quello che sta intorno a noi ma non è importante nel momento presente. Sappiamo da studi19 fatti che la mente umana gestisce in media tre variabili, e può arrivare a gestirne cinque con estrema difficoltà. Ne consegue che siamo costretti a spostare quasi tutto il mondo reale alla nostra periferia, dove rimane relativamente irrilevante, ma se necessario può in qualunque istante riposizionarsi al centro della nostra attenzione. È così molto importante diventare capaci di spostare facilmente oggetti dalla periferia della nostra attenzione al centro e viceversa. È questa facilità di relazionarsi dinamicamente con molto più di cinque variabili che ci dà il senso di tranquillità a cui vuole alludere la definizione di tecnologia della calma, punto di approdo del calcolo ubiquo e pervasivo o dell’IoT, una tecnologia in grado di farci sentire tranquilli indipendentemente dal luogo dove ci troviamo. La Città Intelligente L’idea della Smart City o “città intelligente” nasce dunque dalla diffu- J.S. Brown, P. Duguid, Keeping It Simple: Investigating Resources in the Periphery, in Bringing Design to Software, a cura di T. Winograd, New York 1996, 129-150. 19 G.S. Halford, R. Backer, J.E. McCredden, J.D. Bain, How many variables can humans process?, «American Psychological Society» XVI, 1 (2005), 70-76. 18 786
    • sione dei calcolatori, come conseguenza della progressiva miniaturizzazione e riduzione di consumo e di costi, e dalla contemporanea diffusione e progressiva riduzione di costo delle connessioni dati a filo o senza filo. La pervasività dei calcolatori interconnessi, che si traduce in una grande disponibilità di dati, fa emergere il desiderio di realizzare una città più integrata ed efficiente dove l’amministrazione e i vari operatori possono compiere scelte strategiche più mirate, in funzione dell’analisi dei dati storici o disponibili in tempo reale. Questo a sua volta consente di fornire più servizi ai cittadini e di guidare in modo più armonioso la crescita urbana. Una città intelligente che vada incontro alle necessità della popolazione urbana deve sicuramente porre l’attenzione sulla costruzione di un ambiente sicuro, su sistemi di trasporto efficienti, sulla riduzione dell’inquinamento. Va da sé che riuscire a rispondere a queste richieste significa creare un ambiente urbano attraente e vivace, che offre una migliore qualità della vita attirando nuovi investimenti anche dall’estero, e ponendo le basi per lo sviluppo di una vasta gamma di attività sportive, culturali e immobiliari. Almeno cinque sono le aree di intervento che vanno indirizzate e gestite, e dove la tecnologia può essere di grande aiuto: la sicurezza urbana, la mobilità, la qualità della vita, la gestione di grandi eventi, lo sviluppo e la crescita sostenibile. Questo non è un programma fine a sé stesso, è un percorso ineludibile per le città di domani. Se si considera che già oggi la metà della popolazione mondiale, composta da 7 miliardi di persone, vive nelle aree urbane, e che oltre il 70% della popolazione mondiale vivrà in città entro il 2050, quando la popolazione mondiale supererà in base alle stime attuali i 9 miliardi di persone, si capisce come sia estremamente importante iniziare fin da subito a rendere più intelligenti le città. Anche solo il fenomeno dell’inurbamento basterebbe per far pensare alle città intelligenti; è ovvio infatti che l’aumento della concentrazione di persone pone nuove sfide alla sicurezza del cittadino, tra cui la prevenzione della criminalità, la gestione e il coordinamento inter-forze in caso di emergenze e la mitigazione di calamità naturali. Molti urbanisti stanno già mettendo a punto strategie complesse per gestire tutti questi servizi, utilizzando in maniera importante le diverse reti di comunicazione interconnesse che monitorano le funzioni principali: i servizi della città, i trasporti, l’erogazione di acqua ed energia. I più avanzati tra questi sistemi fanno uso di molti computer, anche se nella maggior parte dei casi questi operano ancora in settori verticali separati, ovvero solo per l’amministrazione comunale, per la sanità, per i trasporti o per le utilities. 787
    • 7. Visione integrate del flusso dei dati in una città intelligente. Per creare una Smart City, questi sistemi devono essere trasformati ed interconnessi tra di loro così da lavorare come un unico sistema di sistemi che sia onnipresente e orientato al cittadino (fig. 7). L’integrazione dei sistemi porta altri benefici, rimuovendo le barriere tra i tradizionali silos di informazioni e fornendo dati in tempo reale per le variabili che influenzano le diverse questioni come l’inquinamento, la congestione, l’uso di energia, gli interventi di emergenza e l’accesso alle cure sanitarie. Il flusso regolare di informazioni consente ai responsabili amministrativi e politici di prendere decisioni migliori: quando i dati sono raccolti in un unico strumento di informazione diventa più facile tener conto di tutte le variabili rilevanti e valutare tutte le opzioni. Con la creazione di una Smart City non solo si migliorano le condizioni di vita e di lavoro ma si contribuisce soprattutto ad attrarre una forza lavoro creativa e qualificata, che in un mondo ad alta intensità di conoscenza è sempre di più ciò che determina il successo economico di una città; alcune città come Kochi, Malta, e Dubai ne sono un esempio. 788
    • Il Cloud Computing e il ruolo dell’ICT Questo scenario può diventare realizzabile se si è in grado in prima battuta di “misurare” i vari fenomeni, e gli smart computer ci aiutano proprio in questa operazione. Notiamo tra l’altro che a livello più astratto ciò è reso possibile dal progressivo ed ineludibile passaggio da un mondo analogico e disconnesso ad un mondo sempre più digitale ed interconnesso, che rende semplice la misurazione a distanza. Una volta raccolti i dati di misura dal campo, questi devono essere convogliati tramite la rete ad un centro di calcolo, dove i dati vengono prima memorizzati ed elaborati e poi distribuiti. Anche per questa attività il progresso tecnologico ci sta venendo incontro, permettendoci di utilizzare grosse infrastrutture centrali di calcolo (quelle che in passato si chiamavano mainframe) senza doverle acquistare. Grazie alla spinta verso la virtualizzazione del calcolo e dello storage con la tecnologia del cloud computing,20 oramai ogni amministrazione, anche la più piccola, può cominciare a rendere più intelligente la sua città fornendo dati ed informazioni utili on-demand ai suoi cittadini tramite i dispositivi smart portatili e personali, di cui lo smartphone è un esempio. Se la tecnologia ha ormai quasi completamente risolto i problemi dell’hardware dei dispositivi, rimane ancora in via di risoluzione l’aspetto software, cioè quello che riguarda il trattamento dei dati. Per diffondere l’approccio smart nelle città bisogna infatti anche trovare standard e pratiche condivise fra tutti i protagonisti di questa evoluzione intelligente, soprattutto nelle prime fasi di digitalizzazione e raccolta dei dati, al fine di evitare la formazione di una “Babele digitale” di dati e andare invece nella direzione dei “dati aperti”.21 È su questo punto che ci soffermeremo, approfondendo ancora una volta il senso dell’evoluzione delle tecnologie del calcolo, ma questa volta sotto l’aspetto delle tecnologie abilitanti alla trasformazione da prodotto a servizio. Come per avere l’elettricità non è necessario possedere Il cloud computing, in italiano la “nuvola”, non è altro che una naturale evoluzione del rapporto web-client e web-server, dove ora il server non è più di proprietà ma è condiviso con tanti altri utenti e dunque non viene acquistato ma pagato a canone in funzione del suo utilizzo (tempo, transazioni, quantità di memoria, eccetera). 21 Tratto da Wikipedia: I “dati aperti”, comunemente chiamati con il termine inglese open data , sono alcune tipologie di dati liberamente accessibili a tutti, privi di brevetti o altre forme di controllo che ne limitino la riproduzione. L’open data si richiama alla più ampia disciplina dell’open government, cioè una dottrina in base alla quale la pubblica amministrazione dovrebbe essere aperta ai cittadini, tanto in termini di trasparenza quanto di partecipazione diretta al processo decisionale, anche attraverso il ricorso alle nuove tecnologie dell’ICT. 20 789
    • una centrale elettrica, così per fare dei calcoli, poco o tanto complicati che siano, o per memorizzare montagne di informazioni, non è più necessario comprare computer e dischi di memoria. Queste funzioni si possono infatti ottenere on-demand e in modalità as-a-service pagando solo per quello che si usa. Per arrivare a questo risultato, che solo dieci anni fa sembrava un miraggio anche se il concetto risale al 1960,22 si è passati per fasi successive di standardizzazioni e gerarchizzazioni, prima dell’hardware e poi sempre più del software. D’altra parte, quando la complessità di un sistema cresce l’unica maniera per dominarla è suddividere il sistema in sottosistemi o moduli funzionali che si agganciano gli uni agli altri tramite pochissimi punti di interazione (pensiamo alla standardizzazione delle componenti in meccanica, idraulica ed elettromeccanica).23 Fin qui tutto appare abbastanza comprensibile, ma la domanda che sorge è: qual è la strategia migliore per suddividere in moduli un sistema complesso come una rete eterogenea di computer e di dati, è preferibile un approccio verticale oppure orizzontale? Il cloud computing ha una suddivisione orizzontale (fig. 8a) delle componenti, che in via generale sono tre: l’infrastruttura harware con i computer e i dispositivi di rete, che nella terminologia as-a-service ha l’acronimo IaaS (Infrastructure as a Service), poi un secondo strato detto piattaforma o PaaS (Platform as a Service), che oltre a dialogare con l’infrastruttura contiene tutta una serie di funzioni che semplificano lo sviluppo del software applicativo specifico, e per ultimo lo strato del software applicativo, noto con l’acronimo SaaS (Software as a Service). John McCarthy (1927-2011) è stato il primo nel 1961 a suggerire pubblicamente (in un discorso tenuto per celebrare il centenario del MIT) che la tecnologia del computer time-sharing potrebbe comportare che in futuro le applicazioni e la potenza di calcolo possano essere vendute attraverso il modello di business delle utility (come l’acqua o l’elettricità). 23 H.A. Simon, The Architecture of Complexity, «Proceedings of the American Philosophical Society» CVI, 6. (1962), 467-482. 22 790
    • Cloud Clients Web browser, Mobile app, Thin client, Terminal emulator Web browser SaaS Mobile app Terminal emulator Thin client SaaS CRM, Email, Virtual desktop, Games, Comunicazioni PaaS ExecuƟon runƟme, database, web browser, tool di sviluppo PaaS IaaS IaaS Virtual Computers, Server, Storage, Bilanciatori di carico, ReƟ (a) (b) 8a-b. Architettura a strati logico/funzionali del Cloud logica (a) e per numerosità di oggetti su ogni strato (b). Questi tre strati si possono rappresentare anche con un triangolo rovesciato (fig. 8b), infatti la tecnologia del cloud, basandosi sull’idea di servizio, tende ad utilizzare le risorse hardware nel modo migliore, riducendo gli sprechi e rendendone efficiente l’utilizzo, quindi richiedendo meno hardware e meno energia per fare le stesse cose. Alla base del triangolo rovesciato si trova la IaaS (calcolatori, dischi, apparati di comunicazione, apparati di alimentazione), e su ognuno di questi computer “fisici” molto potenti vengono creati molti computer “virtuali”, che sono programmi eseguiti sui computer fisici. Se i canali di comunicazione sono abbastanza capienti (di qui l’importanza della banda larga), i computer fisici possono risiedere negli angoli più remoti del pianeta. Sull’hardware virtuale stanno poi appoggiate un certo numero di piattaforme software, in funzione della tipologia di servizi richiesti (piattaforme per la gestione dei clienti, della produzione, della lettura dati dai contatori, per la localizzazione e la georeferenziazione e molte altre). L’ultimo strato è quello delle applicazioni software, ed è quello più ampio, in cui l’immaginazione si può sbizzarrire. Un’analogia dei tre strati del cloud nel mondo reale potrebbe essere la seguente: una casa per essere costruita ha bisogno di un appezzamento di terreno; i terreni da costruzione sono di solito lottizzati e dotati delle infrastrutture per poter accedere a tutti i principali servizi quali acqua luce, gas, fognatura, telefono, eccetera. Un’area lottizzata potrebbe essere vista come l’analogo dell’IaaS. Se poi immaginiamo di disporre attorno ai terreni lottizzati tutti i diversi materiali che servono per costruire una casa (mattoni, colonne, architravi, pareti, finestre, porte, piastrelle, termosifoni, sanitari 791
    • eccetera), indipendentemente dal progetto finale e prima che il progetto finale venga realizzato, così da avere tutto sottomano durate il successivo processo di costruzione, ecco che abbiamo realizzato l’analogo della PaaS. Sappiamo che ci possono essere più PaaS: l’analogo in edilizia potrebbe essere la presenza di lotti con attorno il materiale per costruire case a un piano, case a due piani, condomini, grattacieli, impianti sportivi e così via. L’analogo della SaaS, ovvero dell’applicazione as-a-service, nel nostro esempio è la costruzione finita. La cosa interessante è che se nel modo degli atomi è irrealistico poter disporre di una piattaforma di costruzione in ogni lotto con tutte le possibili tipologie, visto lo spreco enorme di materiale e di spazio, nel modo digitale questo invece è possibile, perché non comporta né costi inutili né sprechi, anzi, nel caso del cloud computing le componenti sono condivise tra molti utilizzatori fin dall’origine. È da questa intrinseca condivisione delle risorse che nasce la possibilità di fornire tutto in modalità di servizio e dunque senza la necessità di comperare alcunché a priori. Anche le applicazioni SaaS vengono poi fruite da remoto in modalità as-a-service da qualunque dispositivo che abbia ad esempio un web browser. La sostenibilità e il ruolo delle tecnologie dell’informazione aienza collettiva e un più elevato livello di socializzazione tra gli umani. La tecnologia che resiste è quella che riesce a garantire una maggiore universalità d’uso, quella che riesce a bilanciare la necessità di creare standard, protocolli e modelli evolutivi a supporto del suo sviluppo, contenendone la crescente complessità, con la libertà, la creatività, la capacità di innovazione degli utilizzatori. Man mano che appariva evidente la radicale trasformazione che internet avrebbe portato, in tanti hanno lavorato per garantire trasparenza, apertura e condivisione. Attraverso la formulazione di linguaggi sempre più comuni e aperti internet sta diventando sempre più sociale ed “etica”. È proprio grazie a questa trasformazione che coinvolge tutto il comparto dell’ICT che si sta delineando una nuova radicale trasformazione del nostro concetto sia di città che di società. Disponiamo di tecnologie digitali con enormi potenzialità di innovazione, a cui nei prossimi anni accederanno miliardi di persone e alle quali già da ora sono virtualmente collegati miliardi di dispositivi. In più ci sono nuove aree del mondo che conoscono uno sviluppo vertiginoso e incontrollabile proprio nel momento in cui le sfide poste dal cambiamento climatico, dalla questione energetica, dalla crisi economica impongono la ricerca di soluzioni alterna- 792
    • tive, sostenibili economicamente e su scala globale. Grazie ai progressi dell’ICT le città e le comunità possono trasformarsi diventando il motore di un nuovo sviluppo socio-economico sostenibile. Negli ultimi anni, il tema Smart City è stato ampiamente sollevato in tutto il mondo e alcuni tentativi pilota di avvio di percorsi smart sono stati intrapresi in qualche città. Non si è però ancora imboccata una strada comune, basata su un concetto condiviso di cosa renda una città più intelligente e sostenibile, e non si è sviluppata una capacità di replicazione su larga scala delle best practice e dei progetti di riconosciuto valore. Ciò è avvenuto principalmente per un motivo: i diversi attori coinvolti ancora oggi “non parlano la stessa lingua”. Non esistono modelli, pratiche operative, standard tecnici condivisi e soluzioni specifiche cui fare riferimento; scarseggiano strumenti quali piattaforme per la raccolta e la distribuzione dei dati che aiutino le amministrazioni, le imprese, i cittadini, i fornitori di servizi e di reti a collaborare per dare forma alle comunità del futuro in modo aperto, trasparente e collaborativo. Nonostante ciò i dati si possono già raccogliere, ma vanno raccolti in maniera che siano interoperabili e riutilizzabili anche in futuro. Per fare questo è necessario realizzare una piattaforma che disaccoppi i produttori di dati dagli utilizzatori di dati,24 in altre parole “disintermediando” i sensori intelligenti (smart computer) che producono i dati dalle applicazioni che li usano o li potranno usare. L’idea è di trovare un nuovo modo per realizzare sistemi interconnessi che possano espandersi in numero e nello spazio senza dover riscrivere i software di acquisizione e controllo o modificare il metodo di archiviazione dei dati. Inoltre i dati dovrebbero essere raccolti nella maniera più grezza possibile, per salvaguardare l’integrità dell’informazione originaria. I pattern tecnologici si ripetono ma ogni volta migliorandosi Guardando alla storia del progresso tecnologico, vediamo che questo è fatto di un continuo formarsi e ripetersi di pattern molto simili (terminale-mainframe, client-server, web-client-web-server) che però ad ogni ripetersi tendono a diventare, grazie alla progressiva virtualizzazione e smateria- Un esempio di piattaforma di questo tipo è il prodotto EDC di Eurotech che nasce con lo scopo di semplificare il modo di raccogliere grandi moli di dati dal campo. Per maggiori dettagli si rimanda a: <http://www.eurotech.com/dla/white_papers/Eurotech_reinvents_embedded_connected_computing_for_M2M.pdf> <http://www.eurotech.com/en/products/software+services/everyware+device+cloud/edc+what+it+is> 24 793
    • lizzazione, sempre più globali e accessibili ad uno strato sempre più ampio di popolazione (fig. 9). L’evoluzione dal mainframe al PC per poi passare allo smart computer ubiquo e pervasivo, pur perpetuando il paradigma client-server, in realtà ha portato a incredibili passi avanti in quanto a sostenibilità e democratizzazione, e le smart cities ne sono una eccellente dimostrazione. 9. Dal Mainframe al Cloud. In questa visione non ci sono più differenze tra computer usati da un umano o usati da altri computer, né tra i dati provenienti da un sensore di temperatura, da un sensore di CO2 o da qualunque altro dispositivo smart. È l’utilizzo che se ne farà che ne farà emergere la differenza. È l’internet delle cose, dove umani e macchine collaborano e cooperano per costruire un mondo migliore. 794