• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Tesi:  Internet of Services, uno stato dell'arte.
 

Tesi: Internet of Services, uno stato dell'arte.

on

  • 993 views

Questo lavoro di tesi si occupa di fornire uno stato dell'arte dell'attuale fenomeno definito come web 3.0, ultima evoluzione di internet. Nel primo capitolo si ripercorrono i vari passaggi e ...

Questo lavoro di tesi si occupa di fornire uno stato dell'arte dell'attuale fenomeno definito come web 3.0, ultima evoluzione di internet. Nel primo capitolo si ripercorrono i vari passaggi e innovazioni introdotte dal web 1.0 al 2.0. Nei capitoli successivi si presentano attraverso una ricerca di benchmark i vari servizi esistenti in chiave web 3.0, tecnologie che sfruttano le capacità semantiche e che si inseriscono in quel fenomeno definito come internet delle cose, dove mondo virtuale e fisico si sovrappongono. Il capito IV si occupa di fornire una breve parentesi sulla pervasività di tali tecnologie ed eventuali problematiche di privacy e security. Infine il V capitolo intende presentare eventuali scenari futuri sulla base dei principi etici di design.

Statistics

Views

Total Views
993
Views on SlideShare
993
Embed Views
0

Actions

Likes
1
Downloads
0
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Tesi:  Internet of Services, uno stato dell'arte. Tesi: Internet of Services, uno stato dell'arte. Presentation Transcript

    • UNIVERSITÀ DEGLI STUDI DI SASSARI Facoltà Di Scienze Politiche CORSO DI LAUREA SPECIALISTICA IN EDITORIA, COMUNICAZIONE MULTIMEDIALE E GIORNALISMO “INTERNET OF SERVICES”: UNO STATO DELL’ARTE Relatore: PROF. ALESSIA RULLO Correlatore: Tesi di Laurea di: PROF. ELENA PODDIGHE FRANCESCO SARDU ANNO ACCADEMICO 2008-2009 1
    • “I think design covers so much more than the aesthetic. Design is fundamentally more. Design is usability. It is Information Architecture. It is Accessibility. This is all design”. -Mark Boulton- 2
    • INDICE Prefazione………………………………..………………………………………...….6 Capitolo I - Dal web 2.0 al web 3.0 1.1 - Definizione di web 2.0 ………..…………………………..…....…9 1.2 - Web 1.0 VS web 2.0………………..………..…….…….…..…..13 1.3 - Gli strumenti del web 2.0………………………….....................21 1.4 - Il software come piattaforma….………………….……........…..31 1.5 - Primi passi verso il web 3.0.……………………..……….…..…35 1.6 - Web 3.0 come web semantico ……...……………...….......….37 1.7 - Requisiti del web 3.0 ….……………..…………….…...…....44 1.8 - Verso l’internet delle cose ……………………………….…....48 Cap II – Web semantico 2.1 - Potenzialità della semantica …………………….......…….….….51 2.2 - Benchmark applicazioni semantiche web 3.0 ……….......….53 2.3 - Powerset …..........……………………………………….….......…55 2.4 - True Knowledge ………………………………....…..…………59 2.5 – Hakia…..…………………………………………….…......………62 2.6 - Calais ……………..……………………………….……….…..…..65 2.7 - Cogito ……………………………….……………………………67 2.8 - Freebase …….………………………………………..………69 2.9 - Tripit ……………………………………………….………..…..71 2.10 - Swotti ……………………………………………..……….….73 2.11 - Boorah ………………..…………………………….………...…..76 2.12 - Twine …………………...………………………………………..78 2.13 Il futuro della semantica……………………..…….………..80 3
    • Cap III- Internet of Things 3.1 - Definizione di internet of Things ………....………..……….82 3.2 - Cenni storici e funzionamento delle etichette Rfid ……..………88 3.3 - Mir:ror …………………………………………..……….….97 3.4 - ZigBee ….……....………………………………………………..99 3.5 - Near Field Communications ….......……………………..……….100 3.6 - Physical Computing …........………………………...…………...104 3.7 - Arduino ……………..…..……………..........………..……………106 3.8 - Plant sense ……………........……………………………………..108 3.9 - Widenoise …..……………….....………………...…………..…110 3.10 - Pachube ……….…………………….…………………..……112 3.11 – SenseAware …………………......………………….….…..114 3.12 - CeNSE ….....................………………………………….….….116 3.13 - CitySense ……………………….……………………….…..118 3.14 - Waze ………………..………………….…………………...….120 3.15 - Bike Sharing ……..….…………………....…………………….122 3.16 - Netsukuku …………………………….....…………….…..123 Cap IV – Interaction Design 4.1 - Definizione di Interaction Design …………….…......……………125 4.2 - Storia dell’Interaction Design………….…………………..…...…127 4.3 - Importanza strategica dell’Interaction Design…..…….……..….130 4.4 - Obiettivi dell'Interaction design ………………………………..…131 4.5 - Design di servizi…………………………………………….………138 4.6 - Il settore terziar........……………………………………………….144 4.7 - Servizi e Prodotti…………………….…………….…………..…...147 4.8 - Tecniche del design di servizi ………………….……………..….149 4.9 - Etica nel design...……………………………………………..…....157 4
    • Cap V - Pervasività e Privacy nel web 5.1 - Internet ubiquitous……………..…………....……………………..160 5.2 - Il problema della semantica.………………………………………164 5.3 - Internet delle cose, pervasività delle etichette RFId….….…….169 5.4 - La legge sulla Privacy…………..………………………..…….….180 5.5 – European Consumer Summit…………..…………......………….187 5.5 – Conclusioni………………………….........………………….…….190 Bibliografia………………………………..………………………………….…….….195 Webgrafia………………….……………..………………………………….…….….201 5
    • Prefazione La nostra concezione del web è cambiata o meglio si è evoluta in questi ultimi anni, anche grazie alla velocità di sviluppo tipica delle tecnologie digitali. Ma i cambiamenti non riguardano solo l’aspetto tecnico o tecnologico, è cambiato soprattutto l’approccio grazie all’incremento di nuove funzioni e diversi modi per interagire con internet. La rete che inizialmente nacque per scopi militari e successivamente resa di dominio pubblico, fin dai suoi primi anni, attirò gli interessi di ricercatori e semplici curiosi. In questa sua prima fase di vita restò per diverso tempo relegata alla concezione di uno spazio meramente virtuale, dovuto soprattutto alla limitazione oggettiva in termini di interazione. Questo è quello che riguarda il web 1.0, ossia l’utilizzo di internet come archivio consultivo dove produrre contenuti era pressoché impossibile, l’informazione nasceva dall’ alto per essere consumata in maniera più capillare tramite la rete, internet era solo un mezzo. Per fortuna nel corso degli anni ci fu la seconda fase, chiamata appunto web 2.0. La rivoluzione, oltre che tecnologica, investì proprio il modo di utilizzare internet cambiando radicalmente la sua concezione e filosofia di utilizzo, con il web 2.0 è stato permesso a qualsiasi utente di produrre dei contenuti, sia informativi che di intrattenimento. Inoltre, oltre alla produzione dal “basso” un altro concetto entrò a far parte delle prerogative di internet: la condivisione. In breve il web 2.0 ha permesso di riconsiderare il web, passando da una visione di internet intesa come corpo estraneo della quotidianità, sino a pensarlo come uno spazio più democratico, perché non solo fruibile 6
    • potenzialmente da tutti, ma costruito e arricchito costantemente con il contributo dell’intera community. Proprio in questo momento si è innescata l’ultima evoluzione, quella che porterà il web 2.0 verso il web 3.0. Questa tesi si occupa di offrire uno stato dell’arte di questo fenomeno appena nato, il lavoro è suddiviso in cinque capitoli. La prima parte si occupa di fornire un quadro generale dei cambiamenti che in qualche modo hanno condizionato il nostro modo di vivere il web. La seconda parte si occupa di spiegare come la semantica giocherà un ruolo centrale nello sviluppo dei prossimi servizi, verranno proposti alcuni progetti per illustrare come questa tecnologia verrà utilizzata nel concreto. Nella terza parte si affronterà il tema dell’internet delle cose, una visione che porta con se nuovi e ambiziosi obiettivi che modificheranno nuovamente il nostro concetto di internet, sovrapponendo la dimensione fisica a quella virtuale, internet sarà sempre più connessa alla realtà fino a confondersi con essa. Anche in questa fase del lavoro saranno presentati alcuni progetti realizzati verso questa prospettiva. La quarta parte, invece, cerca di proporre il punto di vista dell’interaction design, i cambiamenti del web hanno portato anche differenti complessità d’uso degli oggetti con cui presto interagiremo. Per questo motivo, il saper progettare i servizi del futuro sarà una risorsa strategica. Il design dei servizi ha come obiettivo e la consapevolezza di migliorare il settore terziario, rispettando gli elementi base di usabilità nell’interazione tra uomo e dispositivi. Infine la quinta parte suggerisce come per il rovescio della medaglia vi siano degli aspetti problematici legati a questo fenomeno. La pervasività di internet, la paura di veder danneggiata la propria privacy, possono essere 7
    • effetti collaterali di questo fenomeno; occorrerà quindi stabilire i giusti vincoli affinché queste nuove tecnologie consentano di agevolare la vita dell’uomo, invece che complicarla. 8
    • Capitolo I - Dal web 2.0 al web 3.0 1.1 - Definizione di web 2.0 Il fenomeno conosciuto come web 2.0, cioè la sua evoluzione è relativamente nuovo. Per web 2.0 non si deve intendere lo sviluppo della tecnologia che sta alla base di internet, ma l’evoluzione dei linguaggi di programmazione usati e del metodo con il quale interagiscono tra loro. Il termine web 2.0 fu coniato nel 2004 ad opera di Dale Doughery1 e Tim O’Reilly2 durante una conferenza. In questi anni, spesso, siamo stati fruitori di molti aspetti derivanti dal web 2.0 senza esserne pienamente consci, ma oggi già si pongono le basi per parlare del web 3.0 o web semantico. Stiamo assistendo in pratica a una nuova evoluzione del web senza aver ancora metabolizzato la precedente. Occorre quindi definire un percorso che parta dalle innovazioni introdotte dal web 2.0, novità che hanno modificato la nostra percezione del web, fenomeni che non 1 E’ uno dei co-fondatori (con Tim O'Reilly) di O'Reilly Media. Fondatore della GNN, il Global Network Navigator, il primo portale web e il sito prima della Internet deve essere supportato dalla pubblicità, e più recentemente è il fondatore ed editore della rivista O'Reilly's Make nuovo. 2 Fondatore di O'Reilly Media (ex O'Reilly & Associates) e un sostenitore del software libero e dei movimenti open source. 9
    • possiamo più ignorare ma conoscere per giungere a comprendere le nuove potenzialità dettate dal web 3.03 e dall’internet delle cose4 . Internet per sua natura è sempre stato un luogo in perpetuo mutamento dov’è possibile trovare elementi più o meno innovativi e utili. Proprio per questo motivo non ha mai smesso si crescere e svilupparsi. “Da quando è stato ideato si trova in perpetua fase di miglioramento ed innovazione, oltre che di espansione anche grazie al sempre maggior numero di persone che utilizzano questo strumento” (Prati 2007, 9). La definizione ufficiale definita da Tim O’Reilly, pioniere di questo concetto è: “ Il web 2.0 è la rete come piattaforma, attraverso tutti i dispositivi collegati; le applicazioni web 2.0 sono quelle che permettono di ottenere la maggior parte dei vantaggi intrinseci della piattaforma, fornendo il software come un servizio in continuo aggiornamento che migliora più le persone lo utilizzano, sfruttando e mescolando i dati da sorgenti multiple, tra cui gli utenti, i quali forniscono i propri contenuti e servizi in un modo che permette il 3 Il termine Web 3.0 è apparso per la prima volta agli inizi del 2006 in un articolo di Jeffrey Zeldman. 4 Il concetto dell'internet delle cose è attribuito all'Auto-ID Center, fondato nel 1999 e da allora con sede al MIT di Boston. 10
    • riutilizzo da parte di altri utenti, creando una serie di effetti attraverso una “architettura della partecipazione” e andando oltre la metafora delle pagine del web 1.0 per produrre così user experience più significative”5 . Sulla base di questa definizione si possono estrapolare alcuni concetti chiave: • La rete come piattaforma, • Software come servizio, • Utilizzo dei dati da sorgenti multiple, • Produzione di contenuti da parte degli utenti • Forme di partecipazione. Dalla definizione ufficiale, notiamo quanto sia difficile offrirne una sintetica anche da parte di Tim O’Reilly. Dalle caratteristiche principali del web 2.0 e dalla filosofia dei suoi servizi si può ritenere come punto cardine l’acquisita centralità dell’utente nel processo di partecipazione alla crescita del web. Su questo concetto ruotano appunto gli elementi innovativi introdotti dal web 2.0 come la 5 Traduzione da: “Web 2.0: compact definition”, 1 ottobre 2005; http://radar.oreilly.com/archives/2005/10/web_20_compact_definition.html 11
    • collaborazione, la condivisione e l’unione delle informazioni. “L’utente riveste un ruolo da protagonista in quanto insostituibile forma di informazioni di qualsiasi tipo ad alto valore tecnico e commerciale” (Prati 2007, 18). Sempre secondo Tim O’Reilly esistono 4 livelli del panorama web 2.0, nel livello 3 possiamo ritenere servizi del web 2.0 tutte quelle applicazioni che possono esistere esclusivamente su internet, che sviluppano il loro potenziale dalla rete e dai collegamenti possibili tra persone o servizi. Alcuni esempi sono: eBay, Wikipedia i quali sono gestiti attraverso un’attività prettamente online. Nel livello 2 le applicazioni possono esistere anche offline, ma sono molto più funzionali quando hanno una presenza sul web. L’esempio è Flickr che ha tra le sue caratteristiche la presenza di un database fotografico condiviso. Nel livello 1 vi sono tutte quelle applicazioni che hanno sempre funzionato offline ma che ora possono offrire funzionalità aggiuntive. Infine, il livello 0 che è caratterizzato da quei servizi che funzionano bene sia operando offline che online, senza trarre alcun beneficio della loro presenza in internet. Per capire meglio cosa sia in concreto il web 2.0 è necessario analizzare quali differenze abbia introdotto rispetto al passato. 12
    • 1.2 - web 1.0 VS web 2.0 Il web 1.0 così come l’abbiamo conosciuto potrebbe essere definito nella forma di “internet dei contenuti”, ovvero formato da siti visualizzati come una “vetrina”, per esempio come pagine di un libro o fogli in formato word contenenti: testi, immagini e video in cui la possibilità principale era per i normali utenti quella di passare, dare un’occhiata e poi andare via. Le informazioni venivano pubblicate in maniera statica, impedendo qualsiasi interazione; per questo si parla di spettatori passivi. Fondamentale per il web 1.0 erano gli ipertesti, si tratta di pagine contenenti collegamenti ad altre pagine, così via formando una struttura somigliante ad un grande libro dinamico. Internet dei contenuti e dell’informazione strutturato come un immenso libro multimediale. Schematicamente il web 1.0 si potrebbe riassumere in: • Siti e portali con contenuti prodotti dal publisher • Organizzazione gerarchica dell’informazione e navigazione attraverso menu • Data base • Interazione sito ↔singolo utente 13
    • • Motori di ricerca • Tecnologie push (publish & subscribe) • E-commerce • Banda limitata Con il web 2.0 si verifica un’inversione di paradigma del web, per la prima volta si iniziò a dare grande importanza all’usabilità e al modo di condividere i contenuti. Il web è diventato un mezzo democratico e neutrale, dove gli intermediari sono annullati. La sua vera forza risiede nella struttura decentralizzata formata da nodi tutti collegati fra loro, dove gli utenti sono i nuovi editori, in grado di divenire loro stessi il messaggio e il medium. In questa maniera, la rete diventa “umana” in quanto rende tutti potenzialmente uguali e potenzialmente raggiungibili da chiunque. In più, contrariamente al concetto della proprietà intellettuale e del diritto d’autore, nella nuova visione 2.0 è la “Condivisione” a essere contrapposta alla “Privazione”. In questa maniera, gli utenti non sono più spettatori ma diventano co-autori, o alleati produttivi. Il Web 2.0 ha significato la possibilità di una partecipazione attiva degli utenti al web, possiamo parlare in questo senso di “Internet della condivisione”. Ciascuno di 14
    • noi, oggi, ha la possibilità di scrivere un blog e inserire i propri pensieri, produrre dei video e caricarli su YouTube, iscriversi ai siti di social networking e moltiplicare le proprie amicizie per sentirsi partecipante attivo. Il web 2.0 ha convinto gli utenti a portare pezzetti della propria vita in rete, facendoli sentire protagonisti; il tutto come fattore positivo e facile come un gioco. Uno degli esempi più significativi che riguardano il passaggio dal web 1.0 al 2.0 è Wikipedia: l'enciclopedia libera multimediale e multilingue al cui sviluppo può collaborare chiunque, gestita da utenti volontari ed è autofinanziata. A questo servizio tipico del web 2.0 si contrappone l’enciclopedia Britannica tipico esempio di servizio web 1.0. L’enciclopedia Britannica può vantare una lunga storia, è stata pubblicata infatti per la prima volta nel 1768 e tutt’ora si continua ad aggiornare quest’opera colossale che conta, nella sua ultima edizione 32 volumi ed una partecipazione di ben 4000 collaboratori. Dal 1994 è stata resa disponibile nella versione online previo abbonamento annuale, con circa 120.000 articoli consultabili e aggiornati quotidianamente da scienziati, professori o esperti. Totalmente differente invece la filosofia di Wikipedia, un progetto nato nel 2001, questa enciclopedia accetta il contributo degli utenti 15
    • volontari per realizzare i propri contenuti. Chiunque può, infatti, scrivere, modificare e aggiornare un articolo presente in archivio. Inoltre la comunità di Wikipedia sta lavorando molto per tradurre ogni voce in oltre 250 lingue, aumentando così il bacino di utenza. Wikipedia, letteralmente “enciclopedia veloce”, conta al suo interno oltre 1.600.000 pagine di articoli in lingua inglese, 390.000 voci in lingua francese e 210.000 in lingua italiana; costituisce oggi, la più ampia enciclopedia generalista e multilingue esistente in rete. Wikipedia permette a chiunque di prendere parte alla realizzazione di articoli su qualunque tema, che saranno archiviati al suo interno. Questo rappresenta un ottimo esempio di produzione orizzontale di cultura, che associa tre caratteristiche principali , da cui dipende il suo successo: 1) dal punto di vista tecnico, implementa la tecnologia wiki che costituisce uno strumento di redazione condivisa. Tale piattaforma tecnologica consente a ogni persona di poter editare una pagina nel formato HTML che corrisponde a una voce all’interno del testo. Si tratta di una piattaforma aperta che consente di intervenire anche sulle voci già redatte. Vengono comunque conservate tutte le versioni modificate per consentire di accedere a quella originale. Tale tecnologia consente l’assoluta trasparenza nella generazione di contenuti e delle modificazioni impedendo che l’intero progetto sia 16
    • minacciato da un numero limitato di persone che editano in modo erroneo; 2) dal punto di vista giuridico, tutti i contenuti generati sono rilasciati sotto il regime di una specifica licenza non proprietaria: la GNU Free Documentation Licence;6 3) dal punto di vista sociale, Wikipedia secondo Clay Shirky possiede al suo interno un codice etico di comportamento7 . “Il funzionamento di Wikipedia non è disciplinato da norme e sanzioni positive ma è il risultato di norme di condotta spontanee, i cui comportamenti sono tenuti insieme da uno sforzo consapevole, da un impegno collettivo teleologicamente orientato a un fine comune e associato all’adozione di un punto di vista neutrale” (Durante 2007, 200.) Per dirlo in maniera più semplice, tali comportamenti sono consapevolmente ordinati per un fine comune che un solo individuo non può ne realizzare né tantomeno distruggere. “È una soluzione interattiva che da modo ad esperti, studiosi o semplici appassionati non solo di consultare liberamente i documenti e stamparli per la propria lettura, ma offre la possibilità di partecipare attivamente alla crescita dei documenti” (Prati 2007, 22). Differentemente l’enciclopedia Britannica si avvale esclusivamente di collaboratori e professionisti, ma soprattutto non 6 È una licenza che adotta il metodo copyleft per contenuti liberi, è stata creata dalla Free Software Foundation. È garantito il permesso di copiare, distribuire e/o modificare seguendo i termini della licenza. 7 P. AIGRAIN, “The individual and the Collettive in Open Information Communities” 17
    • fornisce gratuitamente il proprio materiale. Sui diversi modi di operare si sono sollevate alcune obiezioni, per quanto riguarda l’autorità della fonte. L’enciclopedia Britannica gode ancora oggi di maggior credibilità, perché attinge dall’esperienza comprovata dei suoi collaboratori. Wikipedia invece non si avvale di un sistema di revisione paritaria di carattere accademico basato sull’individuazione di ruoli, per questo può contenere al suo interno anche informazioni completamente errate o prive di autorevolezza; non si può nascondere però la sua caratteristica innovativa in questo settore: Il suo sistema di revisione paritaria che è orizzontale e decentrato, inoltre risulta anche diffuso e continuo. Chiunque a prescindere dal ruolo sociale può apportare modifiche in qualsiasi momento. Questo meccanismo nel tempo ha migliorato l’attendibilità delle fonti. Da uno studio pubblicato sulla rivista Nature8 emerge che dal confronto con un campione significativo di voci pubblicate dall’enciclopedia Britannica è risultato che la differenza di accuratezza non sia particolarmente grande. Ma il fattore più sorprendente è che al verificarsi di un qualunque errore, l’efficacia della revisione orizzontale di Wikipedia permetterebbe una correzione in tempi brevi, mentre per qualsiasi altra enciclopedia sarebbe necessario 8 “Special Report: Internet Encyclopedias Go Head to Head” in Nature, 14 dicembre 2005. 18
    • attendere l’edizione successiva. L’interattività e la partecipazione della comunità sono un elemento basilare del web 2.0 per questo i wiki sono una delle colonne portanti di questa evoluzione mentre l’enciclopedia Britannica resta relegata al passato del web 1.0. Wikipedia rappresenta solo un tipico esempio di web 2.0, ma esistono altre applicazioni base che caratterizzano questa evoluzione. I blog, i feed RSS, i social network, le wiki, le tag, i mashup, la folksonomia sono alcuni degli aspetti chiave sui quali si costituiscono i servizi più interessanti nel panorama web. Il blog è uno strumento che permette la pubblicazione di contenuti sul web da parte di qualsiasi utente, anche in questo caso vengono rispettati i principi fondamentali del web 2.0: “Condivisione” e “Partecipazione”. La gestione dei dati e delle informazioni non è più appannaggio esclusivo di testate giornalistiche, università o società, ma viene offerta a tutti la capacità di esprimersi. I blog sono piattaforme sostanzialmente semplici e per questo motivo stanno entrando a far parte del modo di vivere e di utilizzare la rete di milioni di utenti; spesso sono l’esempio della libera informazione che ha lanciato il fenomeno del citizen journalism.9 Tom Curley, il direttore dell’ 9 è il termine con cui si indica la nuova forma di giornalismo che vede la partecipazione attiva dei lettori, grazie alla natura interattiva dei nuovi media e alla possibilità di collaborazione tra moltitudini offerta da internet 19
    • Associated Press, nel discorso di apertura della conferenza dell’Online News Association del 2004 ha detto: “come abbiamo potuto vedere chiaramente nell’ultimo anno, i consumatori vorranno utilizzare la natura interattiva di internet per partecipare direttamente allo scambio delle notizie e delle idee. L’informazione come lezione sta lasciando spazio all’informazione come conversazione”. Alla base dell'osservazione del direttore dell'Associated Press vi è un fenomeno sempre più evidente che si manifesta sotto vari aspetti. Esistono oltre 14 milioni di blog e un nuovo blog viene creato ogni secondo. Inoltre ogni contenuto del blog deve poter essere commentato liberamente, previa registrazione, dai visitatori del sito. Per sua natura appunto non deve limitare la partecipazione né il dialogo tra gli utenti, l’obiettivo è quello di stimolare l’intervento sui diversi temi e dibattiti. In Italia ultimamente sono sorte alcune polemiche se il mondo dei siti web debba rimanere senza vincoli legislativi e soggetta solo a un’autoregolamentazione, oppure in alternativa se debbano essere applicate le norme sulla stampa. Nell'ottobre del 2007 il governo ha presentato un disegno di legge sulla riforma dell'editoria in cui aveva stabilito per i siti l'obbligo della registrazione. La dura replica del mondo web ha portato alla 20
    • precisazione da parte del sottosegretario di Stato alla Presidenza del Consiglio On. Ricardo Franco Levi che la norma non avrebbe trovato applicazione per i blog10 . 1.3 - Gli strumenti del web 2.0 Tra gli elementi che hanno contribuito al successo dei blog dobbiamo citare il servizio feed RSS (Really Simple Syndacation), la sigla indica uno dei più popolari formati utilizzato per la distribuzione dei contenuti sul web utilizzando come base il linguaggio XML. “I contenuti pubblicati sul web, come un blog, possono essere formattati con un linguaggio standard come l’XML e messi a disposizione all’interno di un file per la ripubblicazione su altri siti web o gestione attraverso differenti media” (Prati 2007, 70). Inoltre attraverso il dispositivo feed RSS è possibile ricevere i nuovi contenuti di un sito sul quale abbiamo interesse, senza necessariamente consultarlo con regolarità. La gestione di questo strumento è solitamente affidata al nostro browser, una volta salvati i feed l’aggregatore provvede a sincronizzarli con i siti sulla quale 10 Lettera dell’ On. Ricardo Franco Levi, 19 Ottobre 2007: del http://www.palazzochigi.eu/GovernoInforma/Comunicati/testo_int.asp?d=36855 21
    • abbiamo richiesto la consultazione automatica. In questo modo gli utenti possono richiedere degli aggiornamenti su qualunque argomento senza dover impiegare tempo nella ricerca di ogni singolo sito. A differenza delle newsletter (web 1.0), i feed RSS non richiedono l’indirizzo di posta elettronica permettendo di aggiornare i feed o rimuoverli nel pieno anonimato, inoltre non si rischia di incorrere nello spam. Altro elemento importante del web 2.0 sono i wiki, ossia una collezione di documenti ipertestuali che permettono a ciascun utilizzatore di aggiungere e modificare i contenuti. L’esempio tipico è proprio Wikipedia l’enciclopedia libera. “Il termine wiki di origine hawaiana significa rapido e non poteva essere adottato nome migliore per un applicativo web che fa della velocità e dell’immediatezza il suo punto di forza” (Prati 2007, 77). Un sito web che utilizza i wiki è costituito da un insieme di pagine statiche non organizzate in modo gerarchico e lineare, ma che possiedono tutte lo stesso grado di importanza, questo particolarità rende estremamente “flessibile” la struttura dei documenti, facilitando tutti gli utilizzatori nella fase di pubblicazione. Le wiki sono aperte per consentire un alto livello di collaborazione, senza dover aspettare le 22
    • previe approvazioni. Ciò che si scrive viene subito reso fruibile a tutti. La navigazione di un sito che utilizza i wiki può avvenire attraverso due tecniche. La prima impiega un motore di ricerca interno per trovare sia i titoli che i documenti interi. La seconda tecnica di navigazione implica il passaggio da un contenuto all’altro sfruttando i collegamenti ipertestuali inseriti nel documento, quindi in assenza di un menù di ricerca organizzato. Si verifica in questa maniera il fenomeno di “serendipity”, cioè la capacità di vedere o scoprire qualcosa in modo fortuito, partendo dalla ricerca di un qualcosa completamente diverso. Le “Tag”, ossia le etichette, sono un altro elemento introdotto dal web 2.0 che va a supportare tutti gli strumenti di condivisione delle informazioni. Questa applicazione consiste nel descrivere il contenuto pubblicato attraverso una serie di parole chiave che rappresentino in qualche maniera il contenuto, rendendo possibile una sua classificazione e una facile ricerca attraverso le tag che costituiscono un “pezzo” di informazione. Spesso questo utilizzo è associato al social bookmarking, dato che la comprensione del significato di un testo da parte di un’applicazione informatica (web semantico) non è una pratica ancora diffusa, viene delegato 23
    • all’autore del post l’onere di descrivere, con brevi ma precisi termini, il suo contenuto. Questo semplifica notevolmente la ricerca all’interno di un archivio, in particolar modo quando si tratta di archivi estesi con un vasto numero di documenti delle più diverse tipologie. Si possono distinguere due diverse tecniche di “tagging”. La prima è svolta direttamente dall’autore che inserisce la parola chiave a titolo descrittivo, è un’operazione svolta al termine del processo redazionale, ma prima della sua pubblicazione. Il secondo tipo di “tagging” è un’operazione svolta dagli utenti che hanno preso visione del contenuto che collaborano al processo di tag. In questo modo verranno inserite altre parole chiave, a seconda della sensibilità dei lettori, non previste inizialmente dall’autore. Molti soggetti utilizzeranno poi i medesimi tag, così facendo questi acquisteranno una maggior importanza rispetto agli altri, potrebbero essere presentati con una dimensione, un colore o collocazione diversa rispetto ai meno utilizzati, per poterli individuare più rapidamente. L’ utilizzo dei tag prende il nome di “folksonomia”, il termine è formato dall’unione di due parole, “folk” e “tassonomia” e significa pattuite le tag all'interno di determinate comunità virtuali, in sostanza il "tagging" è una modalità di organizzazione dell'informazione alternativa alla gerarchizzazione attraverso categorie fisse. Maggiore 24
    • sarà il numero di utenti che applicheranno la tag ad un determinato contenuto e maggiore sarà la precisione della folkosonomy. “Il processo di categorizzazione si evolverà quindi in modo democratico, alcuni termini acquisiranno una maggior popolarità, altri invece saranno meno utilizzati, riflettendo così i temi maggiormente trattati dal sito e gli interessi comuni degli utenti che utilizzano un determinato blog o servizio di condivisione” (Prati 2007, 88). Tramite questo procedimento, col passare del tempo, si creeranno automaticamente delle categorie principali che conterranno dei sottogruppi di argomenti. Questo uso si sta diffondendo in maniera capillare soprattutto per la sua semplicità che ha portato dei vantaggi immediati, ma nel tempo potrebbe costituire anche un problema. Per quanto riguarda i benefici del suo utilizzo vi sono: una classificazione rapida, aiuta l’indicizzazione di argomenti sotto-intesi, favorisce la serendipity (trovare un contenuto mentre se ne sta cercando un altro) e infine semplifica l’accesso ai contenuti. Dall’altra parte però sono stati posti alcuni dubbi, attualmente uno dei fattori più problematici riguarda l’imprecisione nella scelta dei vocaboli da utilizzare con la possibilità di incorrere in errori di utilizzo da parte degli utenti. Questa potrebbe essere una normale conseguenza dell’arbitrarietà con cui vengono scelte le tag, inoltre l’errore 25
    • potrebbe essere causato anche da un utilizzo improprio dei sinonimi che non verrebbero riconosciuti dal sistema. Un altro problema dal punto di vista semantico riguarda l’utilizzo del singolare o plurale nei vocaboli. Inoltre all’interno dei siti multilingua, concetti simili saranno espressi con parole differenti e ciò porterà l’utilizzo di più “taggature” che varieranno da idioma a idioma. Il widget è un elemento tipicamente grafico di un programma che facilita l'utente nell'interazione con il programma stesso. In italiano è detto congegno; può essere una vera e propria mini-applicazione. Esistono tre differenti tipologie di widget: • Quelli che lavorano offline e offrono funzionalità accessorie al sistema operativo, • Quelli che risiedono sul nostro PC, ma che necessitano di internet per funzionare, • Quelli che funzionano solo all’interno delle pagine web. Tipici esempi di widget sono i "bottoni" dell'interfaccia grafica di un programma che possono essere "premuti" per dare comandi al programma stesso. “Possiamo avere un box che si sincronizza con un portale di meteo e ci fornisce i dati sulla temperatura della nostra 26
    • città, ricevere la rassegna stampa con le ultime notizie di politica, sport e qualsiasi aggiornamento sugli avvenimenti, avere un calendario in locale che si sincronizza con un calendario remoto (es. Google Calendar), visualizzare sul nostro desktop le immagini live di alcune webcam collocate nei più remoti angoli del pianeta e vedere che cosa sta succedendo …” (Prati 2007, 105). Tramite i widget sarà possibile consultare per esempio qualsiasi news di nostro interesse senza dover per forza aprire la pagina web di riferimento, ma semplicemente con un click. Potremo così tenere sotto controllo le ultime offerte su un oggetto di nostro interesse, ricevere gli ultimi script pubblicati sul blog di un nostro amico. Questo porta ad una sempre più radicata personalizzazione del web da parte di ogni singolo utente. Una maggiore diffusione delle informazioni: selezionate, veicolate e utilizzate in base ai propri interessi personali. Le persone vivono già in una realtà che li vuole sommersi da news, aggiornamenti e input indistinti di ogni genere, per questo motivo i widget offrono una valida alternativa, funzionano in pratica come un filtro che seleziona cosa è di maggior interesse per il suo utente e cosa non lo sia. 27
    • Tutte queste nuove applicazioni introdotte dal web 2.0 dimostrano come vi sia la reale capacità di interazione tra gli utenti: l’utilizzo di differenti piattaforme o servizi di condivisione del materiale, rappresentano elementi innovativi introdotti proprio dall’evoluzione del web. Sarebbe sbagliato però immaginarle come realtà a se stanti, infatti il principio di condivisione non riguarda solo gli utenti, ma si estende alle funzionalità del web 2.0. Il “mashup” è infatti l’interazione tra differenti servizi e media ed è un altro concetto fondamentale introdotto dalla nuova visione del web 2.0. “ La logica del mashup” nasce molto probabilmente dall’ambito musicale. Con questo termine infatti si vuole denotare un genere musicale derivato dall’unione di più brani, solitamente di stili ed autori diversi, fusi in un’unica opera.” (Prati 2007, 107). Per quanto riguarda il nostro contesto, con mashup si vuole intendere un’applicazione che sfrutta le informazioni o i servizi offerti da più sorgenti attraverso opportune funzioni o linguaggi che, unite assieme, formano un nuovo e unico prodotto, distinto dalle singole componenti da cui è stato ricavato. I mashup stanno rivoluzionando lo sviluppo del web, chiunque può combinare dei dati da diversi siti, per ottenere nuove applicazioni. Diversamente, prese singolarmente queste fonti possono continuare ad offrirci un ottimo servizio all’interno dei rispettivi portali, ma unire 28
    • queste funzionalità significa vivere una diversa user experience come valida alternativa. Una sorta di mashup si può realizzare utilizzando i feed RSS, creando un sito web all’interno del quale vengono raccolti i feed RSS dei maggiori portali dedicati ad un argomento specifico. Il servizio più conosciuto e diffuso all’interno del mashup è quello offerto da Google Maps, per la consultazione di cartografia terrestre. La società di Mountain View ha catalogato e reso disponibili migliaia di foto scattate dai satelliti che permettono di osservare qualunque luogo del nostro pianeta con un’elevata qualità dell’immagine. Si tratta di un servizio interessante che non ha solo lo scopo ludico/didattico, ma offre anche opportunità di business per Google e i suoi fruitori. È una applicazione completamente gratuita che permette agli utenti di svilupparla, per integrare le mappe all’interno di altri siti web o nuovi servizi. Un’altra tecnica di aggregazione dei contenuti può essere applicata utilizzando le API, che permettono un controllo maggiore delle sorgenti delle informazioni e dei servizi tramite apposite funzionalità rese disponibili dai diversi gestori. API è l’acronimo di Application Program Interface, è un insieme di funzioni e procedure a basso livello rese disponibili da un programmatore che vengono 29
    • richiamate da un’applicazione esterna per svolgere un determinato compito. In parole povere sono delle procedure “aperte” di un software che consentono di essere manipolate in remoto, utilizzando parte del codice sorgente. Alcune API famose sono quelle disponibili con i sistemi operativi in grado di fornire agli sviluppatori gli strumenti per interagire con i sistemi operativi stessi. L’utilizzo delle API è una tecnica ormai consolidata negli anni, ma l’innovazione introdotta con il web 2.0 è rintracciabile in due elementi: • La semplificazione delle specifiche fornite, • La gratuità e libertà del loro utilizzo. Il primo elemento è servito per coinvolgere sempre più utenti nell’utilizzo di questa tecnica per implementare meglio soluzioni di mashup senza per forza essere dei programmatori esperti. La gratuità, invece è la prerogativa della maggior parte delle applicazioni web 2.0 30
    • 1.4 - Il software come piattaforma Nella definizione di Tim O’Reilly sul web 2.0 si è anche parlato di software come piattaforma. Questo concetto intende spiegare il cambiamento di utilizzo degli applicativi software così come siamo stati abituati a vederli. In passato i software venivano installati localmente sul PC, con il web 2.0 si è cercato invece di svincolare l’utente dall’utilizzo del proprio PC rendendo gestibili i software tramite apposite interfacce web. Non si lavora più solo localmente con i software installati sul proprio computer, ma su qualsiasi terminale che possa accedere online al server remoto. Il software diventa così un servizio fruibile tramite il web. “Gli elementi di novità sono il canale di comunicazione che diventa esclusivamente internet, e la distribuzione del software, non più come applicativo remoto, ma come piattaforma web, dove l’unico strumento locale necessario per il suo utilizzo è il browser” (Prati 2007, 131). Questo implica un chiaro cambiamento di come si entra in possesso di un software. Se prima gli utenti dovevano acquistare le licenze di utilizzo del software, ora si ricorre ad un abbonamento per il servizio. L’applicativo non si acquista più ma si “noleggia” per il tempo che serve usufruendo così del server del fornitore. Si tratta di una visione 31
    • che apre nuovi scenari sia per gli utenti , primi destinatari di questa tipologia di applicazione sia per le imprese ed il loro modo di lavorare e fare business. Ovviamente ogni cambiamento, seppur innovativo, porta con sé vantaggi ma anche svantaggi. I benefici di un’applicazione sul web gioveranno a chi necessita di una certa mobilità, riuscendo a lavorare su qualsiasi terminale anche fuori dal proprio ufficio. Diversamente le applicazioni installate sul PC funzioneranno esclusivamente su quel terminale. Inoltre sarà possibile lavorare contemporaneamente con più utenti senza interrompere la propria attività. Infine per quanto riguarda i lavori di manutenzione, il tutto verrà delegato alla società fornitrice del servizio che prenderà a carico mansioni come: aggiornamento del servizio e archiviazione di ogni documento salvato. Lo svantaggio più grande è che per loro natura questi applicativi lavorano esclusivamente online, qualora fosse assente la connessione sarebbe impossibile svolgere qualsiasi procedura. Il web 2.0 non ha portato dei cambiamenti solo in ambito tecnologico, ma anche e soprattutto in quello sociale. Grazie a questi nuovi strumenti si è modificato il modo di relazionarsi con la rete. Ogni singolo utente è il protagonista di questo cambiamento, grazie 32
    • al contributo delle proprie idee, progetti e contenuti. “Cala la fiducia verso i normali canali di marketing, fiducia che si riversa sempre più verso i propri pari, altri utenti che come noi acquistano prodotti di qualsiasi tipo e preferiscono il consiglio di una voce sconosciuta ma amica, che quello della pubblicità molte volte non veritiera” (Prati 2007, 147). Potenzialmente tutti possiamo diventare produttori di contenuti, siano questi documenti, foto, audio e video. Qualunque cosa viene prodotta fa parte del cosiddetto “User Generated Content” o UGC, termine che indica quei contenuti che vengono realizzati in maniera amatoriale. L’aumento del fenomeno dipende anche dalla maggiore semplificazione delle tecnologie che permettono sempre più di produrre il materiale. Inoltre dal punto di vista sociale, sempre più persone sentono la necessità di esprimersi e comunicare con la speranza di essere notati. È evidente come questa pratica si discosti nettamente dalla tradizionale produzione di contenuti, notizie e informazioni, riservata nel web 1.0 esclusivamente ai giornalisti e mass media. Oggi uno dei più famosi esempi di gestore di User Generated Content è YouTube, servizio della distribuzione gratuita di video online; dati statistici del gruppo Nielsen/NetRating valutano un traffico medio mensile di oltre 20 milioni di utenti sul sito. Inoltre attraverso l’utilizzo di semplici script, 33
    • che fanno riferimento alle API, è possibile integrare i video presenti su YouTube all’interno della pagina di un sito, blog o social network. Con il web 2.0 si sono aperte una serie di possibilità che continuano a svilupparsi, l’innovazione è il motore che spinge internet al continuo rinnovamento, per questo motivo si utilizza il termine di “perpetual beta". La filosofia introdotta dal web 2.0 vuole indicare il perenne stadio di sviluppo grazie al contributo di tutti. Secondo Tim O’Reilly gli utenti saranno considerati come co-sviluppatori dei servizi offerti dal web; in questo modo qualsiasi servizio potrebbe essere migliorato da tutti coloro che lo utilizzeranno, inoltreranno le osservazioni e lo modifiche diverranno spunto per utilizzi diversi, queste nuove basi serviranno per preparare l’ingresso a nuovi traguardi come il web semantico. 34
    • 1.5 - Primi passi verso il web 3.0 Come ogni rivoluzione, si cercherà ora di raffinare l’enorme cambiamento che ha portato il web 2.0: Il web 3.0 infatti, non sarà altro che un’evoluzione del suo predecessore. Mentre il web 2.0 nasce dalla fusione di due concetti: User Generated Content e Community, il web 3.011 contempla al suo interno una pluralità di applicazioni tecnologiche possibili: dalla trasformazione del web in un database che costituisce la prima realizzazione del web semantico, alla elaborazione di applicazioni di intelligenza artificiale per lo sviluppo di software che realizzino compiti con requisiti di intelligenza; si è parlato anche di web 3.0 come ambiente tridimensionale sulla base di esperienze maturate con Second Life12 . Ma in questo momento il motivo di maggior interesse per queste applicazioni riguarda il cosiddetto web semantico. In sostanza se il web 2.0 si è basato sulla connessione fra persone, il web 3.0 si baserà sulla connessione tra informazioni. “Con tale termine si intende fare riferimento alla trasformazione del web in un database, che renda accessibili le 11 Termine coniato da Tim Berners Lee, e ormai oggetto di diverse conferenze e congressi per il mondo. 12 E’ un mondo virtuale lanciato nel giugno del 2003 dalla società americana Linden Lab e nasce dalla visione del fondatore, il fisico Philip Rosedale. 35
    • informazioni in rete sulla base del loro contenuto informativo. Ciò presuppone la costruzione di un ambiente informatico, in cui i documenti prodotti ed immessi in rete (siano essi pagine web ipertestuali, immagini, file, ecc.) risultino classificati ed indicizzati sulla base d’informazioni (meta-dati)13 che ne specifichino il contenuto dal punto di vista semantico, vale a dire dal punto di vista dei significati contenuti, in modo tale da rendere il documento adatto all’interrogazione, all’interpretazione ed all’elaborazione” (Durante 2007, 139). Il Web 3.0 non sarà più un semplice contenitore di parole, immagini e filmati, ma un contenitore di concetti e conoscenze dotato di strumenti in grado di cercare con precisione, mettere in relazione, “capire” automaticamente il significato dei contenuti e di ragionare su di esso, estraendone informazioni. "Una delle migliori cose sul web è che ci sono tante cose differenti per tante persone differenti. Il Web Semantico che sta per venire moltiplicherà questa versatilità per mille...il fine ultimo del Web è di supportare e migliorare la nostra esistenza reticolare nel mondo»" (Tim Berners Lee)14 . 13 Metadato è l’informazione che descrive un insieme di dati. 14 è un informatico, co-inventore insieme a Robert Cailliau del World Wide Web. 36
    • Una definizione sicuramente interessante di web 3.0 è quella di Derrick Kerckhove, direttore del McLuhan Program dell’Università di Toronto, secondo il quale la rete del futuro funzionerà come il cervello umano. Sfruttando le capacità di due emisferi opposti e complementari, sarà possibile riprodurre in rete la bipolarità emisferica del nostro cervello. L’emisfero destro sarà la proiezione del web 2.0, sintetico e associativo, mentre il web semantico, analitico e preciso, coinciderà metaforicamente con l’emisfero sinistro.15 1.6 - Web 3.0 come web semantico Dopo l'invenzione del linguaggio XML16 impiegato in diverse applicazioni web 2.0, ora gli sforzi di ricerca si stanno concentrando sull’ impiego di tecnologie semantiche. Questo consentirebbe l'accumulazione delle informazioni e dei servizi per concetti invece che per parole chiave, come fanno attualmente i motori di ricerca; inoltre permetterebbe la completa automazione dei servizi. Molto spesso la ricerca di una parola sugli attuali motori non permette una 15 Articolo: Cattid, Università di Roma La Sapienza. http://tenenga.com/download/TECA02-02.pdf 16 Extensible Markup Language, , metalinguaggio utile allo scambio dei dati. 37
    • risposta contestualizzata, generando un “overload” ossia una serie di risultati in eccesso o risposte inutili. Per risolvere in parte a tale effetto viene in soccorso la "tecnologia semantica" che dà rilevanza al significato reale dei termini e considera il contesto in cui sono inseriti, consentendo una ricerca più precisa e riducendo le risposte ridondanti. L’intento sarà quello di rendere più trasparente il significato di un termine tramite la descrizione di tale contenuto semantico associato a una specifica occorrenza della parola, attraverso una ricerca di dati fondata sulla corrispondenza tra significati e non su quella tra parole. La descrizione del contenuto semantico è però affidato al piano sintattico, questo mette in evidenza il problema di come sia difficile ottenere una trasparenza semantica senza tener conto dei contesti impliciti. Una soluzione possibile sarebbe il ricorso ai sistemi di intelligenza artificiale, che cercano di simulare l’esperienza dell’interprete. Un’altra opzione riguarda il processo di perfezionamento dei linguaggi di marcatura del documento, volti a costruire meta-dati capaci di esprimere non solo i dati ma anche le relazioni tra essi. “Lo sviluppo del web è volto a definire la costruzione di un database che renda accessibile non solo i significati ma anche la relazione tra significati, evidentemente non in quanto tali, ma in quanto relazioni tra classi, le quali 38
    • costituiscono la base di conoscenza processabile per elaborare programmi informatici che utilizzino meccanismi inferenziali di reperimento delle informazioni”(Durante 2007, 142). Si tratta di una visione completamente nuova nel web che pone un grande interrogativo: Internet continuerà a spingersi verso una logica di decentramento? Vi sono alcuni aspetti che fanno propendere verso una logica decentrata, basata sul concetto che ognuno, ogni creatore di contenuti può determinare una propria ontologia delle informazioni. Ma il web semantico richiede però la definizione di linguaggi semi-strutturati per consentire l'accumulazione, cioè dei linguaggi preimpostati dai professionisti del settore, quindi questo non sembra dirigersi verso una logica decentrata. Ciò non toglie che, in questo momento, per un buon funzionamento del meccanismo di descrizione il significato debba essere collegato a un contesto di riferimento, così da rendere coerente l’interpretazione del termine da parte dell’intelligenza artificiale con quella dell’utente. A tal fine vengono impiegati sistemi di OSM (Ontology Systems Management) che possono utilizzare diversi linguaggi standard, come l'RDF (Resource Description Framework) o l'OWL (Web Ontology Language) che consentono nuovi costrutti. Con OWL è possibile scrivere delle ontologie che descrivono la conoscenza che abbiamo 39
    • di un certo dominio, tramite classi, relazioni fra classi e individui appartenenti a classi. Il linguaggio Rdf fa una cosa semplice: rappresenta significati associando alcune risorse identificabili sul web con dei valori. Il progetto pubblico più strutturato per raggiungere questo obiettivo all’interno del web è quello che va sotto il nome di Web semantico (promosso dal W3C17 , che vi lavora da oltre 10 anni. Da questo punto di vista il web 3.0 si configura più come una innovazione tecnologica che sociale rispetto al suo predecessore, inoltre la potenza del web 2.0 riguardava la produzione orizzontale da parte di tutti gli utenti, al contrario il web 3.0 prevede un ritorno all’approccio top-down: dove poche persone competenti creeranno le ontologie, cioè quelle strutture che saranno in grado di rendere comprensibili le informazioni ai computer. In parte questo è giustificato dall’immenso lavoro che richiederà riscrivere il web in chiave semantica, ma dalle prime applicazioni realizzate l’utente non pare ricoprire un ruolo del tutto passivo. Per esempio l’Università dell’Essex si occupa di un progetto che richiede la piena collaborazione degli utenti per realizzare il web semantico, 17 l’ente internazionale che si occupa di standardizzare le tecnologie utilizzate nel Web. È diretto da Tim Berners-Lee. 40
    • rispettando la filosofia di condivisione e partecipazione del web 2.0. Il progetto si chiama Phrase Detective e ha il compito di creare risorse annotate nel web, ossia di inserire i meta-dati ai contenuti di internet. L’Università dell’Essex ha rivolto l’invito a tutti gli amanti della lingua, della linguistica e della grammatica per realizzare questo lavoro sperimentale, inoltre per chi fornirà costantemente questo servizio sarà prevista una ricompensa in denaro. L’attività consiste nella ricerca di anafore18 e di coreferenze19 nei testi di lingua inglese presi per la maggior parte da Wikipedia. Altri esempi di applicazioni semantiche vengono offerti da Yahoo e Google, che stanno realizzando i nuovi motori di ricerca. Yahoo ha intenzione di rendere accessibile il suo motore di ricerca a terze parti, affinché gli utenti possano inserire informazioni utili alla ricerca semantica. Il nome di questo nuovo progetto sull’Open Search è "Search Monkey", si tratta di una iniziativa che l’azienda di Sunnyvale ritiene utile per realizzare i motori di ricerca della prossima generazione. Gli utenti però non potranno alterare i SERP20 di Yahoo, ma soltanto integrarvi delle informazioni aggiuntive come: foto, indirizzi e link 18 tecnica linguistica che consiste nel riferirsi ad una parte di testo in genere precedentemente espressa, specialmente di un pronome. 19 si intende un rapporto di identità referenziale tra un antecedente e un pronome. 20 la locuzione inglese search engine results page (abbreviata in SERP) significa "pagina dei risultati del motore di ricerca". 41
    • correlati. In qualità di piattaforma aperta Yahoo renderà disponibili le API che permetteranno agli sviluppatori di creare dei feeds RSS strutturati contenenti meta-dati . Anche google propone nuove soluzioni di ricerca in linea con il web 3.0, ancora in via sperimentale, studia un nuovo metodo chiamato “Wonder Wheel”, ovvero ricerca guidata. Dopo aver utilizzato questo motore è possibile selezionare il tasto option che abilita la ricerca temporale, la suddivisione dei risultati, le immagini o video e infine le recensioni. Con questo tipo di ricerca l’utente trova maggiori informazioni, inoltre google offre anche degli snippets21 . Questi rappresentano i primi passi verso la ricerca semantica, ma il web di prossima generazione fornirà risposte a domande articolate dell’utente. Il motore di ricerca, infatti, non passerà più al setaccio interi portali suddivisi per argomenti, ma chiederà semplicemente quello che si vuole sapere, restituendo risposte che valutano il contesto e il significato dell’oggetto richiesto. Da questi esempi, l’entrata del web 3.0 non significherà rinunciare allo spirito collaborativo del web 2.0, ma integrare invece tutte quelle funzioni non solo per quanto riguarda la loro struttura, bensì anche a livello di contenuti. Grazie alle tecnologie semantiche, tutto il sapere sarà 21 Frammenti ed esempi di codice sorgente di un software. 42
    • rappresentabile in maniera digitale, in modo tale che anche le macchine possano “comprenderlo”. I computer effettueranno ricerche di contenuti su fonti diverse per poi interpretarli, elaborarli e ricomporli in modo sensato. Se i sistemi vengono utilizzati con una certa frequenza, possono anche “apprendere” automaticamente nuovi concetti non programmati dallo sviluppatore. 43
    • 1.7 - Requisiti del web 3.0 In questa maniera il web 3.0 si configura come una serie di macchine in grado prima di analizzare contenuti e informazioni grazie a tags e linguaggi comuni e poi in grado di comunicare da sole e di effettuare transazioni fra di loro in maniera autonoma e sequenziale. Complici di questo cambiamento saranno i dispositivi mobile, che spingeranno il web sempre più verso l’ubiquità. Il poter essere sempre collegati diventa nell’immediato futuro un requisito fondamentale. In considerazione di queste premesse si possono isolare alcune caratteristiche del web 3.0: • Ubiquità • Identità • Connessione 44
    • Ubiquità: Le reti ubiquitarie sono uno degli elementi principali del "Future Internet" in quanto garantiscono agli utenti l’accesso ai servizi ovunque essi siano e sempre, senza bisogno di infrastrutture di rete pre-esistenti. I dispositivi come: telefoni cellulari, palmari, lettori musicali, ecc. non solo saranno connessi alla rete per accedere all’informazione ma saranno parte integrante della rete stessa e fornitori, essi stessi, di contenuti e servizi. Il web 3.0 sarà un web che spedirà e non risponderà e basta; si baserà sul concetto del “Deliver” contrapposto a quello del “Query + Report. Il web 3.0 ha bisogno di Ubiquità, perché avrà come oggetto principale le attività e non più i dati. Identità: Il web 3.0 non sarà più anonimo, ma sarà espresso ed esplicito. L’anonimato in rete, in passato considerato un vantaggio, si sta dimostrando un limite e una peculiarità scarsamente efficace ed efficiente. Già con il web 2.0 l’utente è diventato protagonista, grazie al contributo dei suoi contenuti; con il web 3.0 ci sarà un maggior bisogno di identità, per continuare a condividere i nostri contenuti che nel futuro verranno prodotti con maggior frequenza. 45
    • Connessione: Il web 3.0 avrà senso solo con l’avvento della diffusione capillare della rete, ormai considerata risorsa fondamentale, perché già nel web2.0 si è dimostrato come il collegamento in rete abbia sviluppato quei principi come la collaborazione e condivisione, dove il piccolo contributo di ognuno è servito per creare delle macro realtà in rete. Nel web 3.0 e con la connessione diffusa tutto questo crescerà esponenzialmente grazie a tutti i dispositivi mobile che potranno raccogliere informazioni in qualsiasi momento e con la stessa facilità trasferirli in rete. A tal proposito nell’ottobre 2008 la Commissione Europea ha aperto una seduta di consultazione, sulle politiche da adottare nei prossimi anni per sviluppare al meglio queste tecnologie. Secondo Viviane Reding, commissaria per la Società dell'informazione e i media, "Web 3.0 significa potersi dedicare ad attività commerciali, sociali e ricreative in qualsiasi momento e in qualsiasi luogo senza soluzioni di continuità, grazie a reti veloci e affidabili". "Il web 3.0 continua la Reding, mette fine alla divisione tra linee fisse e mobili e rappresenta un enorme balzo in avanti dell'universo digitale, che, da qui al 2015, vedrà duplicata la sua scala”. A testimonianza di ciò, è possibile osservare che di recente, 46
    • nell’ambito dello scontro istituzionale sulla cosiddetta “dottrina Sarkozy” relativa al file-sharing, il Consiglio costituzionale francese ispirandosi alla Dichiarazione dei diritti dell’uomo del 1789 ha stabilito che la connessione a Internet deve essere considerata un diritto fondamentale del cittadino, e dunque a tutti gli effetti inalienabile22 . 22 Michele Iaselli, Francia: la connessione ad Internet è un diritto fondamentale, vanificata la legge contro il peer to peer, in www.blogcatalog.com/blog/michele-iaselli, 10/06/09 47
    • 1.8 - Verso l’internet delle cose Tra gli aspetti più interessanti dell’immediato futuro vi è una nuova visione che riguarda l’architettura dell’informazione: trovare degli spazi informativi condivisi nella loro totalità, sia digitali sia fisici. L’architettura dell’informazione si pone in tal senso come leva del web 3.0 dove fisico e digitale sono intimamente connessi. Con questa premessa si può finalmente parlare di “internet delle cose”, ossia un altro obiettivo del web 3.0 assieme al web semantico. Il primo a coniare il termine di “internet of things” è stato lo scrittore Bruce Sterling nel suo libro “La Forma del Futuro” dove parla di fenomeni come Radio Frequency Identification (RFId) che danno vita al cosiddetto Internet delle cose. “Il concetto di web 3.0 è basato sulla definizione di un’ontologia delle informazioni che ben si sposa con quello di Internet delle cose, in cui la connessione e il flusso di informazioni raggiungono capillarmente gli oggetti più piccoli e apparentemente meno intelligenti” (Ernesto Hofmann 2005, 50)23 . Nell’Internet della prossima generazione non saranno interconnessi soltanto computer, ma anche oggetti d’uso quotidiano e prodotti industriali, il mondo virtuale e quello reale saranno perfettamente integrati. In alcuni ambiti domestici ad esempio, se pensiamo alla 23 Rivista: Tendenze, gennaio-febbraio 2005 48
    • possibilità di programmare a distanza, tramite il cellulare, gli apparecchi elettrici della nostra abitazione. Simili applicazioni sono già praticabili, ma ancora molto rudimentali nelle loro possibilità di comunicazione. Ovviamente, non tutti gli oggetti avranno le stesse capacità. La diversità sarà dovuta principalmente alle differenti potenzialità di calcolo, di durata delle batterie e di connettività. Da alcuni anni esiste la tecnologia RFId (Radio Frequency Identification), basata su micro-chip dotati di microantenne, denominati transponder. Questi in modo analogo ai codici a barre, possono essere inseriti in oggetti e successivamente letti o aggiornati da un sistema informativo senza intervento diretto di una persona. La tecnologia RFId si presta in modo ideale per fornire il mezzo di trasmissione delle informazioni. L’assenza di requisiti di alimentazione, di linea, di vista e le esigue dimensioni dell’etichetta stessa fanno sì che la soluzione possa essere implementata facilmente e quasi ovunque. Per ora la tecnologia RFId è stata utilizzata da alcune aziende per svolgere il “tracking” dei prodotti all’interno dei loro centri di distribuzione. In un ambiente come quello del web di terza generazione, questa stessa tecnologia rappresenterà l’entità che gestirà quella moltitudine di 49
    • informazioni, che si occuperà di capire a quale oggetto corrisponde il rispettivo identificativo, gli eventuali attributi e gli eventi generati. “Lo scenario finale generato dalla convergenza nel web 3.0 dell’Internet delle cose sarà allora in grado di coniugare informazioni complesse, rilevate da reti di sensori dotati di una primitiva intelligenza artificiale, con informazioni a loro volta complesse, derivate dai livelli superiori del web, dando la possibilità all’utente di approfondire in maniera fluida e quasi impercettibile la sua conoscenza dell’ambiente circostante. I campi applicativi che potrebbero beneficiare di questa integrazione sono molteplici e variati: dalla sanità all’educazione, dalla difesa all’asset tracking”24 . 24 Articolo: Cattid, Università di Roma La Sapienza. http://tenenga.com/download/TECA02-02.pdf 50
    • Cap II - Web semantico 2.1 - Potenzialità della semantica Il web, così come lo conosciamo, è costituito da un vastissimo universo di informazioni disponibili in diversi formati: testuali, video, audio, immagini; inoltre quasi ogni singola voce è tradotta in tutte le lingue. Questo enorme database, fino ad oggi, è stato funzionale solo per le persone e non per le macchine che leggono le informazioni semplicemente come sequenze di bit, prive di significato. Proprio la semantica costituirà il valore aggiunto del prossimo web, ossia la possibilità di mettere in relazione di significato tutti i contenuti pubblicati sulla rete, permettendo alle macchine di interpretare i dati oltre che leggerli. L’idea di fornire internet di capacità interpretativa e logico-relazionale è stato, da sempre, uno dei desideri del suo fondatore. T.Berners Lee aveva già delineato tutto questo in un articolo del 1998: "Il web fu disegnato come uno spazio di informazioni, con l'obiettivo di essere utile non solo per la comunicazione uomo-uomo, ma affinché anche le macchine potessero avere la possibilità di partecipare e dare il loro 51
    • contributo. Uno dei maggiori ostacoli è stato il fatto che la maggior parte dell'informazione sul web è disegnata per essere fruita dall'uomo (...), la struttura dei dati non è riconoscibile per un robot che naviga il web. (...) L'approccio del web semantico, invece, sviluppa linguaggi per esprimere le informazioni in una forma accessibile e processabile da una macchina"25 . Il concetto di web semantico era quindi già previsto, ma oggi nasce come necessità per estendere le capacità attuali, in modo da favorire lo scambio di informazioni oltre che tra esseri umani anche tra software. Grazie a questa funzione, la relazione tra testi e parole non si baserà più sul solo legame sintattico, ma sarà fondamentale il loro significato. Il progetto di un web semantico è in piena fase di sperimentazione, iniziano a diffondersi alcune applicazioni che rappresentano il primo passo verso l’obiettivo finale: trasformare internet in uno strumento “intelligente”, capace di offrire aiuto concreto all’essere umano. Sulla base di queste premesse, in questo capitolo verranno analizzate alcune applicazioni web 3.0 in ambito semantico, per procedere correttamente in questa procedura si farà ricorso alla pratica del benchmark, ossia una tecnica di indagine sulle applicazioni o servizi simili al caso studio. 25 http://www.w3.org/DesignIssues/Semantic.html 52
    • 2.2 - Benchmark applicazioni semantiche web 3.0 Questo lavoro sarà utile per conoscere il contesto esistente della materia presa in esame, sarà quindi un approccio di ricerca volto a permettere un primo confronto dell’offerta esistente sul mercato di un determinato servizio. Nello specifico questo lavoro di benchmark si propone di analizzare alcune delle applicazioni semantiche dell’attuale panorama web 3.0. I primi progetti volti a sfruttare le potenzialità del web semantico sono stati i motori di ricerca, a differenza dei tradizionali engine che restituiscono una lista di pagine web, le nuove applicazioni semantiche tentano di restituire delle risposte corrette alle query26 degli utenti, mettendo in relazione semantica le informazioni del database. Il primo vantaggio di questo tipo di tecnologia consentirà un’interazione più immediata e naturale tra uomo e macchina: le risposte possono infatti essere restituite come frasi semplici, migliorando i tempi di ricerca e la qualità delle informazioni. Tuttavia, queste soluzioni di ricerca sono nella prima fase di sviluppo e sarà importante capire e soprattutto prevedere quali vantaggi comporterebbe un mashup di queste applicazioni. Nell’imminente futuro i dati potranno essere letti, interpretati, 26 Il termine query, in informatica viene utilizzato per indicare l'interrogazione di un database. 53
    • modificati, condivisi, combinati indipendentemente dal luogo in cui si trovano e dalla forma in cui sono pubblicati. Significa dotare il web di un'enorme intelligenza collettiva che potrà essere usata in migliaia di modi diversi. “Se il web fosse in grado di comprendere il significato dei contenuti di una pagina, potrebbe accettare domande come: “Qual è il più piccolo hotel per famiglie a Roma che costa meno di 150 euro?” e fornire un’unica risposta, quella giusta. Una tale capacità permetterebbe poi di creare una nuova generazione di applicazioni web. Ad esempio, un servizio in grado non solo di verificare il prezzo di una stanza doppia di un hotel 3 stelle situato in una certa località, ma anche di prenotare automaticamente quello più economico e più vicino ai luoghi che si desiderano visitare”( Francesco Caccavella 2009, 100)27 . Nelle prossime pagine, saranno presentati alcuni servizi semantici che hanno il web come contesto di utilizzo, in questa maniera si potrà offrire un esempio di come la semantica possa semplificare e rendere più utile la raccolta, la gestione e il riutilizzo delle informazioni. 27 Rivista PC professionale: http://www.pcprofessionale.it/stappro61/uploads/2009/10/pc- professionale-maggio-2009-il-web-semantico.pdf 54
    • 2.3 - Powerset:http://www.powerset.com Tra le applicazioni semantiche del web 3.0, Powerset 28 costituisce uno degli sforzi più promettenti nel trasformare le idee sulla ricerca semantica. A differenza dei tradizionali motori di ricerca, invece che setacciare il testo per individuare le corrispondenze dei termini presi singolarmente o in gruppo, l'engine è pensato per rispondere a domande formulate in un inglese semplice. Powerset infatti effettua una ricerca di tipo semantico elaborando delle richieste in “linguaggio naturale”. Questo servizio intende migliorare il modo di trovare le informazioni, estrapolando il significato dall’ordinario linguaggio umano. Attualmente il motore offre il solo supporto nella versione inglese dell’enciclopedia online Wikipedia, aggiungendo informazioni estrapolate dal database di Freebase, ma in prospettiva 28 Società fondata a San Francisco nel 2005 è stata acquistata da Microsoft nel 2008. 55
    • è previsto un ampliamento delle ricerche ad altre importanti risorse presenti in rete. Powerset presenta nella homepage una vistosa casella all'interno della quale effettuare la propria ricerca, ma è l'approccio con lo strumento ciò che veramente lo contraddistingue: anziché inserire semplici parole chiave o loro combinazioni, l'utente può inserire delle vere e proprie frasi, digitando semplicemente le domande alle quali si desidera avere risposta. Nella pagina dei risultati di ricerca, Powerset fornisce le risposte alle domande direttamente, e aggrega le informazioni provenienti da altri articoli. La pagina dei risultati delle ricerche non si limita a fornire le informazioni richieste, ma offre diverse modalità attraverso le quali risalire facilmente a tutti i dati disponibili sull'argomento. La parte superiore presenta normalmente informazioni sintetiche estrapolate da Freebase, un database aperto relativo ad informazioni provenienti da tutto il mondo, mentre al di sotto vengono presentati alcune “anteprime” estrapolate da Wikipedia. Nella lista dei vari articoli appaiono delle parole evidenziate in giallo che secondo il motore di ricerca sono collegate semanticamente all’argomento. La parte inferiore presenta i risultati delle ricerche che combaciano con la query effettuata. Cliccando sulla freccia posta a sinistra delle diverse 56
    • voci appare un Miniviewer29 in grado di offrire una anteprima dell'articolo presente all'interno dell'enciclopedia libera, senza dover lasciare la pagina dei risultati. La novità sta nel non indicizzare semplicemente le pagine in un'ottica di parole chiave, ma cerca altresì di interpretarne i contenuti. Con Powerset, in maniera ancora molto semplice, si può quasi "chiacchierare" come fosse un sistema esperto dotato di un minimo di senno, capace di interpretare, comprendere e rispondere alle richieste. Per esempio se inseriamo la domanda: “Which is the longest river in the world?” (Qual è il fiume più lungo del mondo?), avremo come risposta un articolo che parla dei fiumi più lunghi del mondo, dove il Nilo occupa il primo posto; oppure avremo degli articoli che in maniera più dettagliata parlano del fiume Nilo in questione. Powerset mette in mostra come la tecnologia semantica non solo migliori i risultati delle ricerche, ma offra anche nuovi modi di aggregare, riassumere o integrare le informazioni. Un ambito in particolare si gioverebbe dei servigi di Powerset, in questo caso potrebbe essere un valido sostituto dei CMS30 , spesso 29 Anteprima fotografica. 30 Content Management System (CMS). Sistema di Gestione dei Contenuti. 57
    • incapaci ad aiutare nel concreto nella ricerca tra enormi campi di informazione come: e-mail, documenti e database. 58
    • 2.4 - True Knowledge: http://www.trueknowledge.com/ Un altro esempio basato sul sistema “Question Answering31 ” è True Knowledge. Si tratta di una start-up inglese che cerca di evolversi in un vero e proprio “answer engine”, ovvero un motore di risposte più che un classico motore di ricerca. Come Powerset è un progetto per le ricerche online da condurre in linguaggio naturale, grazie a un proprio database strutturato di conoscenze arricchito dai contributi e dalle correzioni degli utenti. La sua particolarità fondamentale risiede nell’interazione degli utenti, che possono contribuire ad editare la Knowledge Base 32 integrata nel sistema con nuovi input. Nella sezione “Teach True Knowledge” è possibile aggiungere 31 Sistema di “domanda e risposta” 32 Archivio di True Knowledge. 59
    • manualmente informazioni o intere voci mancanti, confermare o smentire i singoli fatti a cui si fa riferimento e inserire delle immagini. Lo scorso anno, Marco Varone ha pubblicato un articolo del sole 24 ore33 a proposito di True Knowledge: “…Solo tre delle cinquanta domande ottengono una risposta corretta (mentre una quarta è così così) con una percentuale di risposta attorno al 7%. Visto che la maggior parte delle domande sono piuttosto semplici (un esempio è "Who has won a nobel prize for chemistry in 1999"), mi aspettavo francamente qualcosa di meglio (per la domanda citata, Google fornisce la risposta come primo link dei risultati): è vero che si tratta di una versione beta ma anche piccole variazioni delle domande suggerite da loro spesso non rispondono correttamente, facendo sorgere molti dubbi sulla solidità dell'approccio e sulla sua applicabilità a domande reali”. Sicuramente la tecnologia è da perfezionarsi, ma le premesse sembrano interessanti per eventuali sviluppi, se poi teniamo conto dell’attuale fase pionieristica di studio. Purtroppo anche True Knowledge nonostante consenta la collaborazione degli utenti per ora è disponibile solo in lingua inglese. Un altro particolare che ho notato riguarda la sensibilità semantica di True Knowledge rispetto a Powerset, il primo esige una 33 http://marcovarone.nova100.ilsole24ore.com/2009/09/true-knowledge.html 60
    • maggior precisione lessicale per ottenere una risposta, basta infatti sbagliare un articolo per compromettere il processo di riconoscimento semantico. 61
    • 2.5 - Hakia: http://www.hakia.com/ Hakia è un altro esempio di motore di ricerca semantico che si occupa di analizzare le pagine web per poi estrarre le possibili query. Graficamente la homepage di Hakia si presenta come un sito dai colori chiari, molto semplice dove compaiono solo il logo blu e la casella di ricerca. In generale, Hakia effettua delle analisi morfologiche e sintattiche, prende in considerazione anche l’autorevolezza della fonte attraverso l’età della pagina web. I risultati vengono visualizzati in diversi modi: per parole singole particolarmente importanti o per i nomi di celebrità, questi vengono raggruppati in sezioni che cercano di offrire un quadro completo dell’argomento oggetto di ricerca. In altri casi il motore di ricerca riesce a identificare sinonimi e modi di dire, risalendo al significato o 62
    • alla parola effettivamente ricercata. Per il momento il motore funziona solo con la lingua inglese ma si stanno costruendo ontologie anche per altre lingue. La parte più interessante del progetto consiste nel fatto che tutti i visitatori possono contribuire registrandosi gratuitamente e segnalando il loro sito o altre le fonti. Una volta immesso il termine da ricercare si otterrà come risultato una pagina con dei contenuti e proposte di approfondimento suddivisa in più blocchi: Il primo a sinistra riporta i risultati di altre pagine web collegate semanticamente alla ricerca. La parte centrale è suddivisa in cinque blocchi: • Siti credibili, ossia quelle fonti scelte attraverso un criterio basato sulla segnalazione di contenuti da parte di biblioteche ed altri enti, • Pubmed, è un database bibliografico contenente informazioni sulla letteratura scientifica, • News, dove sono contenuti gli ultimi aggiornamenti sul tema di interesse, 63
    • • Blogs, il motore di ricerca semantico estrapola da diversi blog i contenuti attinenti al contesto di ricerca, • Immagini e video pubblicati dagli utenti. Oltre ai motori di ricerca esistono altre applicazioni legate alle funzioni semantiche del web 3.0, queste permettono per esempio di inserire o estrapolare i meta-dati delle pagine web arricchendo di significati semantici i contenuti pubblicati. 64
    • 2.6 - Calais: http://www.opencalais.com/ Questo service web 3.0 si propone di fornire una base di sviluppo semplice e versatile per costruire applicazioni in grado di aggiungere ai contenuti del web un livello di meta-dati semantici, più specificamente consente di aggiungere la semantica ai contenuti testuali mediante la generazione di meta-dati, così da descriverli in maniera intellegibile da altre applicazioni semantiche. Calais, previa registrazione gratuita, permette ai propri utenti di inserire dei documenti in diversi formati, anche pagine in HTML, per poi esaminarne i contenuti attraverso un’elaborazione condotta sul linguaggio naturale; successivamente estrapola le informazioni strutturate nel testo, riconoscendo persone, organizzazioni, luoghi, 65
    • fatti ed eventi che sono menzionati. Queste informazioni verranno poi trasformate in meta-dati scritti in formato Rdf, cioè in dati descrittivi per ogni singola voce semantica riconosciuta nel testo. In questa maniera il documento avrà un codice univo di identificazione detto GUID34 che permetterà a qualunque applicazione semantica conforme agli standard Rdf di leggere e comprendere questi meta- dati. Gli scopi di questo servizio gratuito saranno molteplici dato che Calais consente di creare mappe di collegamento tra: documenti web, persone, aziende, luoghi, prodotti e eventi. Attraverso le tecniche di tagging di contenuti, folksonomie, e filtraggio di feeds RSS, tali mappe potranno altresì essere condivise con altri utenti per ulteriori finalità. 34 Globally Unique Identifier 66
    • 2.7 - Cogito:http://www.expertsystem.it/ Cogito è un prodotto dell’azienda italiana Expert system, questo software è capace di cogliere il significato delle parole e analizzare qualsiasi tipo di testo: file, mail, articoli, blog, pagine web e addirittura sms impiegando un approccio semantico. Compiere il benchmark di questo servizio è stato alquanto difficoltoso perché la homepage appare ridondante di informazioni, inoltre l’applicazione risulta essere ancora in fase beta, ma consente delle procedure dimostrative che risultano interessanti. La rilevanza di questo servizio risiede nelle opportunità pratiche di utilizzo per le aziende, infatti la funzione Cogito Monitor consente per esempio di esaminare in un determinato periodo l’opinione dei consumatori su un 67
    • determinato prodotto, raccogliendo le informazioni sulle scelte dei clienti per tracciare meglio una strategia di marketing. Un altro servizio chiamato Cogito Answers (sul sito è disponibile la demo) permette una gestione più agevole del customer care, ossia il servizio di assistenza con cui un’azienda presta attenzione alle richieste dei propri clienti. In pratica, il sistema permette a un’organizzazione di interagire con i propri clienti attraverso il cellulare (chiamate e/o sms), mail e forum. Cogito Answers dopo aver raccolto i dati provenienti da queste diverse fonti sarà poi in grado di tracciare delle informazioni semantiche creando così delle risposte pertinenti alle richieste del cliente. Un terzo servizio si chiama Semantic Advertiser e permette di esaminare il senso delle pagine e di assegnare ad ognuna il giusto messaggio pubblicitario. Cogito rappresenta una interessante alternativa agli strumenti tradizionali, grazie alla capacità di comprensione automatica dei significati offre la possibilità di gestire una grande quantità di informazioni, rivelandosi cosi una risorsa strategica per le aziende del futuro. 68
    • 2.8 - Freebase: http://www.freebase.com/ Freebase è un’applicazione che riesce a coniugare al meglio la filosofia del web 2.0 con la tecnologia semantica del web 3.0. Questo progetto, sviluppato dalla start-up californiana Metaweb, rappresenta il più grande database esistente sul web. Al suo interno sono contenute più di 4 milioni di voci ( il doppio di Wikipedia). Nonostante i due servizi possano avere alcune analogie, la caratteristica principale di Freebase riguarda proprio l’ambito semantico. I suoi contenuti, infatti, non sono compilati soltanto dai propri utenti, ma la maggior parte del lavoro è svolto dal suo algoritmo che assimila automaticamente le informazioni presenti sul 69
    • web, come per esempio: Wikipedia, Flickr35 e Music Brainz36 per poi riordinarle semanticamente nei propri contenuti. In pratica tutti questi dati vengono setacciati dall’applicazione semantica che li classifica secondo criteri pertinenti e li collega in relazione tra loro. Il risultato è un enorme contenitore di informazioni strutturate, create in maniera del tutto automatica. In più, grazie alle Api messe a disposizione dal progetto, tutti gli sviluppatori possono costruire applicazioni e attingere ai dati di Freebase, tutte le voci inoltre sono coperte da licenza Creative Commons37 . 35 Sito di condivisione delle fotografie personali 36 Enciclopedia online della musica a contenuto aperto. 37 Licenze di diritto d'autore che si basano sul principio del "alcuni diritti riservati". 70
    • 2.9 - Tripit: http://www.tripit.com/ TripIt è una applicazione dedicata al mondo dei viaggi, in pratica consente ai propri utenti di aggiornarsi tempestivamente con tutte le informazioni pertinenti dalla partenza sino al rientro. Per il momento il pacchetto completo dei suoi servizi è riservato ai soli abbonati per 69 dollari l’anno. Dopo aver effettuato la registrazione sarà possibile inserire le informazioni base del viaggio, dopodiché il sistema in base ai dati inseriti provvederà automaticamente a creare il vostro itinerario. La forza di questa applicazione semantica riguarda la capacità di stabilire relazioni significative fra più risorse differenti. TripIt una volta ottenute le informazioni semantiche aggiorna i propri utenti con: mappe, informazioni meteo, note turistiche ed eventi; il tutto ricavato dal web senza nessun intervento da parte del 71
    • navigatore. Inoltre il servizio prevede degli aggiornamenti per tenere conto di scioperi dei mezzi pubblici e feste locali. Schematicamente le principali funzionalità della piattaforma sono: • effettuare il check-in online, • informazioni sulla cancellazione del volo o ritardi, • possibilità di sapere se qualcuno nel vostro network di amici TripIt si trova nella stessa città nei giorni in cui ci siete anche voi, • ricevere suggerimenti e note da vostri amici circa luoghi da visitare, • avere un calendario ben organizzato con tutte le attività previste, • avere un documento stampabile riassuntivo con tutti i dati realmente necessari concentrati in una pagina, • uno strumento per informare in automatico amici e parenti del proprio arrivo nel luogo di destinazione, • gestire e tenere sotto controllo le spese (molto utile per i viaggi di lavoro), • poter effettuare uno sharing del viaggio su LinkedIn o sul vostro blog e altri social media, 72
    • 2.10 - Swotti: www.swotti.com Questo servizio mette la tecnologia semantica a disposizione dell’utente per agevolarlo in situazioni pratiche e concrete come quella del viaggio. Poter avere sempre la situazione sotto controllo, grazie agli aggiornamenti e i consigli del sistema costituisce sicuramente un valido aiuto per il viaggiatore. Per quanto riguarda alcune funzioni c’è da porsi l’interrogativo sé e quanto queste possano generare problemi in ambito di privacy. Swotti è un'applicazione web che con l'ausilio di un motore semantico (funziona in inglese e spagnolo), permette di fare ricerche comparate su alcuni prodotti, beni o servizi prima di procedere all'acquisto. Attraverso questo servizio 3.0 è possibile cercare e leggere le tantissime opinioni espresse dagli utenti sul web. Tutti i dati sono 73
    • estratti automaticamente dai forum, blog e siti per essere poi elaborati dal motore semantico, che individua i giudizi o le impressioni. Per ogni prodotto viene creato un indice di gradimento che mostra gli aspetti migliori e peggiori dell'oggetto cercato. Questo servizio fornisce un certo spessore alle pubblicazioni dei blogger, contenuti spesso privi di faziosità tipiche della pubblicità tradizionale, gli utenti in questo modo possono davvero ottenere informazioni obiettive sul prodotto desiderato in modo semplice e veloce. Una volta realizzata la ricerca, Swotti propone all'utente una serie di informazioni che quest’ultimo valuterà in base alle proprie esigenze. Sulla sinistra dello schermo vengono presentati due grafici con una lista di parole che definiscono il prodotto o l’azienda in questione: il 74
    • grafico a torta mostra la percentuale delle volte in cui la parola ricercata viene nominata all’interno dei blog, mentre il secondo grafico mostra quanto il prodotto è considerato positivo o negativo in relazione ai risultati del primo grafico. Nel lato destro della pagina viene visualizzato l’elenco dei siti in cui compare la parola ricercata, indicando con un diverso colore gli aggettivi che definiscono l’oggetto in senso negativo o in senso positivo. Il servizio è ancora nella sua fase beta, infatti a volte il sito non funziona correttamente e genere degli errori. 75
    • 2.11 Boorah: www.boorah.com Boorah rappresenta un interessante servizio semantico che può migliore una pratica comune come quella di cercare un ristorante. Il principio di ricerca è simile a Swotti, ma in particolare Boorah si concentra appunto sulla ristorazione. Il servizio analizza le opinioni espresse nei blog o le recensioni condotte da professionisti su ristoranti, pizzerie e tavole calde; successivamente il servizio interpreta tutti questi dati per aiutare l’utente a scegliere il miglior posto dove poter mangiare. La ricerca è molto semplice, basta inserire il tipo di ristorante o il tipo di cucina che interessa (pizzeria, ristorante etnico) e il luogo in cui si intende mangiare, per poi ricevere una lista di ristoranti ordinata in base ai commenti positivi 76
    • dove vengono mostrate le percentuali di preferenza. Per ogni ristorante vengono fornite le opinioni raccolte sul servizio, sul cibo e sull’ambiente oltre che dati logistici e l’elenco delle recensioni dei siti esterni. Attualmente il sistema estrae solo un numero limitato di dati, perché il servizio è attivo solo in poche città degli Stati Uniti. Se un futuro sviluppo porterà un suo utilizzo su scala globale, Boorah offrirà sicuramente una interessante applicazione che sfrutta la tecnologia semantica e la collaborazione degli utenti per risolvere problemi pratici e comuni. 77
    • 2.12 - Twine: http://www.twine.com Twine è una delle applicazioni 3.0 attualmente più diffuse, questo strumento permette la raccolta e la condivisione dei contenuti sparsi sul web attraverso una logica di catalogazione semantica. In pratica Twine costruisce una rete di riferimenti e informazioni attorno agli interessi dell’utente, facilitandone l’esplorazione e suggerendo nuovi spunti possibili. Questo servizio grazie al suo algoritmo riesce a identificare le tag presenti nei contenuti per poi ordinarli secondo i gusti dell’utente. La barra di navigazione superiore permette di passare velocemente dalle aree personali alle pagine d'interesse, 78
    • dalle liste di amici al modulo di creazione di un Twine. Quest’ultimo rappresenta un deposito virtuale di informazioni organizzate, che permette di condividere nozioni e scoprire persone con gusti e preferenze affini. È possibile inoltre filtrare le ricerche isolando specifiche voci, oppure selezionando direttamente una determinata persona o luogo. Ci sono infine altri due elementi che rendono Twine un’applicazione particolarmente intelligente. In primo luogo il sistema di raccomandazione dove gli elementi aggiunti dall’utente contribuiscono a costruire il suo profilo di interessi, che confrontato con gli altri utenti permette di suggerire persone con cui entrare in contatto o nuove informazioni da leggere. In secondo luogo, ogni elemento inserito su Twine viene salvato all’interno dell’applicazione secondo gli standard Rdf per poter essere così utilizzata all’interno di altre applicazioni semantiche capaci di utilizzarli. 79
    • 2.13 - Il futuro della semantica Come già successo per altre innovazioni, è necessario ancora del tempo e diverse fasi di ricerca prima che il web semantico diventi un fenomeno di massa. L’obiettivo sarà quello di promuovere sempre più nuovi servizi che si dimostrino semplici e intuitivi da utilizzare su larga scala, il fine del web semantico consiste nel dare una qualche struttura alla caotica moltitudine di risorse e documenti oggi presenti in rete per facilitarne il reperimento, e inoltre agevolare la condivisione di informazioni ed esperienze tra i membri della "comunità virtuale" del web. La portata di questa innovazione tecnologia è molto rilevante e avrà forti conseguenze anche sull'utilizzo di internet all'interno di processi di business to business ed e-government. Il futuro, non tanto remoto, prevede infatti l’impiego di oggetti che in maniera del tutto autonoma saranno in grado di leggere e comunicare le nostre esigenze, per queste ragioni l’ argomento risulta essere di forte attualità anche in vista delle ricadute che avrà nella vita di tutti i giorni. “Cosa succederà non è facile dirlo ma la storia insegna che bisogna sempre essere fiduciosi 80
    • nel progresso tecnologico perché la conoscenza di oggi è la base dell'esistenza di domani”(Antonio Tomarchio)38 . 38 Articolo su: Blueberrypie, Università Bocconi, http://www.blueberrypie.it/articoli/papers1106.shtml 81
    • Cap III - Internet of Things 3.1 - Definizione di "Internet of Things" Il principio sulla quale si basa l’idea di internet of things è quello di concepire l’utilizzo di alcuni device per un miglioramento della vita dell’uomo, e non come minacciosi ostacoli. Questa affermazione è giustificata dall’ossessione che abbiamo nei confronti del futuro, le tecnologie emergenti ci favoriranno indubbiamente in una vasta serie di attività, ma saranno anche irrimediabilmente pervasive in ogni aspetto della nostra vita, pubblica o privata. Qualsiasi oggetto infatti potrebbe essere dotato di identità propria, che comunica e permette di avere una storia documentabile e documentata. Mentalmente, separare gli uomini e gli oggetti è più semplice che intenderli insieme come sistema ampio e interdipendente: gli esseri umani sono vivi, gli oggetti sono inerti; le persone possono pensare gli oggetti semplicemente giacciono li. “Ma questa visione tassonomica ci rende ciechi riguardo ai modi e ai mezzi attraverso cui gli oggetti mutano e lascia in ombra quelle aree d’intervento nelle quali la progettazione può dare nuova forma alle cose”(Sterling 2005, 6). Per 82
    • far si che il futuro che vogliamo sia meno insidioso ci occorre promuovere una cultura del progetto, dove definire meglio il confine tra risorse e pericoli. L’EPoSS (European Technology Platform on Smart Systems Integration) e il DG INFSO (Information Society and Media Directorate general of the European Commission), nel rapporto redatto in seguito al workshop del febbraio 2008 ‘Beyond RFId The internet of things’, definiscono l’Internet delle cose come: "Le cose che hanno un’identità e personalità virtuali che operano in spazi intelligenti utilizzando interfacce per connettersi e comunicare all'interno sociale, ambientale, degli utenti e dei contesti”. Questa definizione pone l'accento sulla perfetta integrazione tra cose reali e il web, oggetti che avranno un ruolo attivo in quello che potrebbe essere chiamato Internet del futuro. Bruce Sterling39 conia un neologismo per definire questi nuovi oggetti, che sono indicati come: spime ossia la contrazione di space e time, perché questi oggetti iniziano e finiscono come dati e le loro tracce possono essere seguite nello spazio e nel tempo. E’ esattamente in questa prospettiva che si deve osservare lo sviluppo del concetto di internet 39 autore di fantascienza statunitense. 83
    • of things, che ormai da alcuni anni impegna ricercatori e produttori di tutto il mondo, mossi dall’ambizioso obiettivo di sfruttare nel modo più proficuo l’enorme, sterminato potenziale di un’infrastruttura come internet, che davvero promette di migliorare significativamente la vita delle persone. In questi anni lo sviluppo di internet è stato impetuoso, tanto che l’ICANN (Internet Corporation for Assigned Names and Numbers) ha recentemente sancito il passaggio dal protocollo IPv4 all’IPv6: sostanzialmente si passa da un numero di indirizzi generabili che va da (4 × 109) a (3,4 × 1038), in parole povere c’è stata una vorticosa espansione di internet. Il fatto che ogni entità possa avere un preciso indirizzo sulla rete è stato il presupposto fondamentale di questa crescita che porterà verso l’Internet delle cose, che si configura come una tecnologia del tutto pervasiva e ubiqua. Infatti, grazie alle reti mobili sono già state abbattute significativamente le barriere spazio-temporali, poiché finalmente si sono potuti raggiungere gli obiettivi dell’any-time connection e insieme dell’any-place connection. Lo sviluppo dell’Internet delle cose, però, permette di spingersi anche oltre, arrivando a raggiungere il traguardo dell’any-thing connection. Il primo requisito dell’Internet delle cose, dunque, sembra essere l’indirizzabilità delle entità interconnesse, ovvero la possibilità che 84
    • ogni singolo oggetto, persona o essere vivente abbia un unico identificativo in rete, che gli permetta di esistere non solo nel mondo reale, ma anche in modalità remota. Con l’Internet of things, infatti, non ci si limiterà a dare una rappresentazione speculare della realtà, ma gli elementi di questa rappresentazione saranno attivi e addirittura autonomi, in quanto capaci di prendere decisioni, poiché altra caratteristica di questo progetto è dotare di intelligenza queste entità connesse. L’intuizione visionaria di un simile scenario è però da attribuirsi, prima ancora che ai ricercatori del MIT, a Mark Weiser, un collaboratore dello XEROX PARC (Palo Alto Research Institute) che enunciò le sue tesi in un celebre articolo del settembre del 1991, intitolato ‘The computer for the 21st century’. In tale articolo, esponendo la sua visione di quello che sarebbe stato l’ubiquitous computing, Weiser immaginava un mondo con una tecnologia talmente pervasiva da rendersi invisibile all’occhio umano. Gli studi sull’ Internet of things si fanno in genere risalire alle attività dell’Auto-ID Center, un gruppo di ricercatori legati dal 1999 al 2003 al Massachusetts Institute of Technology (MIT), che hanno lavorato 85
    • per anni ai sistemi di identificazione a radiofrequenza. Nel 2003 l’Auto-ID Center si fuse con l’EPCglobal, dando vita agli Auto-ID Labs, che muovendosi sulla stessa linea di ricerca del passato, si occupa di tematiche molto simili. Il concetto di “internet delle cose” o internet of things (IOT) non si esaurisce ad una specifica tecnologia o applicazione, ma comprende varie soluzioni tecnologiche : RFId, network di sensori, protocolli TCP/IP, tecnologie mobili e software che permettono di identificare gli oggetti, raccogliere, immagazzinare, processare e trasferire le informazioni non solo in ambienti fisici ma anche tra mondi fisici e virtuali. Al di là dell’aumento quantitativo, la rete in questi anni si avvia a compiere un salto di qualità fondamentale, poiché la tendenza che si sta prefigurando con forza è quella di un passaggio dall’ Internet dei dati e delle persone, a ciò che si può definire un’ Internet delle cose. “La paternità del concetto di internet of things va attribuita a Kevin Ashton, che lo utilizzò per primo nel corso di una presentazione alla Procter&Gamble nel 1998: “L'aggiunta di RFId e altri sensori agli oggetti di tutti i giorni porterà ad un Internet delle Cose e sancirà la 86
    • fondazione di una nuova era di percezione delle macchine”(Enrico Sacchi, 2009)40 . Nonostante IOT (Internet Of Things) sia costituita da un insieme di tecnologie, per capire meglio di cosa si tratti sarà necessario approfondire innanzi tutto il tema sulle etichette RFId (Radio Frequency Identification) sulla quale si basano i successivi sviluppi. 40 Articolo del sole 24 ore, 19/06/2009, http://www.gdoweek.it/articoli/0,1254,44_ART_1737,00.html?lw=44;CHL 87
    • 3.2 - Cenni storici e funzionamento delle etichette RFId I primi dispositivi RFId, cioè i sistemi che consentono via radio di trasmettere delle informazioni di identificazione su un determinato prodotto/oggetto, risalgono a circa sessant'anni fa. Come per molte tecnologie di telecomunicazione attuali lo sviluppo dell' RFId è iniziato durante la seconda guerra mondiale, per scopi bellici. La tecnologia si basava sugli IFF (Identification Friend or Foe), ossia i sistemi che consentono l'identificazione a distanza di aerei e navi militari. Dalle applicazioni militari si è passati all’uso civile negli anni '60 con la commercializzazione dei primi sistemi EAS (Electronic Article Surveillance) per il controllo dei furti nei supermercati. All'epoca, le etichette radio consentivano l'invio di un singolo bit d'informazione (presente/assente) ed erano piuttosto ingombranti e costose. Dagli anni '90 si è iniziato a pensare all’utilizzo degli RFId anche per le applicazioni di massa, uno dei primi esempi è costituito dal telepass per il pedaggio autostradale. Gli sviluppi recenti, hanno consentito di fare notevoli passi in avanti su questa tecnologia, permettendo una miniaturizzazione e una considerevole riduzione dei costi. Oggi un'etichetta radio può essere grande poche decine di 88
    • millimetri, non richiedere alcun tipo di alimentazione autonoma e costare pochi centesimi di euro. Le dimensioni e i costi ridotti permettono l'inserimento di questo tipo di tecnologia di identificazione praticamente su qualsiasi tipo di prodotto, andando in prospettiva a soppiantare gli attuali codici a barre. Nell’etichetta RFId vengono memorizzati i dati di identificazione per poi essere successivamente trasmessi. Semplificando al massimo, un sistema RFId è sempre formato da due elementi: reader e tag. Un reader è il dispositivo di lettura composto da un modulo di elaborazione dati e un’antenna per la generazione del campo elettromagnetico che serve a interrogare il tag. Quest’ultimo è un dispositivo posto sull’oggetto da identificare ed è costituito da: un’antenna per la rice- trasmissione del campo del reader e un chip per la gestione della comunicazione e dell’identificazione. 89
    • I tag possono essere classificati in: • Attivi: quando hanno una fonte di alimentazione indipendente dal reader e la capacità di trasmettere senza essere interrogati; • Semi-passivi: quando hanno una fonte di alimentazione indipendente dal reader ma trasmettono solo se interrogati; • Passivi: quando sono alimentati dalla potenza irradiata dall’antenna del reader quando questo li interroga. Oggi è possibile realizzare RFId inseriti in etichette del tutto simili a quelle normalmente utilizzate nei capi di abbigliamento, oppure sotto forma di adesivi da applicare sulle confezioni di cartone per prodotti. Per accedere alle informazioni contenute nell'etichetta radio è necessario un lettore fisso o portatile, che nel caso di RFId passivi ha il compito anche di alimentare l'etichetta. Il vantaggio offerto da questo tipo di tecnologia rispetto ai sistemi di identificazione attualmente più utilizzati, come i codici a barre, è che il lettore non ha bisogno di avere la visibilità ottica rispetto all'etichetta. Inoltre, le etichette radio possono essere contenute all'interno dei prodotti e 90
    • lette anche in più esemplari contemporaneamente. Le differenze rispetto ai metodi di identificazione tradizionali non finiscono qui. Il progresso della tecnologia ha permesso l'inserimento di memorie non volatili di qualche kilobyte all'interno del tag, quindi possono contenere informazioni molto articolate sul prodotto. Gli RFId non si limitano a trasmettere informazioni, ma consentono anche di riceverne e aggiornare di conseguenza i propri dati. In questo caso, l'etichetta radio diventa un sistema di identificazione che può tenere traccia della storia di un prodotto durante il suo trattamento. Questa caratteristica ha segnato il passaggio successivo che ha portato la tecnologia RFId come premessa dell’IOT. Infatti la possibilità di aggiornare i dati contenuti all'interno dell' RFId ha fatto nascere il concetto di sistemi informativi "distribuiti", dove con questo termine non si intende la normale distribuzione delle informazioni che avviene sulle reti cablate o wireless. Con l' RFId si può arrivare a concepire un sistema nel quale ogni oggetto trattato ad esempio all'interno di una fabbrica contenga un proprio set di dati, che vengono comunicati e aggiornati a distanza in corrispondenza dei lettori. Una visione di questo tipo, combinata magari con le tecnologie di comunicazione in continua evoluzione, ha fatto parlare ad alcuni di una futura "Internet delle cose", contrapposta o 91
    • complementare all'attuale "Internet delle persone". L’idea generale di questo concetto parla di oggetti, specialmente di uso quotidiano, che sono leggibili, riconoscibili, localizzabili, accessibili e persino controllabili via Internet. In questo contesto gli oggetti quotidiani includono non solo gli oggetti elettronici che utilizziamo ogni giorno e i prodotti ad alto sviluppo tecnologico come veicoli e apparecchi, ma tutte le cose che normalmente non pensiamo come: abiti, cibo, materiali, edifici e monumenti. L’obiettivo futuro sarà quello di creare un network di oggetti connesso al web, basato su protocolli standard di comunicazione, in cui oggetti singoli sono interconnessi e operano in cooperazione. ”Per questo motivo, l’Unione Europea ha già pensato alla creazione di uno standard, il progetto European Casagras (Coordination and Support Action for Global RFId -related Activities and Standardisation), nasce per promuovere una collaborazione a livello internazionale finalizzata ad accelerare tutti i processi legati allo sviluppo di una Internet delle cose; tra i partecipanti al progetto anche gli Stati Uniti e alcuni referenti dei Paesi asiatici”(Laura Zanotti).41 L’obiettivo principale di tale progetto è quello di creare uno standard europeo di comunicazione e codificazione RFId. Per questo motivo verranno revisionate le 41 Articolo Rfid Italia, 15/10/2009. http://rfid.thebizloft.com/content/uno-standard-europeo- la-rete-delle-cose 92
    • procedure esistenti e successivamente si passerà alla stesura di una regolamentazione che definisca le aree applicative della tecnologia RFId. Un altro tema fondamentale è stato Il diritto al “silenzio dei chip”, ossia la necessità di garantire il diritto delle persone di disconnettersi dal loro ambiente di rete in qualsiasi momento. I cittadini devono essere in grado di leggere le etichette e di poterle distruggere anche per preservare la loro privacy. La commissione responsabile ha anche stilato anche una ricerca, intitolata “RFId and the Inclusive Model for the Internet of Things”. Secondo i dati raccolti, più di un milione di dispositivi, come: misuratori elettrici, sistemi di navigazione ed elettrodomestici già scambiano informazioni sfruttando tecnologie di networking tradizionali o wireless evidenziando in alcuni casi l'incompatibilità dei diversi protocolli utilizzati. “In futuro assisteremo a una progressiva migrazione verso le tecnologie Ip e la nuova “Rete delle reti” in cui ci sarà una convergenza tra le tecnologie wireless (Umts, Hspa, Lte, Wi-Fi, Wimax) e quelle contactless (Near Field Communication)” (Laura Zanotti)42 . La combinazione tra queste tecnologie dovrebbe contribuire a sviluppare una maggiore intelligenza degli oggetti, ma imporrà anche nuove politiche per la sicurezza, relative alla 42 Articolo Rfid Italia, 15/10/2009. http://rfid.thebizloft.com/content/uno-standard-europeo- la-rete-delle-cose 93
    • protezione dei dati personali, al controllo della loro integrità, al rafforzamento delle pratiche di autentificazione come le firme elettroniche e la gestione della sicurezza dei dati. In questo contesto, le Sim card dei telefonini sembrano la scelta più indicata nell'attivazione di questi nuovi processi di identificazione e per mettere in sicurezza le applicazioni Nfc come nel caso delle procedure di pagamento effettuati tramite questi servizi. Per raccogliere maggiori informazioni in merito , la Commissione Europea dal dicembre 2009 ha affidato all’Eurostat43 il lavoro di ricerca statistico sull'uso delle tecnologie RFId. Al momento, sono tre gli scenari applicativi delineati a livello di Commissione Europea. Il primo concerne le “cose in movimento”, in particolare in ambiti come retail44 , logistica e tracking. Il secondo livello riguarda gli ubiquitous intelligent devices, un livello applicativo che corrisponde alla cosiddetta ambient intelligence, dove i dispositivi possono eseguire operazioni in base a un set predeterminato di azioni e perfino prendere decisioni seguendo dinamicamente i cambiamenti di preferenza degli utenti. Troviamo, infine, le applicazioni di tipo ambient and assisted living legate al 43 istituto di ricerca statistico europeo 44 attività di distribuzione commerciale al dettaglio. 94
    • miglioramento della qualità della vita e in generale, la vita pubblica dei cittadini: dai trasporti intelligenti ai sistemi di diagnosi dei veicoli. Le funzioni e l’uso di applicazione delle etichette RFId possono essere quindi molteplici, vengono utilizzate per l’identificazione automatica e univoca degli oggetti, in questo caso può apparire come una normale un’evoluzione dei sistemi di codifica già esistenti, come il codice a barre. Ma l’RFId può essere utilizzato anche per l’identificazione delle persone, consentendo un accesso a determinate aree riservate, per esempio i dispositivi di pagamento. Inoltre le tag degli RFId sono in grado di misurare le grandezze fisiche, collegate a dei sensori possono registrare i dati che verranno successivamente rielaborati. Infine un’altra funzione riguarda la localizzazione della posizione fisica di un oggetto o persona. Attraverso questi mezzi si sta realizzando ciò che Sterling chiama “società sincronica”, ossia una società che genera miliardi di traiettorie catalogabili, indagabili, tracciabili che formano le microstorie delle persone in relazione con gli oggetti. Riuscire a sfruttare questo potenziale sarà un’opportunità fondamentale e una sfida per il design del futuro.” Questa vasta massa digitale di miliardi e miliardi di storie è impegnativa e, per certi versi anche rischiosa” (Sterling 2005, 46). Nonostante possa esserci un certo lato oscuro 95
    • nei confronti dell’internet of things, resta inutile il tentativo di rifiutare questa tecnologia, sarà necessario invece imparare a conoscerla in modo esaustivo per far si che la società sincronica prevalga sull’imprevisto. La nuova forma di conoscenza introdotta dagli spime sarà capace di sondare vaste miniere di dati derivati dall’esperienza con la semplice pressione di un tasto; l’unione di persone, oggetti e internet a mio avviso è da concepire sotto quest’ottica. Per capire meglio i diversi campi applicativi occorrerà mostrare alcuni esempi concreti che fanno già parte del nostro quotidiano. Nel prossimo paragrafo, verrà presentato il benchmark dei prodotti esistenti in questo settore. Per quanto riguarda il campo di identificazione degli oggetti legato all’ubiquitous intelligent devices, esiste una particolare applicazione chiamata Mir:ror sviluppato da Violet: 96
    • 3.3 - Mir:ror: http://www.violet.net/ Questo servizio propone un lettore RFId destinato per il grande pubblico, molto intuitivo e con funzioni personalizzabili. Abiti, giochi, farmaci, documenti e qualsiasi oggetto possono essere connessi a internet grazie a Mir:ror. Il sistema è composto da un reader RFId a forma di disco bianco che si connette ad un computer Mac o PC attraverso una porta USB. La Violet ha creato anche delle etichette RFId personalizzate a forma di francobollo che possono essere applicate su qualsiasi oggetto e sono chiamate Ztamp. In pratica quando un oggetto dotato di Ztamp viene avvicinato alla sua superficie del lettore Mir:ror questo reagisce con un segnale acustico al suo riconoscimento. Se non è presente alcuna applicazione sull’oggetto, si aprirà il sito della Violet 97
    • dove si potranno scegliere i vari servizi disponibili da abbinare all’oggetto su cui si vuole intervenire. In teoria si potrebbe inserire una Ztamp sulla maglietta della propria squadra del cuore, dopo aver sincronizzato il servizio sul sito basterà avvicinare la maglietta al computer per avere tutti gli aggiornamenti, new e risultati della squadra. Lo stesso oggetto mostrato a qualsiasi lettore Mir:ror eseguirà le stesse applicazioni. Grazie alla Ztamp gli oggetti viaggiano e mantengono il proprio potere e la propria memoria. Qualsiasi dispositivo Mir:ror dopo aver riconosciuto un oggetto, può spedire e-mail a destinatari predefiniti, inviare dati ad un sito web, come Facebook o Twitter, oppure a qualsiasi altra applicazione scelta precedentemente. Violet ha pensato anche di consentire a ogni programmatore di creare le proprie applicazioni che poi verranno ospitate sulla piattaforma. 98
    • 3.4 - ZigBee è un altro servizio relativo IOT che sfrutta la tecnologia RFId, http://www.zigbee.org/ Questo esempio rappresenta un'altra promettente soluzione sulla strada dell'Internet of Things sempre legato ubiquitous intelligent devices. E’ in pratica un servizio orientato sull’automazione dei sistemi domestici, basato su un insieme di protocolli di comunicazione che utilizzano piccole radio antenne digitali a bassa potenza. ZigBee può offrire un networking senza fili a tutta una serie di dispositivi, come misuratori e sistemi di comunicazione dati, permettendo di interagire tra di loro attraverso una rete wireless. Grazie a ZigBee sarà possibile integrare una sorta di tag su ogni sistema di comando, per quanto semplice esso sia (interruttore della luce, condizionatori, ventole, sistemi di riscaldamento, serrature, 99
    • uscite di emergenza, serrande automatiche, allarmi). Dovrebbe, quindi, essere possibile monitorare e controllare lo stato dei sistemi in maniera centralizzata presenti nell’ ambiente domestico, commerciale o industriale; una sorta di super-telecomando. 3.5 - Near Field Communications Per quanto riguarda l’internet delle cose legato al campo all’ambient and assisted living, la connessione NFC (Near Field Communications) rappresenta un’evoluzione dell’ RFId. Il funzionamento è simile, infatti permette l’interazione di dispositivi elettronici su brevi distanze, ma avrà un impatto maggiore perché saranno i telefoni cellulari di prossima generazione a supportare questa tecnologia. Ad esempio basterà avvicinare il telefonino alle tag situate nei luoghi pubblici (uffici postali, banche, ospedali, etc.) e interagire per ottenere le informazioni ed i servizi desiderati, utilizzando il proprio cellulare anche come una carta di credito per effettuare pagamenti. 100
    • Per ora esistono due possibili campi di applicazione: • Informazioni su oggetti: Rientrano in questa classe tutte le applicazioni che usano la tecnologia NFC per ottenere informazioni da dispositivi con comportamento passivo e senza contatto fisico. Ad esempio, le tag associate ai vari servizi pubblici o privati potrebbero essere lette dal terminale portatile ed usate come una sorta di indirizzo URL per connettersi a internet, in questo modo sarà poi semplice ricavare maggiori e dettagliate informazioni sul prodotto medesimo. Basterà avvicinare il proprio telefono alla tag per innescare automaticamente il processo, e visualizzare i contenuti di interesse sul proprio display. • Ticketing / Micro Pagamenti: In queste classe di applicazione rientrano i servizi NFC che vengono usati per il trasferimento dei dati di valore economico. Il modello di funzionamento prevede che l’utente sia in possesso di un terminale portatile che supporti la tecnologia NFC e il servizio con la sua banca. Quando l’utente vuole effettuare un pagamento deve avvicinare il proprio dispositivo alla tag del servizio, in questo modo si innesca un’interazione tra i due dispositivi che porta al 101
    • processamento delle informazioni ed all’autorizzazione della transazione finanziaria. Tra le principali applicazioni di ticketing si ricordano: In Germania, nella città di Hanau, vicino a Francoforte, dove è stata effettuata una sperimentazione per offrire ai cittadini dotati di un telefonino Nokia 3220 con NFC, servizi di biglietteria sui sistemi di trasporto pubblico. Negli Stati Uniti, ad Atlanta, nella Philips Arena, la tecnologia NFC consente di entrare allo stadio avvicinando i propri telefoni NFC ai gate d’ingresso; si possono anche effettuare acquisti nei chioschi autorizzati e nei negozi di abbigliamento. In Italia la Telecom lavora con ATM (Azienda Trasporti Milanesi) per la sperimentazione del servizio. Un campione di utenti sarà munito di telefoni cellulari di nuova generazione per acquistare e convalidare i biglietti tramite tecnologia NFC. Sarà inoltre possibile caricare il proprio abbonamento o carnet di biglietti, senza la necessità di recarsi presso un apposito punto vendita o ricevere informazioni utili sul trasporto pubblico semplicemente avvicinando il telefonino ai tag che si trovano all’interno delle stazioni della metropolitana. Allo stesso tempo, i controllori potranno verificare la validità dei biglietti in modo semplice ed immediato, avvicinando il proprio palmare al 102
    • telefonino del cliente. In Giappone, i sistemi di ticketing via cellulare sono già una realtà affermata nel campo dei trasporti. Inoltre, anche le compagnie aeree stanno iniziando a offrire servizi di acquisto mobile dei biglietti. Il mobile ticketing offre infatti interessanti opportunità per incrementare le vendite di biglietti, anche oltre il settore dei trasporti, con la possibilità di campagne di vendita last-minute mirate. Nel settore entertainment (cinema, teatro, concerti) ad esempio, dal momento che il cellulare permette di profilare i gusti e la posizione degli tenti, sarà possibile vendere biglietti per un film o un evento sportivo imminente direttamente ai fan riconosciuti. Juniper Research45 prevede una forte crescita dei servizi di ticketing mobile: secondo le stime della società, entro 5 anni, saranno 400 milioni gli utenti che useranno il telefonino per acquistare biglietti di vario tipo, per un mercato di 92 miliardi di dollari. Come premesso all’inizio del capitolo l’internet delle cose è formata da un insieme di tecnologie, inizialmente i dispositivi di radio 45 Società Britannica di telecomunicazioni analista specializzata nel settore delle comunicazioni mobili. http://arabcrunch.com/2008/10/juniper-research-forecasts-in-excess-of-400m- mobile-ticketing-users-by-2013.html 103
    • frequenza come RFId e successivamente NFC hanno gettato le basi per lo sviluppo di questa nuova concezione del web, ma vi sono altri importanti esempi e altre tecnologie che spingono verso la stessa direzione. 3.6 - Physical Computing Il physical computing è uno studio sull’approccio fisico tra gli esseri umani e il computer, mirato a realizzare sistemi interattivi fisici che attraverso l’uso di software e hardware sono in grado di rilevare e rispondere al mondo analogico. Questa disciplina punta a interpretare il corpo umano come una fonte di dati e cercando di progettare alcuni servizi in grado di leggerne i comportamenti attraverso le interazioni fisiche. Questo significa realizzare degli strumenti che permettano al computer di convertire una serie di grandezze fisiche come: calore, luce e suono in impulsi elettrici o dati digitali per poi essere successivamente elaborati e utilizzati. I dispositivi in grado di realizzare tutto questo sono dei sensori collegati a dei microprocessori capaci di leggere e convertire questa produzione di dati. In un senso più ampio, la physical computing 104
    • rappresenta un quadro di riferimento creativo per la comprensione del rapporto tra esseri umani e mondo digitale. La rivoluzione digitale ha reso sempre più accessibili alcune pratiche informatiche riservate prima agli esperti, la physical computing prosegue questo percorso e grazie alla creatività studia e sperimenta forme di interazione sempre più naturali e immediate. L’obiettivo sarà non solo quello di cambiare il modo di utilizzare i dispositivi digitali, ma colmare il divario tra realtà fisica e virtuale. Per capire meglio di cosa si tratta sarà necessario analizzare tramite la tecnica di benchmark alcune delle applicazioni che riguardano l’internet delle cose secondo questa chiave di lettura. A tal proposito il New York Times ha stilato una classifica delle Top 10 Internet of Things Products del 200946 , in questo articolo sono presentati i migliori prodotti ispirati alla filosofia della cosiddetta Internet delle cose. 46 articolo New York Times http://www.nytimes.com/external/readwriteweb/2009/12/08/08readwriteweb-top-10- internet-of-things-products-of-2009-74048.html 105
    • 3.7 - Arduino: http://www.arduino.cc/ Arduino è una piattaforma hardware open source per il physical computing, ideata in Italia nel 2005 dall’ingegnere Massimo Banzi. Questo dispositivo, basato su componenti hardware e software abbastanza semplici, permette a progettisti e appassionati di creare oggetti e ambienti interattivi. Ardunino può essere programmato tramite una porta usb per ricevere stimoli da una serie di sensori che permettono un’interazione con l’ambiente circostante, controllando per esempio luci, motori o altri dispositivi. In pratica si tratta di un piccolo oggetto costruito con pochi componenti elettronici ma pronto a dialogare con qualsiasi apparato dotato di un minimo di 106
    • intelligenza, in questa maniera il campo di applicazione può essere teoricamente illimitato, basandosi principalmente sulla fantasia del proprio utente. La caratteristica che lo rende rivoluzionario infatti riguarda la sua capacità di soddisfare sia i professionisti che gli hobbisti. Può essere utilizzato essenzialmente come intelligenza artificiale su oggetti indipendenti oppure come interfaccia di comunicazione tra PC e mondo fisico. Nel primo caso, si potrebbe collegare un led che cambia colore in base alla temperatura. Nel secondo caso, Arduino potrebbe inviare dati al PC o ruotare una tenda parasole controllata attraverso una webcam. “Arduino è estremamente flessibile e la facilità di utilizzo lo rende lo strumento ideale per laboratori di Interaction Design, in cui gli allievi non devono possedere specifiche competente di programmazione o componentistica elettronica, ma sono orientati alla trasformazione di scenari di interazione in prototipi funzionanti” (Stefano Sanna)47 . 47 Archimede webzine, intervista Stefano Sanna, http://www.sardegnaricerche.it/index. 107
    • Una interessante applicazione pratica che sfrutta la tecnologia di Arduino si chiama Plant sense. 3.8 - Plant sense: http://www.plantsense.com/ Plantsense un'azienda che offre un sistema per monitorare le necessità delle piante. L'obiettivo è semplice: seguire a distanza i fabbisogni del giardino per intervenire puntualmente solo quando è veramente necessario. Questo servizio si occupa infatti di realizzare dei sistemi di automazione per il controllo delle piante, alcuni programmatori, infatti, hanno adattato le capacità di Arduino per collegare dei sensori e permettere di “dialogare” con la propria pianta; il caso più noto è quello di un gruppo di utenti che hanno trasformato il segnale del sensore dell’umidità in un messaggio su 108
    • Twitter, facendo così “parlare” la pianta ogni volta che aveva “sete”. Per far funzionare il sistema occorre posizionare un sensore nel terreno, vicino alla pianta preferita e attendere che i sensori rilevino i dati. Sul proprio PC verrà collegato un ricevitore che consentirà l’interazione con il sensore posto nel terreno. Inoltre è possibile entrare nella sezione privata del sito web, in cui viene visualizzato lo stato di salute della pianta, la diagnosi degli eventuali sintomi e le eventuali cure suggerite dal sito. Oltre ai suggerimenti su misura, il servizio vanta una biblioteca virtuale in cui è possibile approfondire le proprie conoscenze del regno vegetale. Plantsense è una applicazione physical computing che integra perfettamente il mondo fisico con quello digitale; attualmente è una versione beta. Il prossimo obiettivo è quello di ottenere una pianta che, oltre ad avere la cartella clinica online, possa automaticamente assumere la giusta quantità di acqua o di pesticidi, eliminando il superfluo intervento umano. 109
    • Un’altra applicazione che unisce il mondo fisico a quello digitale seguendo la filosofia dell’internet of thing : 3.9 - Widenoise: http://www.widetag.com/widenoise/ WideNoise è uno strumento dell’azienda Wide tag in grado di rilevare il livello di rumore che circonda l’ utente e visualizzarlo in decibel su una mappa online. Si tratta di un’applicazione pensata per gli iPhone ed iPod Touch scaricabile da applestore al prezzo di 1,50 euro. Questo dispositivo è in grado di misurare sul proprio telefono l’ inquinamento acustico, trasformando il microfono in un rilevatore acustico capace di misurare il rumore di un intero quartiere, rappresenta quindi un altro esempio di physical computing in grado di raccogliere i dati del mondo fisico, elaborarli digitalmente e 110
    • condividerli tramite internet. Inoltre grazie alle funzioni del sito è possibile geo-localizzare tramite GPS i propri luoghi di rilevazione e confrontarli con la community formata dagli altri utenti. Ride Noise rappresenta un interessante strumento in linea alla tecnologia dell’internet delle cose che può divenire socialmente utile, sensibilizzando gli utenti sul tema dell’inquinamento acustico. Mettendo insieme hardware, software e persone si può così creare valore e contenuti per chi vi si aggrega, partecipando attivamente, poiché il compito di rilevare i dati raccolti diventa d’interesse dell’ utente. 111
    • 3.10 - Pachube: http://www.pachube.com/ Pachube è un progetto di physical computing legato al mondo del social network, in questo caso la community condivide principalmente i dati che rivengono rilevati dai sensori sparsi per il mondo. Anche in questo caso viene sfruttata pienamente la tecnologia di Arduino, in più Pachube aggiunge il servizio di condivisione e creazione di nuovi servizi che costituiscono un ponte tra mondo fisico e virtuale. I sensori collocati in qualunque parte del mondo vengono taggati e aggiornati sulla piattaforma web, in questo modo misure come: temperatura, consumo energetico, luce, rumore, pressione, umidità e CO2 vengono costantemente monitorate e condivise. Gli utenti di Pachube possono seguire tramite i feed RSS 112
    • costanti aggiornamenti sui luoghi di interesse, anche tramite messaggi SMS. Inoltre sfruttando il servizio di Google maps e i sistemi di geo localizzazione è possibile creare un vero e proprio mashup per sfruttare le applicazioni di monitoraggio remoto. Grazie a questo servizio, dedicato principalmente all’ambiente, è possibile immaginare la città del futuro come un organismo vivente, costantemente monitorato nei suoi parametri ambientali, dalle stesse persone che oggi la abitano. Questo device riassume pienamente la filosofia di condivisione e di sostenibilità tipica del web 2.0, inoltre grazie al web 3.0 e il physical computing permette di costruire un patrimonio di conoscenza su come mappare l'ambiente, aggregare, visualizzare i dati e infine promuovere un cambiamento degli stili di vita per ridurre l'impronta ecologica. 113
    • 3.11 SenseAware: http://www.senseaware.com/SA/default.html SenseAware, è un potente localizzatore GPS dotato di una serie di sensori, come ad esempio un accelerometro che rileva eventuali cadute e un termometro che può registrare gli sbalzi di temperatura, tentativi di apertura del pacco o esposizione alla luce. Ovviamente, il suo sensore GPS ne rileva la posizione in ogni momento, sarà pertanto possibile seguirne sul sito i movimenti in tempo reale. Infatti, oltre a tutte queste funzioni, il sistema SenseAware è dotato di una piccolissima antenna cellulare che invia i dati rilevati sull’interfaccia web, consentendo al cliente di monitorare la propria spedizione letteralmente passo per passo. 114
    • Un sistema di questo tipo ha trovato subito un’applicazione immediata nella gestione di spedizioni dell’industria medica, specialmente per merce che deve essere trasportata a temperatura controllata, compresa ad esempio tra +2 e +6 gradi. SenseAware rileva eventuali esposizioni a temperature maggiori o minori di quelle prescritte, e la durata di tale esposizione. In questo modo, chi riceve può valutare l’integrità ed usabilità del contenuto. Inoltre, nel caso di materiale per uso chirurgico, il destinatario può preparare la sala operatoria e i relativi strumenti, essendo in grado di prevedere esattamente l’arrivo del materiale. 115
    • 3.12 - CeNSE (Central, Nervous, System, Earth) http://www.hpl.hp.com/ Questo servizio rappresenta un’altra interessante iniziativa promossa da HP Labs volta a costruire un’infrastruttura dell’internet delle cose. Il progetto stato ideato da Stan Williams, HP Senior Fellow, e ambisce a creare un vero e proprio sistema nervoso centrale della terra, grazie all’utilizzo di miliardi di piccolissimi sensori che finiranno per essere una parte integrante di ogni aspetto della nostra vita, del nostro lavoro e alla fine la nostra terra. Il progetto in collaborazione con Shell, punta all’acquisizione di dati ad altissima risoluzione sismica della terra, un importante passo avanti nella 116
    • ricerca di petrolio e di gas e di produzione. La tecnologia base è quella RFId che viene integrata al physical computing tramite l’uso di sensori accelerometri per rilevare vibrazioni e movimenti (secondo HP 1000 volte più potenti di quelli attualmente in commercio), in futuro sono previsti altri sensori per la luce, temperatura, pressione atmosferica e umidità. L'obiettivo finale è quello di avere una rete mondiale di sensori CeNSE, in grado di monitorare costantemente il pianeta, sviluppo successivo porterà altri campi applicazione, per esempio la sua capacità di rilevamento sismico potrebbe essere tradotta in una soluzione pratica per prevenire disastri naturali. Si tratta di un progetto ambizioso e molto costoso, HP Labs infatti ha ammesso l’esistenza di ostacoli di carattere economico, ma pensa di ammortizzare i costi con una produzione su larga scala. 117
    • 3.13 - CitySense: http://www.citysense.com/home.php Questa applicazione è scaricabile gratuitamente sia sull’apple store e che per BlackBerry e fornisce un nuovo modo di organizzare la propria vita notturna grazie alla filosofia dell’internet delle cose. Per ora funziona esclusivamente nelle città americana di San Francisco, grazie a questa applicazione sarà possibile vedere in tempo reale quali sono i locali più frequentati del momento, tutto questo è possibile tramite dei sensori che rilevano la presenza di telefonini dotati delle stesso servizio. Quando si accede all’applicazione, il servizio interagisce con l’utente tramite una mappa di Google che appare sul display del telefonino, dove sono indicati i punti con la maggior attività umana rilevata, oppure i luoghi con attività 118
    • inaspettatamente elevata, fornendo una classifica di tutto ciò. Gli utenti del servizio mobile sono invitati a fornire l’input di localizzazione ma la richiesta può essere ignorata ogni volta che si desidera, rispettando così i principi della privacy, inoltre è possibile abilitare la funzione per cancellare la cronologia di tutti gli spostamenti delle ultime 24 ore. Infine CitySense può dimostrarsi anche un’applicazione intelligente perché in base alla frequenza d’uso è capace di stabilire i luoghi preferiti del proprio utente e in base a questo suggerirne di nuovi; nella prossima versione si sta sviluppando il servizio per altre città, permettendo di cercare conoscenti o amici che casualmente si trovano nello stesso posto. 119
    • 3.14 - Waze: http://world.waze.com/ Waze, è il primo software di navigazione GPS basato su mappe driver generated, questo prodotto di una Start up israeliana è diventato molto in voga negli ultimi tempi perché è balzato nella classifica delle top 25 application free dell’apple store, ma Waze funziona anche su Android, Windows Mobile e Symbian. La novità di questo servizio non risiede nella navigazione satellitare, vi sono già molti servizi simili, questo servizio aggiunge la possibilità di inserire delle informazioni sulla mappa per poterle condividere con la community, come per esempio: segnalare un appostamento della polizia, un autovelox o un tamponamento. Inoltre è possibile taggare delle foto e geo-localizzarle; e se il tempo di percorrenza aumenta sopra gli standard apparirà una funziona per segnalare 120
    • eventualmente la presenza di traffico evitando ad altri automobilisti di prendere lo stesso percorso. Questo servizio così intuitivo, divertente e semplice è diventato quasi una moda tra i suoi utenti. Per i prossimi sviluppi sono previste due nuove funzioni, una riguarda la possibilità di scegliere preventivamente il proprio percorso preferito tra tutte le alternative possibili, confrontando le condizioni in tempo reale; esiste la possibilità di “insegnare” al dispositivo la strada che preferiamo percorrere, semplicemente utilizzandola spesso. L’ultima novità è legata alle dinamiche della community, essendo un servizio di driver generater, Waze ha deciso di fornire una classifica degli utenti più “fedeli” in base al chilometraggio di utilizzo, inoltre per ogni nuovo percorso inserito verranno assegnati molti più punti. 121
    • Infine vi sono due applicazioni italiane che hanno riscosso recentemente successo, una si chiama Bike Sharing e l’altra Netsukuku. 3.15 - Bike Sharing. Questo applicazione ha vinto l’ultimo concorso indetto da OMTP48 (Open Mobile Terminal Platform) e si occupa di ottimizzare il servizio di affitto delle biciclette. Bike Sharing è stato ideato dall’italiano Andrea Vitaletti, e si appoggia a Google Maps per triangolare la posizione e scoprire dove trovare la stazione più vicina per affittare una bicicletta. Attualmente il servizio è funzionante solo per la città di Roma, ma l'applicazione può essere facilmente estesa a tutti gli altri servizi di bike sharing e ad altri simili, come il car sharing. 48 è un forum creato da operatori di rete mobile, comprende: Huawei, LG Electronics, Motorola, Nokia, Samsung e Sony Ericsson 122
    • 3.16 - Netsukuku. http://netsukuku.freaknet.org Si chiama Netsukuku, parola inventata storpiata dall’equivalente di rete in giapponese e verrà presentato al TED 2010 ( Technology, Entertainment and Design) il più grande evento mondiale dedicato alle tecnologie. L’Unesco lo ha già definito come l’innovazione che potrebbe risolvere il problema dell’accesso ad internet, a livello globale, e di conseguenza eliminare il “digital divide”. L’idea che sta dietro a tutto l’impianto puramente informatico-matematico è il principio della condivisione basato sul caro e noto sistema peer-to- peer49 . Netsukuku è quello che nel linguaggio tecnico viene chiamato meta-protocollo. Un sistema che, riesce a far funzionare ogni nodo 49 cioè rete paritaria, si intende una rete di computer o qualsiasi rete informatica che non possiede nodi gerarchizzati come client o server fissi, ma un numero di nodi equivalenti. 123
    • mantenendo la mappa della rete entro pochi kilobyte di memoria. Una volta installato Netsukuku, ogni computer può eseguire le operazioni necessarie per creare una rete auto-configurante, autonoma e ampia quanto internet. Una condivisione, in questo caso di nodi, che sfrutta la connessione w-fi: in pratica ogni singolo computer con la propria connessione diventerebbe un router. In pratica si creerebbe una rete a banda larga wireless decentrata e distribuita, creata e gestita direttamente dagli utenti che la costituiscono e ne fanno parte. Il software di Neskuku è già disponibile per il download. Uno dei suoi principali vantaggi consiste nel poter essere eseguito anche su computer non particolarmente potenti, sui netbook, sugli access point e sui device mobili, perché utilizza una quantità minima di risorse e di memoria. 124
    • Cap IV – Interaction Design 4.1 - Definizione di Interaction Design L'interaction design è l'attività di progettare l'interazione che avviene tra esseri umani, sistemi meccanici e informatici. Progettare l’interazione significa creare esperienze d’uso che migliorino e ottimizzino il modo in cui le persone lavorano, comunicano e interagiscono. Questa disciplina appartiene all'ambito di ricerca dell'interazione uomo macchina (HCI). Lo scopo fondamentale della progettazione dell'interazione è rendere possibile e facilitare al massimo per un essere umano l'uso e l'interazione con le macchine (meccaniche e digitali), e la fruizione di servizi e sistemi complessi in modo proficuo e soddisfacente. Per Dan Saffer l’interaction design è l’arte di facilitare le interazioni tra esseri umani e prodotti o servizi, dotati di “consapevolezza” ossia di un chip che permette di percepire e rispondere agli esseri umani. Infatti l’interaction design si può definire meglio come un’arte applicata più che una scienza, perché risolve dei problemi solo in un particolare insieme di circostanze, e pur avendo le sue regole queste non possono costituire una base 125
    • scientifica. La disciplina dell’Interaction design è un campo molto vasto in cui si intrecciano diversi aspetti metodologici mutuati da altre materie e campi di ricerca: la psicologia cognitiva, l’ingegneria, il design, l’architettura, l’antropologia e le scienze sociali in genere, l’ergonomia, la grafica. L’aspetto multidisciplinare è fondato soprattutto sulle scienze cognitive e sull’ergonomia, ambiti di ricerca che per primi hanno posto l’attenzione sulla interazione che avviene tra le persone e gli oggetti, o i sistemi, per capire come questi possano essere utilizzati per migliorare la qualità della vita degli individui. Ognuna di queste discipline ha una propria interpretazione del concetto di “progettazione”. Di conseguenza è utile una definizione valida generale di design: “[il design] è un piano o uno schema concepito nella mente per essere successivamente eseguito”(Oxford English Dictionary). L’atto di progettare implica quindi la definizione di questo piano o schema. Affinché il progetto possa realizzarsi sarà necessario considerare l’uso che si dovrà fare del prodotto, il segmento di mercato a cui si rivolge sino ai costi e gli studi di fattibilità. 126
    • 4.2 - Storia dell’Interaction Design “Da sempre è stato riconosciuto che, affinché l’interaction design si affermi è necessario che molte altre discipline siano coinvolte. L’importanza di capire come gli utenti si comportano, come reagiscono agli eventi, o come comunicano e interagiscono gli uni con gli altri, ha portato esponenti di vari settori disciplinari, come psicologi e sociologi, a convergere sui temi del design dell’interazione”( Preece 2004, 8). Questa consapevolezza di fornire degli strumenti efficaci ed esteticamente piacevoli ha portato pian piano l’interesse di una grande varietà di professionisti, grafici, designer, artisti. L’evoluzione dell’interaction design riflette questo percorso ed è importante comprendere il suo sviluppo per fornire un quadro generale di questa disciplina. Inizialmente, negli anni Cinquanta gli ingegneri progettavano sistemi che altri ingegneri avrebbero utilizzato, le interfacce del computer erano qualcosa di relativamente semplice e lineare, non necessitavano di questo tipo di studio. Tra gli anni Settanta e Ottanta, con l’introduzione degli schermi o i primi display si avverte l’esigenza dell'interaction design. Cambia il concetto di interfaccia utente, si creano nuove forme di 127
    • interazione tra uomo e computer e di conseguenza il bisogno di studiare questo fenomeno, per rendere l’interazione una esperienza positiva. Col passare del tempo vennero introdotte nuove tecnologie informatiche come il riconoscimento vocale, la multimedialità, studi sulla realtà virtuale; tutto questo aprì altre possibilità per lo sviluppo di applicazioni rivolte a un numero di persone sempre più crescente, sino ad arrivare ai giorni nostri dove grazie a internet e alla tecnologia portatile si è concretizzata la possibilità di realizzare una grande varietà di applicazioni e servizi rivolti a tutti. Ogni aspetto della vita di un individuo: casa, lavoro, scuola, famiglia, tempo libero può essere visto come un’area in cui intervenire con la progettazione e l’integrazione di particolari tecnologie. Per questo motivo, oggi, lo studio dell’interaction design e più in generale dell’ HCI ormai si estende a tutti quegli oggetti di uso quotidiano a cui non facciamo più caso come ad esempio il personal computer, i dispositivi portatili, cellulari o perfino le interfacce di dialogo di diversi elettrodomestici. Inizia a delinearsi un modo di concepire l’informatica e l’utilizzo delle macchine in modo più friendly, non bisogna essere degli esperti e conoscere i vari linguaggi macchina per interagire con il computer, allo stesso tempo però le interfacce divengono sempre più complesse e predominanti. Lo studio dell’interaction design cerca 128
    • quindi di rendere queste interfacce sempre più intuitive, evitando un dispendioso consumo di energie dal punto di vista cognitivo. Di conseguenza inizia a consolidarsi l’approccio HCI come materia indipendente pur restando “contaminata” da diverse discipline. 129
    • 4.3 - Importanza strategica dell’Interaction Design Pensiamo a tutti i prodotti interattivi di cui facciamo uso nell’arco di un solo giorno: internet, telefono, computer, ipod, telecomandi, bancomat. Questi sono solo alcuni esempi della moltitudine di artefatti e servizi con cui entriamo in relazione, ormai, in maniera del tutto naturale. Molti di questi sono più facili da utilizzare rispetto ad altri, ma la maggior parte di questi prodotti, spesso, complicano la vita degli utenti più che migliorarla, semplicemente perché non sono stato progettati tenendo conto delle esigenze dell’utilizzatore finale. L’HCI viene incontro alle nuove esigenze del dover ripensare ai modelli di interazione preposti al dialogo uomo-macchina, non solo l’HCI sarà sempre più capace di anticipare tendenze e desideri delle persone che interagiscono, infatti la nuova disciplina si è fatta promotrice di studi sull’ usabilità dei sistemi e sull’esperienza d’uso degli utenti in modo da poter soddisfare le aspettative e i bisogni emergenti. L’interaction design rappresenta oggi un grosso business e gioca un ruolo centrale nella creazione di prodotti interattivi di successo. L’assenza o la presenza di un buon lavoro di design ha il potere di decidere il destino di una azienda. Come testimonia il caso di “dot.com” un servizio dedicato al commercio elettronico di capi di 130
    • abbigliamento.”Questa azienda sottovalutò l’importanza di una corretta progettazione dell’interazione, e pagò caro questo errore, fallendo entro pochi mesi del lancio. Il sito caratterizzato da una grafica 3D molto patinata, richiedeva però diversi minuti per caricare le pagine, inoltre la procedura di acquisto richiedeva molti passi che alla fine frustravano l’utente alla sua prima esperienza” (Preece 2004, 13). 4.4 - Obiettivi dell'Interaction design Uno dei principali obiettivi all’interno di un processo di design è quello di sviluppare prodotti o servizi interattivi e usabili. Per fare ciò, il primo passo da compiere sarà quello di confrontare i prodotti ben progettati con quelli mal progettati, questo servirà a specificare quali siano i punti di forza o di debolezza per delineare l’usabilità del prodotto. Per progettare prodotti usabili occorre prendere in considerazione soprattutto chi ne farà uso e il contesto in cui verranno utilizzati, per questo motivo prima di prendere decisioni progettuali bisogna partire dall’analisi dell’utenza. Questo significa in generale capire quali siano i maggiori ostacoli, cosa l’utente compie 131
    • facilmente o meno, in che modo il prodotto aiuta le persone e soprattutto se soddisfa i loro desideri. Definire i bisogni dell’utente nel processo di design consiste nel chiarire lo scopo primario del progetto, inoltre permette di scoprire quelli che sono gli obiettivi di usabilità ed esperienza d’uso. Si tratta di due elementi diversi, da realizzare con metodi e strumenti differenti. Obiettivi di usabilità: Significa garantire che il prodotto sia facile da usare, utile ed efficace e infine piacevole dal punto di vista dell’utente. In particolare, il livello di soddisfacimento dei requisiti di usabilità di un sistema è rappresentato dal raggiungimento del seguenti obiettivi: • Efficacia; • Efficienza d’uso; • Sicurezza d’uso; • Utilità; • Facilità di apprendimento; • Facilità di ricordo. 132
    • L’efficacia rappresenta la capacità del sistema di fare quello per cui è stato progettato, mentre per efficienza si intende il modo attraverso cui il sistema aiuta gli utenti a portare a termine i propri compiti. Per quanto riguarda il problema della sicurezza , questa può dipendere dalla varie situazioni, ma in generale si intende la capacità di non esporre l’utente in condizioni di pericolo durante l’interazione. Si parla di sicurezza anche per quanto riguarda la paura dell’utente di commettere errori durante l’utilizzo. In questo senso, per esempio, un sistema dovrebbe prevedere la funzione di annullare una procedura sbagliata, evitando così danni non rimediabili, questo comporterebbe una maggior fiducia nell'utente data la consapevolezza di porre rimedio ai propri errori. L’utilità invece è la capacità del sistema di fornire le funzionalità necessarie all’utente per portare a termine i suoi compiti. La facilità di apprendimento è, in pratica, la semplicità con cui l’utente impara a interagire con lo strumento, più sarà intuitivo più eviterà frustrazioni all’utente. In alcuni casi, esistono dei supporti come le applicazioni tutorial per migliorare la facilità d’uso, ma può accadere che paradossalmente possano annoiare l’utente. Infine la facilità di ricordo di un sistema è legata alla capacità dell’utente di impiegare bene il servizio dopo pochi utilizzi, questa è particolarmente importante per i sistemi 133
    • interattivi che si adoperano saltuariamente. Gli obiettivi di usabilità sono necessari alle realizzazione di un sistema, infatti possono essere utilizzati come obiettivi specifici che permettono di valutare l’usabilità del prodotto attraverso le performance dell’utente, migliorandolo in base alle sue capacità. Esistono diversi metodi per mettere in pratica tutto questo. Il primo consiste nel rendere le cose visibili, nel senso che più le funzioni saranno visibili più l’utente avrà chiaro cosa fare, sembrerebbe una cosa banale, ma molti servizi ignorano questa regola. Un altro principio prevede l’utilizzo dei feedback, ossia l’informazione di ritorno necessaria per confermare la corretta procedura di un’azione, questo permette all’utente di sapere se la sua interazione si svolge correttamente ed eventualmente correggere l’errore. Un altro valido strumento sarebbe quello di fornire dei vincoli, il fatto di limitare le interazione dell’utente può in alcuni casi rivelarsi utile per ridurre errori di carattere umano. Infine il designer dovrebbe essere in grado di fornire “affordance” al sistema, cioè la proprietà di un oggetto di far capire come deve essere usato. “Norman introdusse questo concetto alla fine degli anni Ottanta, nel corso della sua trattazione di design degli oggetti quotidiani. Da allora è diventato un concetto 134
    • molto popolare, usato per descrivere come progettare interfacce in modo che sia chiaro come utilizzarle” (Preece 2004, 28). Obiettivi per l’esperienza d’uso Questi obiettivi nascono dalla constatazione di come la tecnologia offra un supporto quotidiano alle tante azioni che compiamo ormai abitualmente. Così per l’interaction design, oltre all’efficacia, esistono altri criteri e soluzioni che migliorano l’esperienza d’uso: • Soddisfazione dell’utente; • Utilità; • Motivare l’utente; • Estetica gradevole; • Creatività; • Gratificante a livello emozionale. 135
    • La possibilità di progettare sistemi interattivi divertenti, godibili, ed esteticamente piacevoli è strettamente legata agli obiettivi dell’esperienza d’uso, ossia le sensazioni e il modo in cui l’utente percepisce l’interazione. I primi studi sulla comprensione degli elementi che caratterizzano piacevolezza e divertimento, durante le esperienze di interazione, sono stati condotti dalle industrie dell’intrattenimento che hanno dedicato molte risorse in questa direzione. Per il designer diventa quindi fondamentale comprendere quale di questi elementi soggettivi si addice meglio al suo progetto, è importante infatti valutare comparativamente gli obiettivi di usabilità con quelli dell’esperienza d’uso. Alcune combinazioni potrebbero risultare incompatibili, per esempio un sistema sicuro ma divertente allo stesso momento risulta difficile da immaginare, bisogna tenere conto infine sempre del contesto d’uso e delle attività che si intendono sostenere. In generale possiamo riassumere che all’interno di un processo di interaction design, si esaminano l'uso che verrà fatto dell'artefatto e il target a cui esso si rivolge. Questo significa che le questioni legate agli utenti guidano il processo più di quanto non facciano le questioni tecniche. Il modo migliore di assicurarsi che tutto lo sviluppo tenga in considerazione le necessità dell'utente è quello di coinvolgere utenti reali per tutta la durata 136
    • dell'intero processo. In questo modo gli sviluppatori possono raggiungere una migliore comprensione dei bisogni degli utenti, arrivando a realizzare un prodotto più appropriato e maggiormente usabile. Le forze trainanti per lo sviluppo di un prodotto dovrebbero essere quindi gli utenti reali e i loro bisogni e non solo le tecnologie. 137
    • 4.5 - Design di servizi L’interaction design non si occupa di progettare solamente dispositivi digitali come: siti web, telefoni cellulari, software ecc. In realtà, gli strumenti tecnologici costituiscono solo un terzo di ciò che bisogna studiare nella progettazione di un servizio veramente utile. Per questo motivo, inizia a delinearsi un nuovo approccio di design centrato sui servizi, che permetta di eseguire compiti difficili da definire ma facili da percepire. Il design di servizi si configura come l'attività di pianificare e organizzazione le infrastrutture, la comunicazione e i componenti di un servizio, al fine di migliorare le qualità di vita delle persone attraverso una migliore interazione tra il prestatore e il cliente. La storia del design dei servizi è relativamente giovane, nasce come disciplina di progettazione nel 1991, grazie al Prof. Dr. Michael Erlhoff che la inserisce come materia alla Köln International School of Design (KISD)50 . L’approccio centrato sui servizi utilizza le tecniche base del tradizionale interaction design, ma vista la crescente importanza del settore terziario si è 50 Università di Scienze Applicate, Colonia, Germania. 138
    • specializzato maggiormente sugli elementi che definiscono il servizio. Schematicamente questa disciplina opera su tre livelli differenti: • Tecnologia: conoscere le nuove offerte tecnologiche presenti sul mercato permette di scegliere le soluzioni più efficienti, affidabili, sicure, ed economiche da introdurre nel servizio. • Utenti: individuare le preferenze o bisogni di chi fruirà del servizio o chi lavorerà per fornirlo. Attraverso lo studio del target si definiscono meglio i requisiti di progettazione, questi dati saranno utili anche per la fase di valutazione dove stimare se il servizio è stato fornito in modo efficace o meno. • Contesto: una soluzione tecnologica ha sempre bisogno di essere inserita in un contesto che può essere : fisico, organizzativo e sociale. Dallo studio delle tre differenti dimensioni di contesto, sarà più facile realizzare il servizio. Normalmente, quando si creano dei servizi si lavora soprattutto sul primo aspetto, quello tecnologico, tralasciando gli utenti e soprattutto il contesto. Spesso siamo circondati da servizi pubblici automatizzati totalmente inusabili che aggiungono frustrazioni e perdite di tempo, 139
    • anziché garantire un miglior servizio. Per questo motivo è necessario rivalutare alcune soluzioni utilizzate, considerando generalmente tutti gli elementi che costituiscono il servizio. Operare in questo settore, attraverso il lavoro di design appare una sfida impegnativa, perché i servizi possono essere molto differenti tra loro, non solo in base al campo applicativo, ma soprattutto per la loro stessa natura; ad esempio i servizi sono ben radicati nei luoghi, cioè nel mondo fisico, ma altri possono operare anche in spazi virtuali. Inoltre, alcuni servizi offrono una netta distinzione tra prestatori e clienti, in altri casi la differenza appare più sfumata o si perde. Tutti i servizi hanno però un unico denominatore, un elemento che li qualifica come tali. L’essenza che caratterizza un servizio è costituita dal sistema delle interazioni tra persone e macchine che sono finalizzate a produrre un valore condiviso tra i diversi attori coinvolti. Attorno a questo nucleo caratterizzante sarà necessario progettare una nuova generazione di servizi che tengano conto della dimensione strategica del loro sviluppo, delle qualità fisiche e comunicative all’interno degli spazi in cui avranno luogo. D’altra parte, ogni giorno entriamo in contatto con una miriade di servizi: trasporti, uffici, ristorazione, intrattenimento, sanità, questi possono essere piccoli e distribuiti oppure vasti e complessi, ciò che conta è la loro presenza 140
    • continua. I servizi quindi, di conseguenza, condizionano la qualità della nostra vita, la differenza tra un buon servizio e un cattivo servizio può incidere in maniera sostanziale, agevolando compiti complessi o nel peggiore dei casi complicare operazioni che prima ritenevamo semplicissime. Il design di servizi si focalizza sul contesto del sistema d’uso, questo perché gli utenti fruiscono dei servizi in ambienti e processi strutturati. In questo senso, lo studio di design si occupa di creare servizi per un sistema d’uso teoricamente completo, perché l’interazione non sia lasciata al caso, ma progettata con criterio. Per questo motivo diventa essenziale valutare tutti gli aspetti che riguardano l’interazione tra uomo e macchina. Un servizio, dal punto di vista del design è una sequenza di attività che costituiscono un processo, e hanno valore per l’utente finale. Schematicamente possiamo riassumere le principali caratteristiche di un servizio: • Intangibile: Seppur supportato da oggetti, il servizio in sé è qualcosa di effimero e immateriale. I clienti non possono toccare o vedere un servizio, ma solo la sua incarnazione fisica. 141
    • • Di proprietà del fornitore: I clienti possono diventare padroni dell’oggetto che incarna il servizio, ma non diventano proprietari del servizio stesso che, in quanto tale, non può essere acquistato dall’utente. • Co-Creato: I servizi non sono realizzati solo dal fornitore, richiedono anche il coinvolgimento e le relazioni dei clienti. • Flessibile: Nonostante il servizio richieda una certa standardizzazione, ad ogni specifica situazione il cliente richiede il servizio adatto alle sue particolari esigenze. • Basato sul tempo: Prestare un servizio richiede tempo e, se viene perso non può essere recuperato. • Attivo: Il modo in cui le persone forniscono il servizio può spesso determinare il successo o il fallimento di un servizio. • Domanda fluttuante. La maggior parte dei servizi subisce variazioni a seconda dell’ora del giorno, della stagione e del clima culturale. 142
    • Il design tradizionale si focalizza sull’interazione tra utente e prodotto, il design dei servizi invece lavora con diversi touchpoint (il negozio, l’insegna, il venditore, la confezione) e si focalizza sull’interazione nel tempo tra utenti e i touchpoint, che possono essere costituiti da ambienti, oggetti, processi e persone. L’ambiente perché è il luogo dove si svolge e si consuma il servizio, può essere un luogo fisico o virtuale, quello che conta è la capacità dell’ambiente di fornire le risorse per acquistare, creare e consumare il servizio nello stesso luogo. Gli oggetti, invece, rappresentano le risorse che forniscono il potenziale di interazione tra utente e servizio. Il processo è il modo in cui si svolge il servizio, come viene ordinato, creato e consegnato. Tali operazioni possono mutare nello spazio e nel tempo perché esistono diversi modi di fare una cosa. Tuttavia il compito del designer è quello di progettare tenendo conto dei possibili percorsi praticabili. Infine le persone, che costituiscono la componente essenziale, perché solo attraverso l’utente si rende attivo il servizio. A differenza degli altri approcci, nel design di servizi ci sono due insiemi di utenti: i clienti e i dipendenti. Entrambi svolgono ruoli diversi per raggiungere il comune obiettivo. 143
    • 4.6 - Il settore terziario In base a un rapporto IBM, il 70% della forza lavoro degli Stati Uniti è impiegata nella fornitura dei servizi (Saffer 2007, 184). Inoltre, il terziario ha prodotto oltre tre quarti del PIL statunitense nel 2008, crescendo quasi del 10% in due anni. Anche in Italia questo settore è dominante con il 65%51 di forza lavoro impegnata nei servizi. Attualmente gran parte dell’economia è focalizzata sul terziario, ma in futuro la capacità di progettare servizi sarà sempre più una risorsa strategica. Per questo motivo, è necessario definire il design dei servizi dato l’impatto che avrà sulla nostra vita. Lo scenario odierno mostra un grande movimento dei servizi, aumentano in numero e cambiano in qualità. Le più avanzate attività produttive vedono una crescente componente di servizio, ma la crisi economica e ambientale hanno spinto questo settore a trovare delle combinazioni inedite tra prodotti e servizi, più accessibili e più sostenibili in linea con le esigenze di welfare. Le nuove tecnologie hanno reso inoltre possibili dei servizi che possono essere commercializzati in tutto il mondo, superando i limiti di spazio e tempo, ma la pervasività di 51 (ttps://www.cia.gov/library/publications/the-world-factbook/geos/it.html) 144
    • questi possibili digital service esige una riconfigurazione, sia per quanto riguarda l’aspetto futuro sia per quelli già esistenti. Sulla base di queste premesse, diventa utile spingerci verso una società centrata sui servizi, non solo da un punto di vista manageriale e operativo, ma soprattutto attraverso il design e l’innovazione per raccogliere le sfide lanciate da questo settore. Un esempio a riguardo ci viene offerto dal Regno Unito , in particolare da due proposte governative: la Strategy Unit 2007 e la Select Committee 200852 . Questi documenti propongono una nuova visione sul ruolo dei fornitori di servizi e sugli utenti, per sviluppare insieme servizi pubblici nuovi e altamente personalizzabili. Attraverso il design occorre quindi immaginare dei servizi che verranno progettati in modo non convenzionale, per fare questo serviranno competenze tecniche e creatività, sarà fondamentale infine attivare e dirigere processi di co-progettazione che integrino le esperienze di tutti gli attori coinvolti nell’interazione dei servizi. Tutto questo comporta l’emergere di una nuova generazione di artefatti che, a loro volta, produrranno una grande domanda di capacità progettuali. La definizione di "progettazione del servizio” esprime come i prodotti attuali non siano più elementi isolati, ma una rete di esperienze e 52 http://www.cabinetoffice.gov.uk/strategy/about.aspx 145
    • combinazioni diverse, come nel caso dell’ iPod e di iTunes il negozio di musica online. Questo tipico esempio rappresenta al meglio questa idea: l’utilizzo di oggetti materiali e immateriali che permettono ai consumatori la massima flessibilità, di assumere le proprie decisioni su come, dove e quando utilizzare il servizio. L’azienda Apple sembra incarnare pienamente questa filosofia, il suo ultimo spot afferma che può esistere un’applicazione per tutto, ossia un servizio per ogni cosa e direttamente fruibile tramite il suo dispositivo (iPod Touch o iPhone). L’internet delle cose apre nuovi scenari prima impensabili, ci dirigiamo verso un’economia di servizio che porta alla smaterializzazione dei prodotti con conseguente diminuzione dei rifiuti fisici e quindi sistemi più sostenibili, sarà necessario rendere sicuro il servizio, affinché la miriade di dati e informazioni personali che viaggiano sul web non vengano utilizzati per fini impropri. Per questo motivo il tema sul design dei servizi è quanto mai attuale e destinato ad aver sempre più rilevanza nei prossimi anni, sia dal punto di vista economico, politico e sociale. 146
    • 4.7 - Servizi e Prodotti Dal punto di vista del design, prima di definire uno servizio è utile capire in che modo si differenzia da un prodotto. Il servizio secondo questa disciplina “è una sequenza di attività che costituiscono un processo, e hanno valore per l’utente finale” (Saffer 2007, 174). I servizi quindi non possono essere progettati nello stesso modo in cui avviene per un prodotto, perché i servizi sono immateriali, consegnati nel corso del tempo e non conservabili; essi costituiscono i punti di contatto e interazione tra il fornitore e consumatore. Quando si disegna un prodotto, si concentra maggior attenzione sull’interazione tra uomo e macchina. Nel design di servizi, il compito non si limiterà solo a questo, i designer dovranno creare risorse che mettano in contatto persone con persone, persone con le macchine e macchine con macchine. Creare design di servizi sarà un lavoro molto più complesso, perché il contesto dell’interazione risulta essere molto più ampio rispetto a quello tradizionale, si deve considerare l’ambiente, il canale e i touchpoint. Gli elementi progettati dovranno funzionare su tutti questi livelli e, allo stesso tempo garantire usabilità e appeal. 147
    • I servizi, in ogni caso, hanno risonanze emotive diverse negli utenti rispetto ai singoli prodotti, il legame nei confronti di un servizio è diverso da quello verso un prodotto fisico. I servizi sono intangibili e soggetti ai cambiamenti, a seconda delle persone che li forniscono e dalle regole aziendali che li guidano. Mentre i prodotti fisici, essendo tangibili suscitano diverse emozioni. “Gli esseri umani sono creature emotive e non sempre prendono decisioni logiche, per loro natura quindi sviluppano maggior attaccamento sentimentale verso gli oggetti piuttosto che i servizi” (Saffer 2007, 186). Questa differenza appare più sfumata per quanto riguarda internet, in alcuni casi risulta impossibile separare il design di prodotto dal design di servizi. Gli utenti non possiedono il sito ma usano il servizio, per questa ragione aziende come Google forniscono agli utenti anche oggetti per personalizzare il servizio, come le barre degli strumenti, oggetti che seppur digitali creano una interazione emotiva con l’utente difficile da sciogliere. 148
    • 4.8 - Tecniche del design di servizi Il design dei servizi è una disciplina relativamente nuova e in piena fase di sviluppo, ma dispone di metodi specifici maturati dall’esperienza per operare in questo settore. Le principali tecniche sono state sviluppate per prima da aziende di consulenza nel design di servizi come IDEO e Live Work. Ovviamente, queste tecniche si basano sull’esperienza del design tradizionale, ma approfondiscono maggiormente alcuni elementi dedicati al contesto. Schematicamente le tecniche del design di servizio si riassumono così: • Descrizione dell’ambiente; • Descrizione degli stakeholder; • Percezione dell’azienda a branding; • Touchpoint; • Mappa di processo; • Blueprint del servizio; • Prototipo del servizio. 149
    • Descrizione dell’ambiente Il primo step di un processo di design sui servizi si concentra sulla ricognizione del luogo, dove il servizio sarà collocato. Una descrizione dell’ambiente è utile per delineare in maniera dettagliata il luogo e gli elementi presenti nel contesto. In pratica si possono utilizzare delle mappe, diagrammi, fotografie, video e blueprint in questo modo si può ricostruire una rappresentazione grafica dell’ambiente su cui lavorare. Descrizione degli stakeholder Nel design dei servizi gli utenti sono rappresentati sia dagli utilizzatori che dai fornitori, per questo motivo appare un compito delicato individuare i portatori di interesse sia diretti che indiretti. “ I servizi vivono spesso in un contesto fisico, ad esempio il cambiamento del tragitto di un autobus può avere effetto su migliaia di persone che non prendono mai quell’autobus: l’edicolante che ha numerosi acquirenti tra i viaggiatori, gli automobilisti, le persone che vivono lungo il tragitto dell’autobus, i taxisti che competono con il servizio e così via” (Saffer 2007, 188). Il compito del designer nel 150
    • caso dei servizi diventa quindi molto più complesso, deve essere acuto nel rilevare e includere gli stakeholder, che solo apparentemente non sono coinvolti nel corso di interazione, ma che possono poi risultare fondamentali nell’intero processo di design. Percezione dell’azienda e branding Il design di servizi integra lo studio del brand, sottolineando come l’interazione tra marca e consumatore possa essere migliorata oltre che dall’esperienza anche attraverso i servizi. Solitamente, a meno che non si tratti di un nuovo servizio, i clienti sono portatori di precise aspettative basate sul marchio dell’azienda e sulle precedenti esperienze. Il designer dovrebbe sfruttare queste informazioni per creare un appropriato design di servizi che possa rispettare queste aspettative. In particolare sarebbe utile sfruttare e ottimizzare le qualità migliori che l’azienda già possiede e intorno a queste costruire nuovi servizi in linea con quella filosofia di immagine. 151
    • Toucpoint I touchpoint non sono altro che tutti i punti di contatto tra il prestatore di un servizio e il suo cliente, altresì è l’interfaccia di un prodotto, servizio o marchio con cui si relazionano gli utenti. Per il designer i touchpoint sono i materiali grezzi su cui deve lavorare durante la realizzazione di un servizio, durante questo passaggio occorre compilare una lista di tutti gli elementi utili alla progettazione, la raccolta può essere effettuata tramite la tecnica del brainstorming. Il servizio per sua natura è intangibile, quindi per far in modo che si possa visualizzare chiaramente è necessario individuare tutte le sue componenti, ossia i touchpoint. Questa tecnica aiuta a dare concretezza alle varie fasi del servizio e comunica più schematicamente tutte le parti interessate. In questo modo è possibile studiare ogni punto di contatto tra cliente e prestatore del servizio, cercando di considerare singolarmente le varie esperienze di interazione, per poi creare le giuste condizioni nella fase di prototipazione. 152
    • Schematicamente i touchpoint sono: • Luoghi fisici; • Specifiche parti di luoghi; • Segnaletica; • Oggetti; • Siti web; • Comunicazione verbale; • Applicazioni. Mappa di processo Molti servizi esistono soltanto se collegati ad altri servizi. Ad esempio, un servizio di podcasting non ha senso senza la creazione della trasmissione stessa. Il designer prima ancora di progettare il servizio deve capire come questo entra in relazione con i restanti servizi inclusi nel panorama dell’utente. La mappa del processo è uno schema che fornisce una visione più completa della situazione, offrendo un punto di vista ad alto livello dell’intera esperienza e 153
    • collocare meglio il lavoro di design, evidenziando le aree problematiche di un servizio esistente. Nella mappa di processo, le azioni di interazione sono rappresentate come un flusso di compiti dove vengono indicati i touchpoint in ogni stadio del processo. Blueprint del servizio I blueprint del servizio sono dei documenti, tavole o schemi che mostrano i due elementi principali del progetto: sia i momenti isolati del servizio, sia come questi fluiscono assieme nella catena di servizio. Nel primo elemento si mostra come ogni servizio è composto da un insieme di momenti isolati che possono essere oggetto di design. Il blueprint di servizio deve includere tutti questi momenti e presentare dei design per ciascuno, dato che possono esistere più percorsi, il designer deve prevedere soluzioni multiple. Durante questa fase, si utilizzano i touchpoint per schematizzare ogni momento del servizio. Una parte rilevante del design del blueprint del servizio deve riguardare le idee ottenute dal brainstorming. Per ogni momento del servizio, il blueprint mostra quali elementi vengono influenzati: l’ambiente, gli oggetti, i processi e le persone coinvolte. Nel secondo elemento che prevede la catena 154
    • di servizio, di solito si fornisce uno storyboard per descrivere il servizio in forma scritta e visiva. I designer mettono insieme i vari momenti isolati del servizio per formare uno scenario completo degli eventi che costituiscono il servizio completo. Prototipo di servizio Infine, per realizzare il prototipo di un servizio occorre creare degli scenari basati sui momenti del servizio descritti nel blueprint e metterli in pratica con i clienti e stakeholder, simulando i processi di interazione. Questa tecnica è necessaria perché le persone giocano un ruolo centrale durante il processo, i servizi si attivano solo grazie alle sollecitazioni dell’utente a differenza del design dei prodotti. Solo attraverso il gioco di ruolo e la messa in scena del contesto si possono determinare le sensazioni che suscita il servizio. In questa fase il designer agisce come un regista che mette in relazione tutti gli elementi del servizio (persone, strumenti, ambiente, informazioni, ecc.) con i quali gli utenti entrano in contatto. Per quanto riguarda i servizi digitali, specialmente quelli via web, questi sono più facili da creare rispetto ai contenuti che li alimentano. La legge di Saffer dice: “E’ più facile creare la forma di un servizio digitale che creare il 155
    • contenuto (prodotti) di quel servizio. Per esempio centinaia di aggregatori di notizie possono prelevare i contenuti di una determinata fonte (giornali, blog, radio, tv), ma creare quei contenuti è molto più difficile che distribuirli tramite servizio. Al centro di quasi tutti i servizi web, analizzati in questa tesi, c’è un nucleo di contenuti, spesse volte forniti dagli utenti stessi; il compito del designer è quello di offrire un servizio valido da mantenere e migliorare costantemente. Nella ricerca di come creare un servizio eccellente, è necessario infine assicurarsi che il contenuto o il prodotto su cui ruota il servizio sia di valore. In futuro gli interaction designer saranno sempre più coinvolti nel design di servizi, grazie all’introduzioni di nuovi servizi e delle nuove tecnologie come il web semantico, l’internet delle cose e i dispositivi portatili. La sfida nei prossimi anni sarà quella di colmare il gap fra tecnologia e persone, attraverso questo risultato e la consapevolezza dei mezzi messi a disposizione saremo in grado di sfruttare una serie di applicazioni create a misura d’uomo. 156
    • 4.9 - Etica nel design Qualsiasi studio che si occupa di interaction design dovrebbe alla fine porsi delle questioni etiche. L’etica costituisce uno strumento di giudizio fondamentale per distinguere il buon design da quello cattivo, e mostra quanto un lavoro sia discutibile o meno. L’etica riguarda soprattutto le conseguenze delle azioni: se non ci fossero conseguenze nell’interaction design, non ci sarebbe neppure bisogno degli aspetti etici. Con l’avvento dell’ubiquitous computing, del web semantico, dell’internet of things e le etichette RFId che possono avere accesso alle nostre case e ai nostri segreti più inviolabili, le conseguenze dell’interaction design rivestono un’importanza e un significato che non hanno mai avuto in passato. L’etica quindi rappresenta un elemento fondamentale nel processo decisionale del design, solo attraverso decisioni o soluzioni etiche possiamo determinare cosa sia giusto in determinate circostanze. Progettare applicazioni tecnologiche di design richiede una solida base di principi etici. Alla base di questa disciplina c’è l’interazione tra persone, tutte dovrebbero avere pari dignità e opportunità, sarebbe sbagliato progettare delle applicazioni a vantaggio di alcuni e a discapito di altri. 157
    • Quindi, la linea etica fondamentale per gli interaction designer deve essere la qualità di entrambe le interazioni. A parte il contenuto dell’interazione, la qualità di questa è fortemente determinata dalle decisioni che il designer prende quando crea un prodotto o servizio. I principi dell’interaction design sono costituiti da un insieme articolato di linee guida, che includono le convinzioni personali dei designer e i codici etici delle organizzazioni professionali come l’Industrial Designer Society of America (IDSA), più standard governativi e sociali per la sicurezza e l’usabilità. Le scelte dei designer devono inoltre essere consapevoli e proiettate verso il futuro, per considerare le conseguenze dei loro progetti. Perché ogni volta che un utente esegue un’azione su un prodotto o servizio, indirettamente si sta fidando del lavoro di design, anche sugli aspetti etici, quindi non solo sul loro funzionamento ma sul fatto che non provochi danni. Per questo motivo i designer devono riconoscere e rispettare questa fiducia. Inoltre i designer dovrebbero essere consapevoli anche che gli utenti troveranno sempre il modo di utilizzare i prodotti o servizi per altri scopi non concepiti inizialmente, spesso negativi, quindi occorre valutare tutte le conseguenze dannose, anche indirette, che appartengono ad un determinato design. 158
    • “Il teorico del design Richard Buchanan notò che questo è proprio ciò che gli interaction designer fanno continuamente: determinare la cosa giusta considerando i vincoli dati. Creare design significa fare scelte etiche: in altre parole, il design è l’etica in azione” (Saffer 2007, 223). 159
    • Cap V - Pervasività e Privacy nel web 5.1 - Internet ubiquitous Internet ha rivoluzionato il mondo dell’informazione del villaggio globale introducendo modalità di accessibilità e di condivisione delle informazioni senza precedenti. Il numero degli utenti di internet nel mondo, alla fine del 1998, raggiunse la cifra di 147 milioni. I dati sono stati diffusi dal Computer Industry Almanac53 . Durante questo decennio si è sviluppata una crescita esponenziale di questo servizio, l’ultimo rapporto redatto della società ComScore54 mostra come nel 2009 si sia superato il miliardo di utenti nel mondo. Più precisamente sarebbero 1.007.730.000 gli utenti online, nel dettaglio al primo posto nella speciale classifica del numero di utenti internet è posizionata la Cina, con più di 180 milioni di navigatori, che corrisponde a circa il 18% del totale degli utenti web mondiali. Al secondo posto gli USA con più di 163 milioni di utenti, al terzo il Giappone con circa 60 milioni di utenti, seguito poi da Germania, con circa 37 milioni, e Regno Unito, con più di 36 milioni. L'Italia si piazza 53 http://www.apogeonline.com/webzine/1999/03/01/02/199903010204 54 http://www.comscore.com 160
    • al 12° posto con quasi 21 milioni. Questo dimostra come negli ultimi anni il rapporto fra il numero di esseri umani e quello dei computer sia cambiato. Inizialmente, tale rapporto era di molti a uno: molte persone per un solo computer. Poi arrivò l’era del personal computer e il rapporto cambiò in uno a uno: le persone che utilizzavano il computer avevano il proprio PC sulla scrivania. In questo momento il rapporto sta subendo un’altra variazione, in maniera tale che una sola persona riuscirà a gestire più “computer”: portatile, cellulare, ipod, macchina fotografica, ovvero tutti gli oggetti capaci di leggere dati digitali ed essere in grado di trasmetterli su altri dispositivi. Come disse Mark Weiser, lo scienziato di Xerox PARC, la maggior parte di questi computer sono “invisibili”, ma intorno a noi. In pratica, si sta avverando quella che fu definita l’era dell’ubiquitous computing, anche grazie alle tecnologie come l’internet delle cose e il web semantico che hanno portato una sviluppo dei microprocessori e sensori sempre più piccoli, potenti ed economici. Con queste premesse, è facile immaginare un futuro dove il rapporto tra esseri umani e dispositivi diventerà da uno a migliaia. Come descritto nel capitolo III, relativo all’internet delle cose, molti di questi computer saranno incorporati nei prodotti che già possediamo e, a parte il loro funzionamento, non ci accorgeremo neppure della loro 161
    • presenza, perché una volta programmati agiranno i piena autonomia, senza il nostro intervento costante. I dispositivi mobili svolgeranno un ruolo fondamentale in questo scenario, nella duplice veste di sistemi di acquisizione dati ubiqui (grazie ai dei sensori installati) e di sistemi di controllo locale sulle reti capillari. In altre parole, grazie alla molteplicità di interfacce di comunicazione si prospetta la possibilità di utilizzare il proprio terminale, di qualunque tipo esso sia, in qualunque momento per accedere in rete. Il principio dell’ubiquitous computing prevedere un‘interfaccia distribuita che comporta la possibilità di essere sempre connessi, ovvero in grado di comunicare direttamente o indirettamente tramite le nuove tecnologie. Ma l‘esigenza di connessione si trasforma spesso nella involontaria cessione di dati, relativi alla propria sfera privata. Le stesse tecnologie consentono anche di acquisire informazioni su ogni comportamento dell‘utente. Ogni utilizzatore, infatti, rilascia una traccia dei propri spostamenti digitali che potrebbero descrivere i suoi gusti, abitudini e pensieri in maniera più minuziosa di quanto si crede, soprattutto grazie all’illusoria e tranquillizzante sensazione di anonimato che spesso caratterizza l’utilizzo di internet. La questione delle tracce digitali ha cominciato a far sentire la sua urgenza anche sul piano legale, dove le varie legislazioni nazionali si stanno 162
    • attrezzando per far sì che le persone mantengano il controllo sui propri dati personali. L'accezione di ubiquità portata all'estremo conduce al Pervasive Computing, in cui il terminale mobile, non più legato solamente all'utente, interagisce con altri dispositivi invisibili che abilitano l'ambiente circostante all’invio e ricezione di dati. La necessità di condividere risorse e contenuti introduce nuovi tipi di interazione tra gli utenti, nonché tra i mondi virtuali e fisici. In questo contesto, diventa difficile separare la sicurezza fisica dalla sicurezza digitale. Le politiche e i meccanismi esistenti avranno il difficile compito di fornire garanzie adeguate per far fronte a nuove esposizioni e vulnerabilità introdotte dal paradigma pervasive computing. 163
    • 5.2 - Il problema della semantica Banche dati, società per l’e-commerce e cookie sono strumenti che ormai da tempo caratterizzano internet e le sue insidie. Da un lato si è tentato di risolvere la questione attuando una vasta gamma di tecniche per preservare la riservatezza degli utilizzatori del web (firewall, antivirus, antispyware, etc.), dall’altro si è intervenuti sul piano normativo, sia a livello locale che internazionale. La “web privacy” può essere violata in modi diversi e con differenti intenzioni, la natura intrinsecamente aperta di internet e la complessità delle transazioni via web che implicano il trasferimento di dati personali sensibili ne rendono particolarmente spigolosa la tutela. Vi può essere un trasferimento non autorizzato di dati (venduti a compagnie potenzialmente interessate) o l’accesso da parte di terzi (ad esempio gli hacker) al computer dell’utente durante la connessione alla rete a causa di un sistema di protezione non adeguato. Oppure le informazioni possono essere raccolte e archiviate senza la consapevolezza dell’utente (iscrizioni online, identificazione tramite l’indirizzo IP, coockies). Si percepisce, quindi, sempre più l’esigenza di tutelare la sfera privata da invasori esterni. 164
    • Le informazioni che si possono reperire sono di tre tipi: • Dati personali: includono informazioni sulla persona reale quali ad esempio nome, stato civile, indirizzo di residenza e di posta elettronica, resoconti sulla situazione economica e di salute. • Comportamento virtuale: riferisce le attività dell’utente durante la connessione. Include i siti visitati, la durata e la frequenza delle navigazioni. • Comunicazione: include i messaggi elettronici e le preferenze espresse in sondaggi o voti online. Potenzialmente questi pericoli potrebbero accrescere attraverso le funzioni semantiche del web, ma fino ad ora tali applicazioni si trovano in piena fase di sviluppo, quindi la percezione di questo problema non è sentita su larga scala. Il web semantico rappresenta infatti il futuro del world wide web, in quanto darà struttura al contenuto significativo della rete, permettendo agli agenti software di svolgere compiti complessi per i loro utenti. Attraverso l’utilizzo delle ontologie e dei meta-dati sarà possibile dare significato ai contenuti, rendendoli leggibili anche all’intelligenza artificiale. Tutti i contenuti 165
    • come: blog, siti e social network potrebbero essere legati tramite la semantica e costruire una relazione di significato tra dati e creatore, attribuendogli un dettagliato profilo in base a ciò che pubblica e produce in rete. Internet già in questo momento costituisce il più grande database esistente al mondo, ma dotare di significato semantico il suo contenuto potrebbe sollevare diverse problematiche sul piano della privacy. Con il web semantico sarebbe molto più semplice rintracciare i dati personali, i software sarebbero capaci di individuarli nel caos di tutte le nostre pubblicazioni: interventi sui forum o social network per poi catalogarli, registrali ed elaborarli. “La rappresentazione di chi siamo (la nostra reputazione) dipende sempre non soltanto da ciò che diciamo noi e da ciò che facciamo conoscere, ma soprattutto dall’appropriazione e dalla gestione dei nostri dati da parte di altri, noi siamo le nostre informazioni” (Durante 2007, 40). La circolazione delle informazioni e la loro registrazione nelle banche dati genera quindi un conflitto con il nostro diritto alla riservatezza, perché la loro diffusione potrebbe rivelarsi inopportuna o illecita sotto vari profili: come nel caso dell’assenza di consenso (particolarmente rilevante negli ordinamenti che fondano il diritto sulla privacy sul consenso dei titolari dei dati); perché costituisce una violazione della sfera personale suscettibile di tradursi in un 166
    • danno nel caso in cui soggetti terzi, pubblici o privati possano prendere decisioni a noi sfavorevoli grazie alla diffusione dei nostri dati sensibili. Per gli esperti, proprio le ontologie potrebbero risolvere il problema della privacy nel web semantico, utilizzando delle opportune “ontologie di privacy”, i dispositivi software o agenti intelligenti sarebbero in grado di riconoscere i dati personali da non condividere, preventivamente specificati dall’utente. Un altro approccio alla questione può essere basato sul concetto di “reputazione”, con l’elaborazione di sistemi attraverso i quali gli agenti software possano impedire una condotta illecita e proteggere i dati personali. Le problematiche etico-giuridiche sulla questione della privacy relative al web semantico sono dunque destinate ad accompagnarne la nascita e lo sviluppo di questa tecnologia che prevede l’utilizzo di linguaggi altamente formalizzati. Ma tali soluzioni esistono solo a livello teorico, e visti i pericoli già esistenti di internet la semantica in questo senso potrebbe offrire nuove zone d’ombra. Il web 3.0 si compone sia di tecnologie semantiche, sia di dispositivi relativi all’internet delle cose. Il problema principale riguarda un controllo affidato ad un ambiente intelligente e presente ovunque, capace di cogliere il significato dei dati attraverso la semantica. In questo modo sarebbe difficile individuare una eventuale 167
    • responsabilità tra gli agenti software, che agiscono in maniera automatica. Per questo motivo, in futuro sarà necessario trovare nuove soluzioni, perché in questo momento la tutela della privacy su internet non prevede le sue capacità semantiche. In considerazione che ogniqualvolta operiamo in rete o tramite tecnologie lasciamo tracce del nostro passaggio entra in gioco un altro fattore, quello relativo allo statuto della traccia. Perché i problemi etici e giuridici concernono non soltanto i limiti entro i quali possiamo diffondere o disporre dei dati altrui, ma anche i limiti entro i quali possiamo tenere nascosti dati rilevanti dei quali siamo venuti in possesso. 168
    • 5.3 - Internet delle cose, pervasività delle etichette RFId Per internet delle cose si intende quel fenomeno attraverso la quale si possono collegare una serie di oggetti inanimati che comunicano tra loro e, contemporaneamente aver accesso alla rete. L’RFId rappresenta una delle tecnologie su cui si basa l’internet delle cose, per questo motivo vi è una grande attenzione su questi dispositivi, altamente pervasivi e potenti che hanno tutti i presupposti per cambiare la nostra vita quotidiana. La motivazione principale di questo è che le tecnologie RFId possono essere definite delle GPT55 , come il motore a vapore e la corrente elettrica. L’RFId rientra in questa categoria perché possiede le tre principali caratteristiche di ogni GPT: la pervasività, il dinamismo e l’ innovazione. E’ pervasiva perché in grado di offrire alcune funzioni che sono applicabili ovunque: identificazione, autentificazione, misurazione, localizzazione. In secondo luogo, i sistemi RFId sono in continua evoluzione e godono di innovazioni tecnologiche rapide e significative. Tutte queste condizioni pongono le premesse per una graduale introduzione del fenomeno, che porterà sostanziali modifiche nel sistema industriale e sociale. Perché tali applicazioni potrebbero snellire i processi logistico-produttivi o facilitare 55 General Purpose Technologies. 169
    • l’interazione con i clienti, anche grazie al meccanismo di auto- identificazione che permetterebbe la compilazione della modulistica direttamente online. Ma nonostante i buoni propositi e utili potenzialità, sull’RFId esiste un alone negativo relativo alla tutela della privacy. Il motivo riguarda la sua intrinseca natura, il fatto che questa tecnologia nasca per individuare, misurare, qualificare oggetti e persone in maniera automatica e invisibile può facilmente essere percepita come invadente. Risulta necessario soffermarsi su quali reali rischi comporterebbe tutto questo. Il problema della sicurezza è presente in ogni applicazione informatica. Le minacce sui sistemi RFId hanno alcune particolarità derivanti dalla combinazione di sistemi informatici tradizionali con i sistemi di comunicazione radio. Sono possibili sia attacchi portati nell’ambito del processo di comunicazione radio, sia attacchi portati nella comunicazione tra il lettore e il sistema informativo utilizzato. 170
    • Nel primo caso, si ha un attacco nel processo di comunicazione radio tra lettori e tag allo scopo di: • Simulare una tag RFId per inviare false informazioni al lettore; • Leggere furtivamente le informazioni richieste tramite un altro lettore; • Impedire il funzionamento. Per quanto riguarda il secondo caso, l’attacco può avvenire tramite virus o accesso non valido alla rete. Ovviamente esistono delle soluzioni che possono ridurre la probabilità di attacco, in questo caso si possono adottare tre soluzioni: • Cifratura dei dati, per consentire lo scambio solo tra il lettore e tag abilitati; • Cifratura dei processi di comunicazione, per impedire l’intercettazione dello scambio di dati. • Attivazione di password per abilitare l’interazione. Questi sistemi di cifratura sono però abbastanza costosi e impattano sulla velocità di risposta del sistema. Inoltre, bisogna specificare che non è difficile clonare un singolo tag o simularlo, ma è estremamente 171
    • facile che l’operazione illecita sia subito rilevata; con la stessa facilità con cui si accede si può allo stesso modo essere identificati. Gli studi e le applicazioni future dell’RFId richiedono una pervasività sia orizzontale (numero di attori coinvolti), sia verticale (percentuale di prodotti o servizi che adotteranno questa tecnologia). In Italia i primi utilizzi sono stati impiegati nella bigliettazione elettronica, dove si sono riscontrati sia i benefici tattici connessi a guadagni tangibili in termini di efficienza ed efficacia, sia in benefici strategici relativi alla qualità del servizio. Per questo motivo è prevista una diffusione capillare di questa tecnologia nell’immediato futuro. In questa direzione esiste una conferma sul piano normativo e legislativo, alla fine del 2006, la Commissione Europea ha approvato la normativa ETSI EN 302 208 56 relativa all’utilizzo delle bande UHF come standard europeo. “I principali timori quando si parla di RFId sono legati a due aspetti principali: l’identificazione e la tracciabilità delle persone, nonché la profilazione dei loro interessi e comportamenti. Questi timori riguardano aspetti estremamente delicati che, se non adeguatamente compresi e affrontati, potrebbero costituire una 56 http://www.etsi.org/deliver/etsi_en/302200_302299/30220802/01.03.01_60/en_302208 02v010301p.pdf 172
    • barriera all’impiego dell’RFId su larga scala” (Battezzati 2007, 98). La prima discussione nata in merito a questa tematica risale al 2003, con il caso Benetton- Caspian, quando la multinazionale italiana dichiarò l’intenzione di utilizzare le etichette RFId sia durante il tracking della merce, sia dopo l’acquisto per far interagire i propri indumenti con una lavatrice “intelligente”. In seguito a queste dichiarazioni si scatenò la protesta da parte della Caspian (Consumer Against Supermarket Privacy Invasion and Numbering), una organizzazione di consumatori statunitense che portò una serie di manifestazioni mediatiche di sensibilizzazione sul tema della privacy e altre iniziative volte al boicottaggio dei prodotti Benetton. Questa notizia condizionò l’opinione pubblica in merito al mancato rispetto della privacy dei consumatori, facendo credere che attraverso le tag fosse possibile tracciare gli spostamenti di una persona, monitorare le preferenze, dedurre orientamenti politici e sociali dai comportamenti e dagli acquisti, soprattutto in relazione all’utilizzo di carte di credito che permetterebbero di associare le informazioni identificative del singolo oggetto “taggato” a un preciso individuo. Anche altri strumenti potrebbero consentire di conoscere dei simili dati, per esempio carte di credito, scontrini, codici a barre, ma nel caso dell’RFId si potrebbe teoricamente tracciare ogni 173
    • singolo prodotto che, se associato a una determinata persona, diviene tracciatore di quel preciso individuo e dei suoi spostamenti. Anche se bisogna precisare che il raggio d’azione della tecnologia RFId è molto limitato, ed esistono accorgimenti tecnici per impedire in qualche modo le interferenze, come per esempio disattivare le etichette tramite uno speciale comando chiamato “kill”. All’inizio del 2005 i garanti europei hanno iniziato a occuparsi delle normative comunitarie in tema di trattamento dei dati personali attraverso le tecnologie ICT57 , dopo che nel 2002 avevano già elaborato una direttiva in merito all’elaborazione dei dati personali e alla protezione della privacy nel settore delle comunicazioni elettroniche58 . L’intervento dei garanti europei è stato ripreso, nel marzo 2005, anche dal garante italiano per la protezione dei dati personali, con un provvedimento a carattere generale che offre un quadro oggettivo, in termini di linee di principio, per le applicazioni RFId. In questo modo si è cercato di fare chiarezza sulle modalità di utilizzo delle tecnologie di identificazione e radiofrequenza dal punto di vista degli obblighi relativi alla tutela dei dati personali, prestando attenzione non solo al grado di utilizzo e alle potenzialità attuali 57 Information and communication technology, è l'insieme delle tecnologie che consentono di elaborare e comunicare l'informazione attraverso mezzi digitali. 58 Direttiva 2002/58/EC. 174
    • dell’RFId, ma anche ai possibili sviluppi futuri. Con il provvedimento del 9 marzo 2005, il garante italiano per la protezione dei dati personali ha fatto chiarezza sulle modalità di utilizzo delle tecnologie RFId dal punto di vista degli obblighi relativi alla tutela dei dati personali. Schematicamente si possono riassumere così: • Si distinguono ab origine ambiti applicativi in cui non si configura nessuna problematica di protezione dei dati personali, come la tracciatura delle merci da altri effetti come l’identificazione di una persona. • Si individuano i trend tecnologici che potrebbero enfatizzare la problematica di protezione dei dati: miniaturizzazione, maggior distanza di lettura, integrazione con database collegati in rete. • Si individuano e sanciscono i principi da rispettare nella applicazioni RFId: i) il principio di necessità : “Evitare l’utilizzo di dati personali non necessari in relazione alla finalità perseguita”; ii) il principio di leicità, per cui fa fede l’art. 11 del Codice di tutela dei dati personali; 175
    • iii) il principio di finalità e qualità: “Trattare dati personali esclusivamente per scopi determinati, espliciti e legittimi”; iv) il principio di proporzionalità: “I dati trattati e le modalità di trattamento non devono risultare sproporzionali rispetto agli scopi; v) il principio di dignità: “L’applicazione di chip sottocutanei è giudicata in linea di principio inaccettabile, a meno di casi eccezionali. • Si individuano gli obblighi di colui che raccoglie e tratta informazioni tramite tecnologie RFId: i) obbligo di informativa, che indica chiaramente la presenza dell’etichetta; ii) obbligo di consenso esplicito al trattamento dei dati. • Si individuano le azioni dei prodotti necessarie come “garanzie all’origine”: i) la produzione di tag che agevolino l’esercizio del diritto di rimozione o disattivazione; ii) l’utilizzo di sistemi crittografici. 176
    • Infine, si obbliga a richiedere l’autorizzazione al garante per tutte le applicazioni RFId che consentono la localizzazione geografica, come avviene per le carte di fidelizzazione. Il quadro normativo risulta oggettivamente chiaro, diversamente invece non lo è il meccanismo di verifica e controllo del rispetto di questi principi. “In ogni caso la situazione risultante presenta un adeguato livello di tutela, con la certezza che le informazioni raccolte e trattate in violazione di queste norme non potrebbero aver alcun utilizzo legale, costituendo così il frutto di un illecito” (Battezzati 2007, 100). A livello normativo esiste quindi una tutela circa l’utilizzo inammissibile delle tecnologie RFId e un uso improprio delle informazioni acquisite. Tuttavia, la validità di questa tutela è ristretta all’ambito legale, ad esempio in tribunale: in questi casi, l’acquisizione illegittima invalida l’utilizzo in sede legale di dati e informazioni. Questo non vuol dire però garantire la sicurezza dei dati, che consiste nel controllare e regolamentare l’utilizzo illecito di informazioni illegalmente carpite. Il problema in questo caso riguarda la violazione dei sistemi RFId, con conseguente furto di informazioni riservate. Un esempio di questo è stato fornito da alcuni ricercatori della Free University of Amsterdam 59 che hanno pubblicato un articolo sui possibili attacchi dei sistemi 59 http://www.e-gazette.it/index.asp?npu=51&pagina=8 177
    • RFId tramite virus, la ricerca evidenzia come il problema della security stia assumendo maggior rilevanza, quindi risulta necessario affrontare subito le questioni legate anche a questo aspetto. Lo scenario in cui siano coinvolti i dati sensibili offre una questione aperta da valutare con attenzione, tuttavia alcune responsabilità sono da imputare alla situazione embrionale della tecnologia. Di fronte a questi fattori verrebbe da pensare che il rischio percepito sia effettivamente fondato, ma per quanto riguarda il rischio reale vi sono altri aspetti su cui sarebbe opportuno soffermarsi, come la vicinanza di lettura che non supera i pochi centimetri. In sostanza è necessaria la volontarietà dell’atto di avvicinare la tag all’antenna o viceversa, perché si possano leggere le informazioni. Questo può costituire un limite fisico per la lettura non consenziente. Infine, esistono altre tecnologie che tutti noi utilizziamo e che hanno caratteristiche e funzionalità decisamente più lesive sulla privacy rispetto all’RFId. Un esempio su tutti è rappresentato dalla telefonia cellulare, ogni telefono è infatti facilmente localizzabile mediante l’individuazione della cella che riceve i segnali emessi dal dispositivo stesso. L’evoluzione tecnologica, con strumenti piuttosto semplici, permette di intercettare facilmente le comunicazioni telefoniche. Come se non bastasse, esiste un servizio offerto dalla società 178
    • inglese Trace a Mobile60 che permette ai genitori di localizzare i propri figli attraverso il cellulare. Per non parlare delle carte di fidelizzazione che permettono di accedere alle informazioni utili per profilare i clienti, attraverso lo studio degli acquisti e spostamenti. Tutto questo non frena l’utilizzo della telefonia mobile o delle carte di fedeltà, bancomat e carte di credito, e non genera neppure particolari discussioni, circa la violazione reale o potenziale della privacy personale. 60 www.traceamobile.co.uk 179
    • 5.4 - La legge sulla Privacy Si riferisce alla tutela dei dati personali e riguarda la direttiva comunitaria n° 46 del 199561 . È stata recepita in Italia con la legge 675 del 1996 abrogata dal d. lgs. 196/2003. La prima motivazione della creazione di tale legge è stata la diffusione di internet, col passaggio del trattamento dei dati personali dal cartaceo al livello di rete. Il vantaggio di ottenere con facilità i dati di qualcuno ha come conseguenza i rischi che la rete comporta. Per l’uso indiscriminato dei dati è stata dunque elaborata una legge al fine di tutelare l’individuo, o meglio la “riservatezza” e la “dignità” della persona. Con la legge 675/96 è stato istituito a livello nazionale in tutti gli Stati membri il Garante per il Trattamento dei Dati Personali62 che ha il compito di vigilare sulla corretta osservazione della normativa di propria competenza. In caso contrario il Garante ha il potere di erogare delle sanzioni. Il Garante per il Trattamento dei Dati Personali può stabilire delle sanzioni che consistono nell’ordinare determinati comportamenti ai soggetti coinvolti nel giudizio. 61 Dir 95/46/CE. 62 Autorità amministrativa, con sede a Roma. 180
    • Le funzioni del garante sono: • di controllo; • di garanzia; • di giudizio; • sanzionatorie. Durante il trattamento dei dati personali si possono distinguere due fasi: - Fase Fisiologica: è la fase ordinaria del trattamento dei dati; - Fase Patologica: avviene nel momento in cui si commette un illecito ed altri soggetti lo rilevano facendo ricorso al garante per ottenere la soluzione di una determinata controversia (il Garante interviene quindi su ricorso di un soggetto per risolvere una determinata controversia). 181
    • L’oggetto della normativa sul trattamento dei dati personali: Nell’ambito dei dati personali questa normativa agisce in maniera differenziata a seconda che si tratti di dati che per convenzione possiamo chiamare “ordinari” oppure di dati sensibili. In generale i dati personali sono quelli riferibili ad una persona identificata o identificabile. Su Internet i dati personali possono essere foto, indirizzo e-mail (in quanto ad ogni indirizzo e-mail corrisponde un’unica persona), un blog, i percorsi fatti su internet grazie all’indirizzo IP che è univoco. All’interno di questo insieme vengono indicati i dati sensibili che sono un’elencazione tassativa contenuta all’interno della direttiva comunitaria, sono esclusivamente quelli individuati dalla normativa, non se ne possono aggiungere altri. Si tratta di dati che in via generale possono indurre ad effettuare delle discriminazioni (dati relativi all’appartenenza politica, religiosa, sindacale, relativi alla vita sessuale, alla sfera della salute, all’origine razziale o etnica). 182
    • Il trattamento dei dati personali avviene in questi casi: • Raccolta • Comunicazione • Diffusione La semplice raccolta dei dati è considerata come trattamento dei dati personali. Per quanto riguarda la trasmissione esiste una differenza tra la diffusione e la comunicazione dei dati personali: nella comunicazione il numero di persone a cui vengono comunicati i dati è individuato, nella diffusione non è individuato come potrebbe essere nel caso di internet. Per quanto riguarda la fase fisiologica del trattamento dei dati personali, nel nostro ordinamento è stato inserito il principio di necessità, cioè i dati personali devono essere trattati solo se strettamente necessario per il perseguimento di determinate finalità e solo per il tempo strettamente necessario. Dopodiché i dati dovrebbero essere distrutti, archiviati o resi anonimi. 183
    • I dati personali devono, inoltre, essere trattati in modo lecito e secondo correttezza. Nel trattamento non si devono violare le norme in generale cioè quelle che presiedono al trattamento dei dati personali ma non si possono violare neanche altre disposizioni, tra cui quelle relative alla diffamazione. Secondo il principio di liceità si devono osservare tutte le regole che sono preposte alla tutela dei diritti della personalità dell’interessato incluse quelle poste da questa normativa. Altro principio che deve essere osservato è il principio di finalità: i dati trattati non devono eccedere, non devono traviare, fuorviare, ma devono essere rispettati in maniera specifica sulla base delle finalità indicate, devono essere quelle ed esclusivamente quelle, non si possono utilizzare per finalità completamente differenti. Infine. il principio di pertinenza: i dati raccolti e trattati devono essere pertinenti rispetto alle finalità indicate, cioè la raccolta dei dati non può riguardare dei dati che sono differenti rispetto a quelli strumentali al raggiungimento delle finalità indicate dall’interessato per il quale esso attribuisce un senso. 184
    • Le garanzie all’interessato nell’ambito del trattamento dei dati personali La direttiva è composta da alcuni elementi chiave, dove ciascuno rappresenta uno strumento di tutela: • Modalità del trattamento dei dati: garantisce che il trattamento dei dati personali venga effettuato tramite dei criteri, questa è appunto la prima garanzia per l’interessato. • L’informativa: ha la duplice funzione di informare l’interessato su come avverrà il trattamento dei dati e dall’altro è uno strumento di garanzia nel caso si debba dimostrare in giudizio che non siano state rispettate le corrette modalità e finalità di trattamento. • il consenso: il consenso dell’interessato viene richiesto nella maggior parte dei casi e viene richiesto sulla base dell’informativa. Questa è la garanzia per l’interessato che il trattamento dei dati personali venga effettuato non a prescindere dalla sua volontà o contro essa. 185
    • • L’autorizzazione del Garante dei dati personali. Questa è una tutela più accentuata, più forte, in quanto i dati sensibili devono essere assoggettati ad una tutela maggiore. • La notificazione al Garante: il documento che vale invece per trattare alcuni dati ordinari. • L’azione Giudiziaria: altro strumento che l’interessato ha a disposizione per tutelare i suoi diritti. 186
    • 5.5 European Consumer Summit: www.european-consumer-summit.eu Il 18 Marzo 2010, si è tenuto a Bruxelles l'European Consumer Summit: un vertice europeo dedicato ai consumatori, e organizzato dalla Commissione Europea. Il workshop si è occupato delle tematiche web 3.0 in chiave di servizi (accesso, scelta e giustizia), per analizzare le opportunità del futuro settore terziario e individuarne un’univoca strategia comunitaria. Il summit si è diviso in 2 fasi, nella prima sessione si è discusso a proposito di inclusione sociale, libertà di scelta e possibili modelli di business, nonché di commercio elettronico e tutela dei consumatori in rete. La seconda sessione del seminario si è concentrata, invece, sui possibili 187
    • interventi delle istituzioni comunitarie per garantire che l'evoluzione dei servizi in rete veda i consumatori europei sempre più tutelati e consapevoli. A questo importante incontro ha partecipato il Dr. Giuseppe Mazziotti, esperto di diritto della concorrenza e tecnologie di diritto di informazione, nonché membro del gruppo di lavoro Creative Commons-Italia, a cui ho rivolto alcune domande: Quali aspetti generali sono emersi durante l'European Consumer Summit? Dr. Giuseppe Mazziotti: “Nell'ECS è emersa la volontà della nuova Commissione Europea presieduta da Manuel Barroso di sviluppare il tema dei servizi al consumatore (soprattutto i nuovi servizi resi possibili o potenziati dall'accesso facile e veloce a piattaforme telematiche) in chiave il più possibile paneuropea. A tal fine, la Commissione ha formato nell'ambito del Summit alcuni gruppi di lavoro in vari settori ritenuti cruciali e in fase di sviluppo, quali il trasporto pubblico, la "green economy", le assicurazioni e - naturalmente - l'accesso a informazioni e contenuti nel c.d. web 3.0. In quest'ultimo ambito la Commissione ha mostrato di voler puntare fortemente sulla protezione del diritto d'autore e sulla trasparenza 188
    • delle informazioni fornite al consumatore nell'accesso e nell'acquisto di contenuti per mezzo di contratti o licenze in forma elettronica”. In vista delle nuove capacità del web 3.0, pensa che l’attuale tutela sulla privacy sia sufficiente? Oltre alla privacy vi è un pericolo anche per quanto riguarda la sicurezza dei propri dati, in che direzione sta lavorando la Commissione Europea? Dr. Giuseppe Mazziotti:” La tutela della privacy, come la conosciamo oggi, è stata pensata in Europa per un mondo senza social networks, cloud computing e senza l'imponente immagazzinamento di dati personali su piattaforme o banche dati accessibili online che conosciamo oggi. La tutela della privacy si basa sulla regola del consenso al trattamento dei dati personali da parte della persona i cui dati sono raccolti, elaborati, conservati o trasmessi. La Commissione è interessata al consolidamento di tale principio e alla sua estrinsecazione flessibile in contesti nuovi in cui l'utente è messo sempre più nelle condizioni di amministrare l'accesso i propri dati (che può far rimuovere in ogni momento dal gestore di una piattaforma) e il relativo uso da parte del gestore e di terze persone. In tutto ciò, come dicevo prima, la Commissione esige una corretta e 189
    • piena informazione dell'utente, in modo che questi sia sempre più reso consapevole”. 5.6 - Conclusioni Appare scontato dire che presto assisteremo a dei cambiamenti significativi in quasi tutti gli aspetti della nostra vita: dal modo di lavorare, organizzare il tempo libero e fruire di servizi. Tutti questi aspetti dipenderanno soprattutto dalla capacità di reperire e sfruttare le informazioni, la risorsa fondamentale di questo nuovo millennio. Questi dati viaggeranno sempre più sotto forma di bit, di conseguenza saranno accessibili solo attraverso gli strumenti giusti. La maniera di come, dove e quando ricevere informazioni verrà completamente trasformata, sarà quindi compito dei designer fornire gli strumenti e le giuste risposte a questi interrogativi, non solo sviluppando gli studi su questa disciplina, ma assicurandosi che in futuro vengano messi in pratica questi insegnamenti. I dispositivi che utilizzeremo dovranno essere capaci di: trovare, leggere, filtrare, utilizzare, miscelare e connettere questi dati tra oggetti, persone e internet. E’ richiesta quindi una intelligenza artificiale senza 190
    • precedenti, che richiederà uno sforzo notevole da parte dei designer. In questa tesi si è discusso di come in così poco tempo il web sia cambiato sotto i nostri occhi, spesso non ci siamo resi conto delle fasi più significative, perché incapaci di mettere bene a fuoco tutto l’insieme di innovazioni, concentrandoci solo ed esclusivamente sui singoli aspetti che ci riguardavano direttamente. In questo modo abbiamo perso di vista l’insieme e la complessità dei cambiamenti che caratterizzano questa materia, certo è impossibile pretendere un aggiornamento continuo e costantemente nei confronti della tecnologia, un mondo troppo veloce da inseguire per le capacità umane, ma questo atteggiamento ci ha impedito di apprezzare e capire il passaggio dal web 1.0 al 2.0 con tutte le sue conseguenze più rilevanti. Oggi, alle soglie del web 3.0 questa consapevolezza è ancor più necessaria, internet si sposterà dai monitor del computer agli oggetti o in generale a tutto ciò che ci circonda. Microprocessori, sensori, etichette RFId saranno incorporati in tutte le cose di uso quotidiano e collegati al web, e attraverso le potenzialità semantiche si definirà meglio quel fenomeno chiamato internet delle cose. Avremo un’ampia gamma di prodotti e servizi in rete, da quelli altamente strutturati sino a quelli privi di forma, dispositivi intelligenti che svolgeranno compiti al posto nostro e che sicuramente 191
    • indosseremo in maniera naturale, come gli “spime” previsti dal romanziere B. Sterling. Saremo sempre in grado di trovare oggetti e persone e allo stesso modo di essere rintracciati, per poter sfruttare al meglio queste possibilità sarà necessario lavorare verso una direzione che ne impedisca un uso distruttivo anziché costruttivo. Durante questo percorso di tesi sono stati presentati alcuni servizi relativi a questo fenomeno. Per quanto riguarda il web semantico si può affermare che in futuro l’interazione con i dispositivi e il web cambierà radicalmente, con l’affinarsi di questa tecnica saremo sempre più in grado di “dialogare” con le intelligenze artificiali. Non dovremo esprimerci attraverso codici, ma saranno le macchine a capire il significato del nostro linguaggio naturale. Alcuni esempi come: Cogito, Powerset e True Knowledge rappresentano già una realtà di questo, ossia servizi che riescono a porre un ordine nel caos generale che sino ad oggi ha caratterizzato i contenuti del web. Altri casi come: TripIt rappresentano soluzioni innovative che consentono all’uomo una organizzazione più intelligente dei propri viaggi, dove il margine di imprevisto si restringe parecchio grazie all’aiuto della semantica. Gli scenari futuri prevedono un approccio verso il web molto diverso da quello a cui siamo abituati. Internet non sarà più un’immensa miniera di informazioni, dove occorre 192
    • saper scovare le risorse desiderate, ma un utile alleato dotato di intelligenza, con cui potremo dialogare e trovare risposta ai nostri quesiti. L’obiettivo finale sarà quello di agevolare l’uomo in tutte le sue attività, dalle più semplici alle più complesse, detto ciò restano comunque alcuni dubbi, internet oltre alle utilità ha sempre mostrato le sue insidie, e la semantica in questo caso rappresenta ancora un’incognita. Per quanto riguarda l’internet delle cose, lo scenario futuro prevede un maggior controllo dello spazio e del tempo da parte dell’uomo, che in un certo senso godrà del dono dell’ubiquità. Attraverso l’utilizzo di sensori, tag, etichette l’uomo attraverso i suoi oggetti sarà connesso alla rete sempre e ovunque. Molto probabilmente non concepiremo più internet come un luogo o una destinazione, non ci sarà una riproduzione della realtà, ma tutti gli elementi saranno attivi sia nel mondo reale quanto in quello virtuale. Alcune dimostrazioni sono contenute in questa tesi come il sistema Mir:ror che permette un uso su larga scala dell’internet of things, dove ognuno di noi potrà dare un’identità ai propri oggetti e relazionarsi con essi in modi del tutto rivoluzionario. Altri servizi come Plant Sense permettono addirittura di comunicare con la propria pianta. Il massimo esempio di questo fenomeno è rappresentato da CeNSE, il progetto HP, il quale prevede di 193
    • costruire un vero e proprio sistema nervoso centrale della terra, attraverso la rilevazione di miliardi di sensori sparsi per il globo che permetteranno di misurare ogni grandezza fisica e trasformarla in dati da distribuire ed elaborare nel web. Il problema di questa tecnologia riguarda la sua invisibile pervasività legata alla modalità d’uso, misurare o localizzare oggetti può risultare utile, mentre non si può affermare lo stesso nel caso di esseri umani, altrimenti si avvererebbe una sorta di 1984, una dimensione priva di libertà e riservatezza raccontata dal celebre George Orwell. I confini dell’internet delle cose sono nella stessa maniera affascinanti e inquietanti, e le problematiche legate alla privacy faranno discutere per molto tempo. Ma il timore riguarderà soprattutto la sicurezza dei dati, dove ancora mancano delle adeguate protezioni. Non mancano comunque delle soluzioni tecniche, come la disattivazione di questi sensori per impedire un controllo delle persone. Infine, risulta difficile riuscire a prevedere oltre questi scenari, pianificando gli aspetti di cui abbiamo discusso e che solo ora iniziamo a conoscere, come disse Saffer: “ il futuro sarà quello che è sempre stato: pieno di speranze, inquietante, sconosciuto, disorientante. Solo un po’ di più”. 194
    • Bibliografia Berners Lee T., ”L'architettura del nuovo Web”, Feltrinelli, Milano, 2001. Battezzati L., Perego A., Sianesi A., “Ridisegnare i processi con l’RFId”, Allegri-Vacccher, Milano, 2007. Battezzati L., Hygounet J. L., “RFID. Identificazione automatica a radiofrequenza”, Hoepli, Milano, 2006. Bruner J., “La mente a più dimensioni”, Laterza, Bari, 1993. Calvani A., “Reti, comunità e conoscenza: costruire e gestire dinamiche collaborative”, Erickson, Trento, 2005. Cartman J., Ting R.,” Strategic Mobile Design: Creating Engaging Experiences”, New Riders, USA, 2008. 195
    • Castells M., “La nascita della società in rete”, Università Bocconi Editore, Milano, 2002. Charlene L., Bernoff, J., “Groundswell: Winning in a World Transformed by Social Technologies”, Business School Press, Harvard, 2008. Cherubini M., “Norme, procedimenti amministrativi e web semantico”, Edizioni Scientifiche Italiane, Napoli, 2008. Concas G., De Petra G., Gallus G.B., Ginesu G., Marchesi M., Marzano F., “Contenuti aperti, beni comuni La tecnologia per diffondere la cultura”, McGraw-Hill, Milano, 2009. Crevola A., Gena C., “ Design. La progettazione centrata sull’utente”, CittàStudi Edizioni, Novara , 2006. Di Bari V., “Web 2.0: Internet è cambiato. E voi?”, il Sole 24 Ore, Milano, 2007. 196
    • Di Donato F., “La scienza e la rete. L'uso pubblico della ragione nell'età del Web”, University Press, Firenze, 2009. Dourish P., “Where the action is: the foundations of embodied interaction”, MIT press paperback edition, Boston Ma , 2004. Durante M., “ Il futuro del web: etica, diritto, decentramento”, Giappichelli, Torino, 2007. Fabris G.P, “Il nuovo consumatore: verso il post moderno”, Franco Angeli, Milano, 2003. Fortunato S., Paganelli F.,“L' intelligenza distribuita. Ambient intelligence: il futuro delle tecnologie invisibili”, Centro Studi Erickson, Trento, 2006. Krug S., “Don’t make me think. Un approccio di buon senso all’usabilità web”, Tecniche Nuove, Milano, 2006. 197
    • Lynch P., Horton S., ” Web: guida di stile. Progettazione dei siti web”, Apogeo, Milano, 2001. Marinelli A.,”Connessioni. Nuovi Media, nuove relazioni sociali”, Guerini e associati, Milano, 2004. Morelli N., “Social Innovation and New Industrial Contexts: Can Designers “Industrialize” Socially Responsible Solutions?”, MIT Design Issues: Volume 23, Number 4 Autumn 2007, Boston Ma, 2007. Norman A.,”Emotional design. Perchè amiamo (o odiamo) gli oggetti di tutti i giorni”, Apogeo, Milano,2004. Norman D., “La caffettiera del masochista. Psicopatologia degli oggetti quotidiani”, Giunti, Firenze-Milano, 2005. Nielsen J., Loranger H., “Web Usability 2.0: l’usabilità che conta”, Apogeo, Milano, 2006. 198
    • O'Sullivan D., Igoe T., “Physical computing: sensing and controlling the physical world with computers”, Thomson Course Technology PTR, Boston MA, 2004. Prati G., “Web 2.0 internet è cambiato”, UNI Service, Trento, 2007. Preece J., Rogers Y., Sharp H., ” Interaction Design”, Apogeo, Milano, 2004. Saffer D., “Design dell’interazione”, Mondadori, Milano, 2007. Sterling B., ” La forma del futuro”, Apogeo, Milano, 2005. Saco R., Goncalves A., “Service Design: An Appraisal”, Design Management Review Vol. 19 No. 1, Boston Ma, 2008. Scano R., “Accessibilità delle applicazioni Web”, Pearson Education: Milano, 2008. 199
    • Soro A., “Human Computer Interaction”, Polimetrica, Milano, 2008. Taylor M.C.,” Il momento della complessità: l’emergere della cultura a rete”, Codice Edizioni, Torino, 2005. Terzidis K., ”Algorithms for Visual Design Using the Processing Language”, Wiley Publishing, Indianapolis, 2009. Visciola M., “Usabilità dei siti web”, Apogeo, Milano, 2000. Zeldan J. “ Progettare il Web del futuro. Standard e tecniche per il design”, Pearson Education , Milano, 2004 . 200
    • Webgrafia www.apogeonline.com www.arduino.cc www.arabcrunch.com www.bbc.co.uk www.cattid.uniroma1.it www.blogcatalog.com www.boorah.com www.cabinetoffice.gov.uk www.cia.gov www.citysense.com www.dialogue-swisscom.com www.digitalk.tv www.expertsystem.it www.freebase.com www.gdoweek.it www.guardian.co.uk/technology www.hakia.com www.hipro.it www.hpl.hp.com www.ictv.it 201
    • www.ilsole24ore.com www.itu.int www.liquida.it www.mediablog.corriere.it www.microsoft.com www.netsukuku.freaknet.org www.nevon.net www.nytimes.com www.oneweb20.it www.opencalais.com www.pachube.com www.palazzochigi.eu www.blog.panorama.it www.pewinternet.org www.pcprofessionale.it www.plantsense.com www.powerset.com www.punto-informatico.it www.radar.oreilly.com www.readwriteweb.com www.rfiditalia.com www.sardegnaricerche.it 202
    • www.senseaware.com www.shinynews.it www.smart-systems-integration.org www.swotti.com www.tenenga.com www.tripit.com www.trueknowledge.com www.twine.com www.ubiq.com www.violet.net www.w3.org www.widetag.com www.en.wikipedia.org www.it.wikipedia.org www.wired.com www.wired.it www.world.waze.com www.zigbee.org 203