Tesi: Internet of Services, uno stato dell'arte.

1,854 views

Published on

Questo lavoro di tesi si occupa di fornire uno stato dell'arte dell'attuale fenomeno definito come web 3.0, ultima evoluzione di internet. Nel primo capitolo si ripercorrono i vari passaggi e innovazioni introdotte dal web 1.0 al 2.0. Nei capitoli successivi si presentano attraverso una ricerca di benchmark i vari servizi esistenti in chiave web 3.0, tecnologie che sfruttano le capacità semantiche e che si inseriscono in quel fenomeno definito come internet delle cose, dove mondo virtuale e fisico si sovrappongono. Il capito IV si occupa di fornire una breve parentesi sulla pervasività di tali tecnologie ed eventuali problematiche di privacy e security. Infine il V capitolo intende presentare eventuali scenari futuri sulla base dei principi etici di design.

Published in: Design
0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,854
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
0
Comments
0
Likes
2
Embeds 0
No embeds

No notes for slide

Tesi: Internet of Services, uno stato dell'arte.

  1. 1. UNIVERSITÀ DEGLI STUDI DI SASSARI Facoltà Di Scienze Politiche CORSO DI LAUREA SPECIALISTICA IN EDITORIA, COMUNICAZIONE MULTIMEDIALE E GIORNALISMO “INTERNET OF SERVICES”: UNO STATO DELL’ARTE Relatore: PROF. ALESSIA RULLO Correlatore: Tesi di Laurea di: PROF. ELENA PODDIGHE FRANCESCO SARDU ANNO ACCADEMICO 2008-2009 1
  2. 2. “I think design covers so much more than the aesthetic. Design is fundamentally more. Design is usability. It is Information Architecture. It is Accessibility. This is all design”. -Mark Boulton- 2
  3. 3. INDICE Prefazione………………………………..………………………………………...….6 Capitolo I - Dal web 2.0 al web 3.0 1.1 - Definizione di web 2.0 ………..…………………………..…....…9 1.2 - Web 1.0 VS web 2.0………………..………..…….…….…..…..13 1.3 - Gli strumenti del web 2.0………………………….....................21 1.4 - Il software come piattaforma….………………….……........…..31 1.5 - Primi passi verso il web 3.0.……………………..……….…..…35 1.6 - Web 3.0 come web semantico ……...……………...….......….37 1.7 - Requisiti del web 3.0 ….……………..…………….…...…....44 1.8 - Verso l’internet delle cose ……………………………….…....48 Cap II – Web semantico 2.1 - Potenzialità della semantica …………………….......…….….….51 2.2 - Benchmark applicazioni semantiche web 3.0 ……….......….53 2.3 - Powerset …..........……………………………………….….......…55 2.4 - True Knowledge ………………………………....…..…………59 2.5 – Hakia…..…………………………………………….…......………62 2.6 - Calais ……………..……………………………….……….…..…..65 2.7 - Cogito ……………………………….……………………………67 2.8 - Freebase …….………………………………………..………69 2.9 - Tripit ……………………………………………….………..…..71 2.10 - Swotti ……………………………………………..……….….73 2.11 - Boorah ………………..…………………………….………...…..76 2.12 - Twine …………………...………………………………………..78 2.13 Il futuro della semantica……………………..…….………..80 3
  4. 4. Cap III- Internet of Things 3.1 - Definizione di internet of Things ………....………..……….82 3.2 - Cenni storici e funzionamento delle etichette Rfid ……..………88 3.3 - Mir:ror …………………………………………..……….….97 3.4 - ZigBee ….……....………………………………………………..99 3.5 - Near Field Communications ….......……………………..……….100 3.6 - Physical Computing …........………………………...…………...104 3.7 - Arduino ……………..…..……………..........………..……………106 3.8 - Plant sense ……………........……………………………………..108 3.9 - Widenoise …..……………….....………………...…………..…110 3.10 - Pachube ……….…………………….…………………..……112 3.11 – SenseAware …………………......………………….….…..114 3.12 - CeNSE ….....................………………………………….….….116 3.13 - CitySense ……………………….……………………….…..118 3.14 - Waze ………………..………………….…………………...….120 3.15 - Bike Sharing ……..….…………………....…………………….122 3.16 - Netsukuku …………………………….....…………….…..123 Cap IV – Interaction Design 4.1 - Definizione di Interaction Design …………….…......……………125 4.2 - Storia dell’Interaction Design………….…………………..…...…127 4.3 - Importanza strategica dell’Interaction Design…..…….……..….130 4.4 - Obiettivi dell'Interaction design ………………………………..…131 4.5 - Design di servizi…………………………………………….………138 4.6 - Il settore terziar........……………………………………………….144 4.7 - Servizi e Prodotti…………………….…………….…………..…...147 4.8 - Tecniche del design di servizi ………………….……………..….149 4.9 - Etica nel design...……………………………………………..…....157 4
  5. 5. Cap V - Pervasività e Privacy nel web 5.1 - Internet ubiquitous……………..…………....……………………..160 5.2 - Il problema della semantica.………………………………………164 5.3 - Internet delle cose, pervasività delle etichette RFId….….…….169 5.4 - La legge sulla Privacy…………..………………………..…….….180 5.5 – European Consumer Summit…………..…………......………….187 5.5 – Conclusioni………………………….........………………….…….190 Bibliografia………………………………..………………………………….…….….195 Webgrafia………………….……………..………………………………….…….….201 5
  6. 6. Prefazione La nostra concezione del web è cambiata o meglio si è evoluta in questi ultimi anni, anche grazie alla velocità di sviluppo tipica delle tecnologie digitali. Ma i cambiamenti non riguardano solo l’aspetto tecnico o tecnologico, è cambiato soprattutto l’approccio grazie all’incremento di nuove funzioni e diversi modi per interagire con internet. La rete che inizialmente nacque per scopi militari e successivamente resa di dominio pubblico, fin dai suoi primi anni, attirò gli interessi di ricercatori e semplici curiosi. In questa sua prima fase di vita restò per diverso tempo relegata alla concezione di uno spazio meramente virtuale, dovuto soprattutto alla limitazione oggettiva in termini di interazione. Questo è quello che riguarda il web 1.0, ossia l’utilizzo di internet come archivio consultivo dove produrre contenuti era pressoché impossibile, l’informazione nasceva dall’ alto per essere consumata in maniera più capillare tramite la rete, internet era solo un mezzo. Per fortuna nel corso degli anni ci fu la seconda fase, chiamata appunto web 2.0. La rivoluzione, oltre che tecnologica, investì proprio il modo di utilizzare internet cambiando radicalmente la sua concezione e filosofia di utilizzo, con il web 2.0 è stato permesso a qualsiasi utente di produrre dei contenuti, sia informativi che di intrattenimento. Inoltre, oltre alla produzione dal “basso” un altro concetto entrò a far parte delle prerogative di internet: la condivisione. In breve il web 2.0 ha permesso di riconsiderare il web, passando da una visione di internet intesa come corpo estraneo della quotidianità, sino a pensarlo come uno spazio più democratico, perché non solo fruibile 6
  7. 7. potenzialmente da tutti, ma costruito e arricchito costantemente con il contributo dell’intera community. Proprio in questo momento si è innescata l’ultima evoluzione, quella che porterà il web 2.0 verso il web 3.0. Questa tesi si occupa di offrire uno stato dell’arte di questo fenomeno appena nato, il lavoro è suddiviso in cinque capitoli. La prima parte si occupa di fornire un quadro generale dei cambiamenti che in qualche modo hanno condizionato il nostro modo di vivere il web. La seconda parte si occupa di spiegare come la semantica giocherà un ruolo centrale nello sviluppo dei prossimi servizi, verranno proposti alcuni progetti per illustrare come questa tecnologia verrà utilizzata nel concreto. Nella terza parte si affronterà il tema dell’internet delle cose, una visione che porta con se nuovi e ambiziosi obiettivi che modificheranno nuovamente il nostro concetto di internet, sovrapponendo la dimensione fisica a quella virtuale, internet sarà sempre più connessa alla realtà fino a confondersi con essa. Anche in questa fase del lavoro saranno presentati alcuni progetti realizzati verso questa prospettiva. La quarta parte, invece, cerca di proporre il punto di vista dell’interaction design, i cambiamenti del web hanno portato anche differenti complessità d’uso degli oggetti con cui presto interagiremo. Per questo motivo, il saper progettare i servizi del futuro sarà una risorsa strategica. Il design dei servizi ha come obiettivo e la consapevolezza di migliorare il settore terziario, rispettando gli elementi base di usabilità nell’interazione tra uomo e dispositivi. Infine la quinta parte suggerisce come per il rovescio della medaglia vi siano degli aspetti problematici legati a questo fenomeno. La pervasività di internet, la paura di veder danneggiata la propria privacy, possono essere 7
  8. 8. effetti collaterali di questo fenomeno; occorrerà quindi stabilire i giusti vincoli affinché queste nuove tecnologie consentano di agevolare la vita dell’uomo, invece che complicarla. 8
  9. 9. Capitolo I - Dal web 2.0 al web 3.0 1.1 - Definizione di web 2.0 Il fenomeno conosciuto come web 2.0, cioè la sua evoluzione è relativamente nuovo. Per web 2.0 non si deve intendere lo sviluppo della tecnologia che sta alla base di internet, ma l’evoluzione dei linguaggi di programmazione usati e del metodo con il quale interagiscono tra loro. Il termine web 2.0 fu coniato nel 2004 ad opera di Dale Doughery1 e Tim O’Reilly2 durante una conferenza. In questi anni, spesso, siamo stati fruitori di molti aspetti derivanti dal web 2.0 senza esserne pienamente consci, ma oggi già si pongono le basi per parlare del web 3.0 o web semantico. Stiamo assistendo in pratica a una nuova evoluzione del web senza aver ancora metabolizzato la precedente. Occorre quindi definire un percorso che parta dalle innovazioni introdotte dal web 2.0, novità che hanno modificato la nostra percezione del web, fenomeni che non 1 E’ uno dei co-fondatori (con Tim O'Reilly) di O'Reilly Media. Fondatore della GNN, il Global Network Navigator, il primo portale web e il sito prima della Internet deve essere supportato dalla pubblicità, e più recentemente è il fondatore ed editore della rivista O'Reilly's Make nuovo. 2 Fondatore di O'Reilly Media (ex O'Reilly & Associates) e un sostenitore del software libero e dei movimenti open source. 9
  10. 10. possiamo più ignorare ma conoscere per giungere a comprendere le nuove potenzialità dettate dal web 3.03 e dall’internet delle cose4 . Internet per sua natura è sempre stato un luogo in perpetuo mutamento dov’è possibile trovare elementi più o meno innovativi e utili. Proprio per questo motivo non ha mai smesso si crescere e svilupparsi. “Da quando è stato ideato si trova in perpetua fase di miglioramento ed innovazione, oltre che di espansione anche grazie al sempre maggior numero di persone che utilizzano questo strumento” (Prati 2007, 9). La definizione ufficiale definita da Tim O’Reilly, pioniere di questo concetto è: “ Il web 2.0 è la rete come piattaforma, attraverso tutti i dispositivi collegati; le applicazioni web 2.0 sono quelle che permettono di ottenere la maggior parte dei vantaggi intrinseci della piattaforma, fornendo il software come un servizio in continuo aggiornamento che migliora più le persone lo utilizzano, sfruttando e mescolando i dati da sorgenti multiple, tra cui gli utenti, i quali forniscono i propri contenuti e servizi in un modo che permette il 3 Il termine Web 3.0 è apparso per la prima volta agli inizi del 2006 in un articolo di Jeffrey Zeldman. 4 Il concetto dell'internet delle cose è attribuito all'Auto-ID Center, fondato nel 1999 e da allora con sede al MIT di Boston. 10
  11. 11. riutilizzo da parte di altri utenti, creando una serie di effetti attraverso una “architettura della partecipazione” e andando oltre la metafora delle pagine del web 1.0 per produrre così user experience più significative”5 . Sulla base di questa definizione si possono estrapolare alcuni concetti chiave: • La rete come piattaforma, • Software come servizio, • Utilizzo dei dati da sorgenti multiple, • Produzione di contenuti da parte degli utenti • Forme di partecipazione. Dalla definizione ufficiale, notiamo quanto sia difficile offrirne una sintetica anche da parte di Tim O’Reilly. Dalle caratteristiche principali del web 2.0 e dalla filosofia dei suoi servizi si può ritenere come punto cardine l’acquisita centralità dell’utente nel processo di partecipazione alla crescita del web. Su questo concetto ruotano appunto gli elementi innovativi introdotti dal web 2.0 come la 5 Traduzione da: “Web 2.0: compact definition”, 1 ottobre 2005; http://radar.oreilly.com/archives/2005/10/web_20_compact_definition.html 11
  12. 12. collaborazione, la condivisione e l’unione delle informazioni. “L’utente riveste un ruolo da protagonista in quanto insostituibile forma di informazioni di qualsiasi tipo ad alto valore tecnico e commerciale” (Prati 2007, 18). Sempre secondo Tim O’Reilly esistono 4 livelli del panorama web 2.0, nel livello 3 possiamo ritenere servizi del web 2.0 tutte quelle applicazioni che possono esistere esclusivamente su internet, che sviluppano il loro potenziale dalla rete e dai collegamenti possibili tra persone o servizi. Alcuni esempi sono: eBay, Wikipedia i quali sono gestiti attraverso un’attività prettamente online. Nel livello 2 le applicazioni possono esistere anche offline, ma sono molto più funzionali quando hanno una presenza sul web. L’esempio è Flickr che ha tra le sue caratteristiche la presenza di un database fotografico condiviso. Nel livello 1 vi sono tutte quelle applicazioni che hanno sempre funzionato offline ma che ora possono offrire funzionalità aggiuntive. Infine, il livello 0 che è caratterizzato da quei servizi che funzionano bene sia operando offline che online, senza trarre alcun beneficio della loro presenza in internet. Per capire meglio cosa sia in concreto il web 2.0 è necessario analizzare quali differenze abbia introdotto rispetto al passato. 12
  13. 13. 1.2 - web 1.0 VS web 2.0 Il web 1.0 così come l’abbiamo conosciuto potrebbe essere definito nella forma di “internet dei contenuti”, ovvero formato da siti visualizzati come una “vetrina”, per esempio come pagine di un libro o fogli in formato word contenenti: testi, immagini e video in cui la possibilità principale era per i normali utenti quella di passare, dare un’occhiata e poi andare via. Le informazioni venivano pubblicate in maniera statica, impedendo qualsiasi interazione; per questo si parla di spettatori passivi. Fondamentale per il web 1.0 erano gli ipertesti, si tratta di pagine contenenti collegamenti ad altre pagine, così via formando una struttura somigliante ad un grande libro dinamico. Internet dei contenuti e dell’informazione strutturato come un immenso libro multimediale. Schematicamente il web 1.0 si potrebbe riassumere in: • Siti e portali con contenuti prodotti dal publisher • Organizzazione gerarchica dell’informazione e navigazione attraverso menu • Data base • Interazione sito ↔singolo utente 13
  14. 14. • Motori di ricerca • Tecnologie push (publish & subscribe) • E-commerce • Banda limitata Con il web 2.0 si verifica un’inversione di paradigma del web, per la prima volta si iniziò a dare grande importanza all’usabilità e al modo di condividere i contenuti. Il web è diventato un mezzo democratico e neutrale, dove gli intermediari sono annullati. La sua vera forza risiede nella struttura decentralizzata formata da nodi tutti collegati fra loro, dove gli utenti sono i nuovi editori, in grado di divenire loro stessi il messaggio e il medium. In questa maniera, la rete diventa “umana” in quanto rende tutti potenzialmente uguali e potenzialmente raggiungibili da chiunque. In più, contrariamente al concetto della proprietà intellettuale e del diritto d’autore, nella nuova visione 2.0 è la “Condivisione” a essere contrapposta alla “Privazione”. In questa maniera, gli utenti non sono più spettatori ma diventano co-autori, o alleati produttivi. Il Web 2.0 ha significato la possibilità di una partecipazione attiva degli utenti al web, possiamo parlare in questo senso di “Internet della condivisione”. Ciascuno di 14
  15. 15. noi, oggi, ha la possibilità di scrivere un blog e inserire i propri pensieri, produrre dei video e caricarli su YouTube, iscriversi ai siti di social networking e moltiplicare le proprie amicizie per sentirsi partecipante attivo. Il web 2.0 ha convinto gli utenti a portare pezzetti della propria vita in rete, facendoli sentire protagonisti; il tutto come fattore positivo e facile come un gioco. Uno degli esempi più significativi che riguardano il passaggio dal web 1.0 al 2.0 è Wikipedia: l'enciclopedia libera multimediale e multilingue al cui sviluppo può collaborare chiunque, gestita da utenti volontari ed è autofinanziata. A questo servizio tipico del web 2.0 si contrappone l’enciclopedia Britannica tipico esempio di servizio web 1.0. L’enciclopedia Britannica può vantare una lunga storia, è stata pubblicata infatti per la prima volta nel 1768 e tutt’ora si continua ad aggiornare quest’opera colossale che conta, nella sua ultima edizione 32 volumi ed una partecipazione di ben 4000 collaboratori. Dal 1994 è stata resa disponibile nella versione online previo abbonamento annuale, con circa 120.000 articoli consultabili e aggiornati quotidianamente da scienziati, professori o esperti. Totalmente differente invece la filosofia di Wikipedia, un progetto nato nel 2001, questa enciclopedia accetta il contributo degli utenti 15
  16. 16. volontari per realizzare i propri contenuti. Chiunque può, infatti, scrivere, modificare e aggiornare un articolo presente in archivio. Inoltre la comunità di Wikipedia sta lavorando molto per tradurre ogni voce in oltre 250 lingue, aumentando così il bacino di utenza. Wikipedia, letteralmente “enciclopedia veloce”, conta al suo interno oltre 1.600.000 pagine di articoli in lingua inglese, 390.000 voci in lingua francese e 210.000 in lingua italiana; costituisce oggi, la più ampia enciclopedia generalista e multilingue esistente in rete. Wikipedia permette a chiunque di prendere parte alla realizzazione di articoli su qualunque tema, che saranno archiviati al suo interno. Questo rappresenta un ottimo esempio di produzione orizzontale di cultura, che associa tre caratteristiche principali , da cui dipende il suo successo: 1) dal punto di vista tecnico, implementa la tecnologia wiki che costituisce uno strumento di redazione condivisa. Tale piattaforma tecnologica consente a ogni persona di poter editare una pagina nel formato HTML che corrisponde a una voce all’interno del testo. Si tratta di una piattaforma aperta che consente di intervenire anche sulle voci già redatte. Vengono comunque conservate tutte le versioni modificate per consentire di accedere a quella originale. Tale tecnologia consente l’assoluta trasparenza nella generazione di contenuti e delle modificazioni impedendo che l’intero progetto sia 16
  17. 17. minacciato da un numero limitato di persone che editano in modo erroneo; 2) dal punto di vista giuridico, tutti i contenuti generati sono rilasciati sotto il regime di una specifica licenza non proprietaria: la GNU Free Documentation Licence;6 3) dal punto di vista sociale, Wikipedia secondo Clay Shirky possiede al suo interno un codice etico di comportamento7 . “Il funzionamento di Wikipedia non è disciplinato da norme e sanzioni positive ma è il risultato di norme di condotta spontanee, i cui comportamenti sono tenuti insieme da uno sforzo consapevole, da un impegno collettivo teleologicamente orientato a un fine comune e associato all’adozione di un punto di vista neutrale” (Durante 2007, 200.) Per dirlo in maniera più semplice, tali comportamenti sono consapevolmente ordinati per un fine comune che un solo individuo non può ne realizzare né tantomeno distruggere. “È una soluzione interattiva che da modo ad esperti, studiosi o semplici appassionati non solo di consultare liberamente i documenti e stamparli per la propria lettura, ma offre la possibilità di partecipare attivamente alla crescita dei documenti” (Prati 2007, 22). Differentemente l’enciclopedia Britannica si avvale esclusivamente di collaboratori e professionisti, ma soprattutto non 6 È una licenza che adotta il metodo copyleft per contenuti liberi, è stata creata dalla Free Software Foundation. È garantito il permesso di copiare, distribuire e/o modificare seguendo i termini della licenza. 7 P. AIGRAIN, “The individual and the Collettive in Open Information Communities” 17
  18. 18. fornisce gratuitamente il proprio materiale. Sui diversi modi di operare si sono sollevate alcune obiezioni, per quanto riguarda l’autorità della fonte. L’enciclopedia Britannica gode ancora oggi di maggior credibilità, perché attinge dall’esperienza comprovata dei suoi collaboratori. Wikipedia invece non si avvale di un sistema di revisione paritaria di carattere accademico basato sull’individuazione di ruoli, per questo può contenere al suo interno anche informazioni completamente errate o prive di autorevolezza; non si può nascondere però la sua caratteristica innovativa in questo settore: Il suo sistema di revisione paritaria che è orizzontale e decentrato, inoltre risulta anche diffuso e continuo. Chiunque a prescindere dal ruolo sociale può apportare modifiche in qualsiasi momento. Questo meccanismo nel tempo ha migliorato l’attendibilità delle fonti. Da uno studio pubblicato sulla rivista Nature8 emerge che dal confronto con un campione significativo di voci pubblicate dall’enciclopedia Britannica è risultato che la differenza di accuratezza non sia particolarmente grande. Ma il fattore più sorprendente è che al verificarsi di un qualunque errore, l’efficacia della revisione orizzontale di Wikipedia permetterebbe una correzione in tempi brevi, mentre per qualsiasi altra enciclopedia sarebbe necessario 8 “Special Report: Internet Encyclopedias Go Head to Head” in Nature, 14 dicembre 2005. 18
  19. 19. attendere l’edizione successiva. L’interattività e la partecipazione della comunità sono un elemento basilare del web 2.0 per questo i wiki sono una delle colonne portanti di questa evoluzione mentre l’enciclopedia Britannica resta relegata al passato del web 1.0. Wikipedia rappresenta solo un tipico esempio di web 2.0, ma esistono altre applicazioni base che caratterizzano questa evoluzione. I blog, i feed RSS, i social network, le wiki, le tag, i mashup, la folksonomia sono alcuni degli aspetti chiave sui quali si costituiscono i servizi più interessanti nel panorama web. Il blog è uno strumento che permette la pubblicazione di contenuti sul web da parte di qualsiasi utente, anche in questo caso vengono rispettati i principi fondamentali del web 2.0: “Condivisione” e “Partecipazione”. La gestione dei dati e delle informazioni non è più appannaggio esclusivo di testate giornalistiche, università o società, ma viene offerta a tutti la capacità di esprimersi. I blog sono piattaforme sostanzialmente semplici e per questo motivo stanno entrando a far parte del modo di vivere e di utilizzare la rete di milioni di utenti; spesso sono l’esempio della libera informazione che ha lanciato il fenomeno del citizen journalism.9 Tom Curley, il direttore dell’ 9 è il termine con cui si indica la nuova forma di giornalismo che vede la partecipazione attiva dei lettori, grazie alla natura interattiva dei nuovi media e alla possibilità di collaborazione tra moltitudini offerta da internet 19
  20. 20. Associated Press, nel discorso di apertura della conferenza dell’Online News Association del 2004 ha detto: “come abbiamo potuto vedere chiaramente nell’ultimo anno, i consumatori vorranno utilizzare la natura interattiva di internet per partecipare direttamente allo scambio delle notizie e delle idee. L’informazione come lezione sta lasciando spazio all’informazione come conversazione”. Alla base dell'osservazione del direttore dell'Associated Press vi è un fenomeno sempre più evidente che si manifesta sotto vari aspetti. Esistono oltre 14 milioni di blog e un nuovo blog viene creato ogni secondo. Inoltre ogni contenuto del blog deve poter essere commentato liberamente, previa registrazione, dai visitatori del sito. Per sua natura appunto non deve limitare la partecipazione né il dialogo tra gli utenti, l’obiettivo è quello di stimolare l’intervento sui diversi temi e dibattiti. In Italia ultimamente sono sorte alcune polemiche se il mondo dei siti web debba rimanere senza vincoli legislativi e soggetta solo a un’autoregolamentazione, oppure in alternativa se debbano essere applicate le norme sulla stampa. Nell'ottobre del 2007 il governo ha presentato un disegno di legge sulla riforma dell'editoria in cui aveva stabilito per i siti l'obbligo della registrazione. La dura replica del mondo web ha portato alla 20
  21. 21. precisazione da parte del sottosegretario di Stato alla Presidenza del Consiglio On. Ricardo Franco Levi che la norma non avrebbe trovato applicazione per i blog10 . 1.3 - Gli strumenti del web 2.0 Tra gli elementi che hanno contribuito al successo dei blog dobbiamo citare il servizio feed RSS (Really Simple Syndacation), la sigla indica uno dei più popolari formati utilizzato per la distribuzione dei contenuti sul web utilizzando come base il linguaggio XML. “I contenuti pubblicati sul web, come un blog, possono essere formattati con un linguaggio standard come l’XML e messi a disposizione all’interno di un file per la ripubblicazione su altri siti web o gestione attraverso differenti media” (Prati 2007, 70). Inoltre attraverso il dispositivo feed RSS è possibile ricevere i nuovi contenuti di un sito sul quale abbiamo interesse, senza necessariamente consultarlo con regolarità. La gestione di questo strumento è solitamente affidata al nostro browser, una volta salvati i feed l’aggregatore provvede a sincronizzarli con i siti sulla quale 10 Lettera dell’ On. Ricardo Franco Levi, 19 Ottobre 2007: del http://www.palazzochigi.eu/GovernoInforma/Comunicati/testo_int.asp?d=36855 21
  22. 22. abbiamo richiesto la consultazione automatica. In questo modo gli utenti possono richiedere degli aggiornamenti su qualunque argomento senza dover impiegare tempo nella ricerca di ogni singolo sito. A differenza delle newsletter (web 1.0), i feed RSS non richiedono l’indirizzo di posta elettronica permettendo di aggiornare i feed o rimuoverli nel pieno anonimato, inoltre non si rischia di incorrere nello spam. Altro elemento importante del web 2.0 sono i wiki, ossia una collezione di documenti ipertestuali che permettono a ciascun utilizzatore di aggiungere e modificare i contenuti. L’esempio tipico è proprio Wikipedia l’enciclopedia libera. “Il termine wiki di origine hawaiana significa rapido e non poteva essere adottato nome migliore per un applicativo web che fa della velocità e dell’immediatezza il suo punto di forza” (Prati 2007, 77). Un sito web che utilizza i wiki è costituito da un insieme di pagine statiche non organizzate in modo gerarchico e lineare, ma che possiedono tutte lo stesso grado di importanza, questo particolarità rende estremamente “flessibile” la struttura dei documenti, facilitando tutti gli utilizzatori nella fase di pubblicazione. Le wiki sono aperte per consentire un alto livello di collaborazione, senza dover aspettare le 22
  23. 23. previe approvazioni. Ciò che si scrive viene subito reso fruibile a tutti. La navigazione di un sito che utilizza i wiki può avvenire attraverso due tecniche. La prima impiega un motore di ricerca interno per trovare sia i titoli che i documenti interi. La seconda tecnica di navigazione implica il passaggio da un contenuto all’altro sfruttando i collegamenti ipertestuali inseriti nel documento, quindi in assenza di un menù di ricerca organizzato. Si verifica in questa maniera il fenomeno di “serendipity”, cioè la capacità di vedere o scoprire qualcosa in modo fortuito, partendo dalla ricerca di un qualcosa completamente diverso. Le “Tag”, ossia le etichette, sono un altro elemento introdotto dal web 2.0 che va a supportare tutti gli strumenti di condivisione delle informazioni. Questa applicazione consiste nel descrivere il contenuto pubblicato attraverso una serie di parole chiave che rappresentino in qualche maniera il contenuto, rendendo possibile una sua classificazione e una facile ricerca attraverso le tag che costituiscono un “pezzo” di informazione. Spesso questo utilizzo è associato al social bookmarking, dato che la comprensione del significato di un testo da parte di un’applicazione informatica (web semantico) non è una pratica ancora diffusa, viene delegato 23
  24. 24. all’autore del post l’onere di descrivere, con brevi ma precisi termini, il suo contenuto. Questo semplifica notevolmente la ricerca all’interno di un archivio, in particolar modo quando si tratta di archivi estesi con un vasto numero di documenti delle più diverse tipologie. Si possono distinguere due diverse tecniche di “tagging”. La prima è svolta direttamente dall’autore che inserisce la parola chiave a titolo descrittivo, è un’operazione svolta al termine del processo redazionale, ma prima della sua pubblicazione. Il secondo tipo di “tagging” è un’operazione svolta dagli utenti che hanno preso visione del contenuto che collaborano al processo di tag. In questo modo verranno inserite altre parole chiave, a seconda della sensibilità dei lettori, non previste inizialmente dall’autore. Molti soggetti utilizzeranno poi i medesimi tag, così facendo questi acquisteranno una maggior importanza rispetto agli altri, potrebbero essere presentati con una dimensione, un colore o collocazione diversa rispetto ai meno utilizzati, per poterli individuare più rapidamente. L’ utilizzo dei tag prende il nome di “folksonomia”, il termine è formato dall’unione di due parole, “folk” e “tassonomia” e significa pattuite le tag all'interno di determinate comunità virtuali, in sostanza il "tagging" è una modalità di organizzazione dell'informazione alternativa alla gerarchizzazione attraverso categorie fisse. Maggiore 24
  25. 25. sarà il numero di utenti che applicheranno la tag ad un determinato contenuto e maggiore sarà la precisione della folkosonomy. “Il processo di categorizzazione si evolverà quindi in modo democratico, alcuni termini acquisiranno una maggior popolarità, altri invece saranno meno utilizzati, riflettendo così i temi maggiormente trattati dal sito e gli interessi comuni degli utenti che utilizzano un determinato blog o servizio di condivisione” (Prati 2007, 88). Tramite questo procedimento, col passare del tempo, si creeranno automaticamente delle categorie principali che conterranno dei sottogruppi di argomenti. Questo uso si sta diffondendo in maniera capillare soprattutto per la sua semplicità che ha portato dei vantaggi immediati, ma nel tempo potrebbe costituire anche un problema. Per quanto riguarda i benefici del suo utilizzo vi sono: una classificazione rapida, aiuta l’indicizzazione di argomenti sotto-intesi, favorisce la serendipity (trovare un contenuto mentre se ne sta cercando un altro) e infine semplifica l’accesso ai contenuti. Dall’altra parte però sono stati posti alcuni dubbi, attualmente uno dei fattori più problematici riguarda l’imprecisione nella scelta dei vocaboli da utilizzare con la possibilità di incorrere in errori di utilizzo da parte degli utenti. Questa potrebbe essere una normale conseguenza dell’arbitrarietà con cui vengono scelte le tag, inoltre l’errore 25
  26. 26. potrebbe essere causato anche da un utilizzo improprio dei sinonimi che non verrebbero riconosciuti dal sistema. Un altro problema dal punto di vista semantico riguarda l’utilizzo del singolare o plurale nei vocaboli. Inoltre all’interno dei siti multilingua, concetti simili saranno espressi con parole differenti e ciò porterà l’utilizzo di più “taggature” che varieranno da idioma a idioma. Il widget è un elemento tipicamente grafico di un programma che facilita l'utente nell'interazione con il programma stesso. In italiano è detto congegno; può essere una vera e propria mini-applicazione. Esistono tre differenti tipologie di widget: • Quelli che lavorano offline e offrono funzionalità accessorie al sistema operativo, • Quelli che risiedono sul nostro PC, ma che necessitano di internet per funzionare, • Quelli che funzionano solo all’interno delle pagine web. Tipici esempi di widget sono i "bottoni" dell'interfaccia grafica di un programma che possono essere "premuti" per dare comandi al programma stesso. “Possiamo avere un box che si sincronizza con un portale di meteo e ci fornisce i dati sulla temperatura della nostra 26
  27. 27. città, ricevere la rassegna stampa con le ultime notizie di politica, sport e qualsiasi aggiornamento sugli avvenimenti, avere un calendario in locale che si sincronizza con un calendario remoto (es. Google Calendar), visualizzare sul nostro desktop le immagini live di alcune webcam collocate nei più remoti angoli del pianeta e vedere che cosa sta succedendo …” (Prati 2007, 105). Tramite i widget sarà possibile consultare per esempio qualsiasi news di nostro interesse senza dover per forza aprire la pagina web di riferimento, ma semplicemente con un click. Potremo così tenere sotto controllo le ultime offerte su un oggetto di nostro interesse, ricevere gli ultimi script pubblicati sul blog di un nostro amico. Questo porta ad una sempre più radicata personalizzazione del web da parte di ogni singolo utente. Una maggiore diffusione delle informazioni: selezionate, veicolate e utilizzate in base ai propri interessi personali. Le persone vivono già in una realtà che li vuole sommersi da news, aggiornamenti e input indistinti di ogni genere, per questo motivo i widget offrono una valida alternativa, funzionano in pratica come un filtro che seleziona cosa è di maggior interesse per il suo utente e cosa non lo sia. 27
  28. 28. Tutte queste nuove applicazioni introdotte dal web 2.0 dimostrano come vi sia la reale capacità di interazione tra gli utenti: l’utilizzo di differenti piattaforme o servizi di condivisione del materiale, rappresentano elementi innovativi introdotti proprio dall’evoluzione del web. Sarebbe sbagliato però immaginarle come realtà a se stanti, infatti il principio di condivisione non riguarda solo gli utenti, ma si estende alle funzionalità del web 2.0. Il “mashup” è infatti l’interazione tra differenti servizi e media ed è un altro concetto fondamentale introdotto dalla nuova visione del web 2.0. “ La logica del mashup” nasce molto probabilmente dall’ambito musicale. Con questo termine infatti si vuole denotare un genere musicale derivato dall’unione di più brani, solitamente di stili ed autori diversi, fusi in un’unica opera.” (Prati 2007, 107). Per quanto riguarda il nostro contesto, con mashup si vuole intendere un’applicazione che sfrutta le informazioni o i servizi offerti da più sorgenti attraverso opportune funzioni o linguaggi che, unite assieme, formano un nuovo e unico prodotto, distinto dalle singole componenti da cui è stato ricavato. I mashup stanno rivoluzionando lo sviluppo del web, chiunque può combinare dei dati da diversi siti, per ottenere nuove applicazioni. Diversamente, prese singolarmente queste fonti possono continuare ad offrirci un ottimo servizio all’interno dei rispettivi portali, ma unire 28
  29. 29. queste funzionalità significa vivere una diversa user experience come valida alternativa. Una sorta di mashup si può realizzare utilizzando i feed RSS, creando un sito web all’interno del quale vengono raccolti i feed RSS dei maggiori portali dedicati ad un argomento specifico. Il servizio più conosciuto e diffuso all’interno del mashup è quello offerto da Google Maps, per la consultazione di cartografia terrestre. La società di Mountain View ha catalogato e reso disponibili migliaia di foto scattate dai satelliti che permettono di osservare qualunque luogo del nostro pianeta con un’elevata qualità dell’immagine. Si tratta di un servizio interessante che non ha solo lo scopo ludico/didattico, ma offre anche opportunità di business per Google e i suoi fruitori. È una applicazione completamente gratuita che permette agli utenti di svilupparla, per integrare le mappe all’interno di altri siti web o nuovi servizi. Un’altra tecnica di aggregazione dei contenuti può essere applicata utilizzando le API, che permettono un controllo maggiore delle sorgenti delle informazioni e dei servizi tramite apposite funzionalità rese disponibili dai diversi gestori. API è l’acronimo di Application Program Interface, è un insieme di funzioni e procedure a basso livello rese disponibili da un programmatore che vengono 29
  30. 30. richiamate da un’applicazione esterna per svolgere un determinato compito. In parole povere sono delle procedure “aperte” di un software che consentono di essere manipolate in remoto, utilizzando parte del codice sorgente. Alcune API famose sono quelle disponibili con i sistemi operativi in grado di fornire agli sviluppatori gli strumenti per interagire con i sistemi operativi stessi. L’utilizzo delle API è una tecnica ormai consolidata negli anni, ma l’innovazione introdotta con il web 2.0 è rintracciabile in due elementi: • La semplificazione delle specifiche fornite, • La gratuità e libertà del loro utilizzo. Il primo elemento è servito per coinvolgere sempre più utenti nell’utilizzo di questa tecnica per implementare meglio soluzioni di mashup senza per forza essere dei programmatori esperti. La gratuità, invece è la prerogativa della maggior parte delle applicazioni web 2.0 30
  31. 31. 1.4 - Il software come piattaforma Nella definizione di Tim O’Reilly sul web 2.0 si è anche parlato di software come piattaforma. Questo concetto intende spiegare il cambiamento di utilizzo degli applicativi software così come siamo stati abituati a vederli. In passato i software venivano installati localmente sul PC, con il web 2.0 si è cercato invece di svincolare l’utente dall’utilizzo del proprio PC rendendo gestibili i software tramite apposite interfacce web. Non si lavora più solo localmente con i software installati sul proprio computer, ma su qualsiasi terminale che possa accedere online al server remoto. Il software diventa così un servizio fruibile tramite il web. “Gli elementi di novità sono il canale di comunicazione che diventa esclusivamente internet, e la distribuzione del software, non più come applicativo remoto, ma come piattaforma web, dove l’unico strumento locale necessario per il suo utilizzo è il browser” (Prati 2007, 131). Questo implica un chiaro cambiamento di come si entra in possesso di un software. Se prima gli utenti dovevano acquistare le licenze di utilizzo del software, ora si ricorre ad un abbonamento per il servizio. L’applicativo non si acquista più ma si “noleggia” per il tempo che serve usufruendo così del server del fornitore. Si tratta di una visione 31
  32. 32. che apre nuovi scenari sia per gli utenti , primi destinatari di questa tipologia di applicazione sia per le imprese ed il loro modo di lavorare e fare business. Ovviamente ogni cambiamento, seppur innovativo, porta con sé vantaggi ma anche svantaggi. I benefici di un’applicazione sul web gioveranno a chi necessita di una certa mobilità, riuscendo a lavorare su qualsiasi terminale anche fuori dal proprio ufficio. Diversamente le applicazioni installate sul PC funzioneranno esclusivamente su quel terminale. Inoltre sarà possibile lavorare contemporaneamente con più utenti senza interrompere la propria attività. Infine per quanto riguarda i lavori di manutenzione, il tutto verrà delegato alla società fornitrice del servizio che prenderà a carico mansioni come: aggiornamento del servizio e archiviazione di ogni documento salvato. Lo svantaggio più grande è che per loro natura questi applicativi lavorano esclusivamente online, qualora fosse assente la connessione sarebbe impossibile svolgere qualsiasi procedura. Il web 2.0 non ha portato dei cambiamenti solo in ambito tecnologico, ma anche e soprattutto in quello sociale. Grazie a questi nuovi strumenti si è modificato il modo di relazionarsi con la rete. Ogni singolo utente è il protagonista di questo cambiamento, grazie 32
  33. 33. al contributo delle proprie idee, progetti e contenuti. “Cala la fiducia verso i normali canali di marketing, fiducia che si riversa sempre più verso i propri pari, altri utenti che come noi acquistano prodotti di qualsiasi tipo e preferiscono il consiglio di una voce sconosciuta ma amica, che quello della pubblicità molte volte non veritiera” (Prati 2007, 147). Potenzialmente tutti possiamo diventare produttori di contenuti, siano questi documenti, foto, audio e video. Qualunque cosa viene prodotta fa parte del cosiddetto “User Generated Content” o UGC, termine che indica quei contenuti che vengono realizzati in maniera amatoriale. L’aumento del fenomeno dipende anche dalla maggiore semplificazione delle tecnologie che permettono sempre più di produrre il materiale. Inoltre dal punto di vista sociale, sempre più persone sentono la necessità di esprimersi e comunicare con la speranza di essere notati. È evidente come questa pratica si discosti nettamente dalla tradizionale produzione di contenuti, notizie e informazioni, riservata nel web 1.0 esclusivamente ai giornalisti e mass media. Oggi uno dei più famosi esempi di gestore di User Generated Content è YouTube, servizio della distribuzione gratuita di video online; dati statistici del gruppo Nielsen/NetRating valutano un traffico medio mensile di oltre 20 milioni di utenti sul sito. Inoltre attraverso l’utilizzo di semplici script, 33
  34. 34. che fanno riferimento alle API, è possibile integrare i video presenti su YouTube all’interno della pagina di un sito, blog o social network. Con il web 2.0 si sono aperte una serie di possibilità che continuano a svilupparsi, l’innovazione è il motore che spinge internet al continuo rinnovamento, per questo motivo si utilizza il termine di “perpetual beta". La filosofia introdotta dal web 2.0 vuole indicare il perenne stadio di sviluppo grazie al contributo di tutti. Secondo Tim O’Reilly gli utenti saranno considerati come co-sviluppatori dei servizi offerti dal web; in questo modo qualsiasi servizio potrebbe essere migliorato da tutti coloro che lo utilizzeranno, inoltreranno le osservazioni e lo modifiche diverranno spunto per utilizzi diversi, queste nuove basi serviranno per preparare l’ingresso a nuovi traguardi come il web semantico. 34
  35. 35. 1.5 - Primi passi verso il web 3.0 Come ogni rivoluzione, si cercherà ora di raffinare l’enorme cambiamento che ha portato il web 2.0: Il web 3.0 infatti, non sarà altro che un’evoluzione del suo predecessore. Mentre il web 2.0 nasce dalla fusione di due concetti: User Generated Content e Community, il web 3.011 contempla al suo interno una pluralità di applicazioni tecnologiche possibili: dalla trasformazione del web in un database che costituisce la prima realizzazione del web semantico, alla elaborazione di applicazioni di intelligenza artificiale per lo sviluppo di software che realizzino compiti con requisiti di intelligenza; si è parlato anche di web 3.0 come ambiente tridimensionale sulla base di esperienze maturate con Second Life12 . Ma in questo momento il motivo di maggior interesse per queste applicazioni riguarda il cosiddetto web semantico. In sostanza se il web 2.0 si è basato sulla connessione fra persone, il web 3.0 si baserà sulla connessione tra informazioni. “Con tale termine si intende fare riferimento alla trasformazione del web in un database, che renda accessibili le 11 Termine coniato da Tim Berners Lee, e ormai oggetto di diverse conferenze e congressi per il mondo. 12 E’ un mondo virtuale lanciato nel giugno del 2003 dalla società americana Linden Lab e nasce dalla visione del fondatore, il fisico Philip Rosedale. 35
  36. 36. informazioni in rete sulla base del loro contenuto informativo. Ciò presuppone la costruzione di un ambiente informatico, in cui i documenti prodotti ed immessi in rete (siano essi pagine web ipertestuali, immagini, file, ecc.) risultino classificati ed indicizzati sulla base d’informazioni (meta-dati)13 che ne specifichino il contenuto dal punto di vista semantico, vale a dire dal punto di vista dei significati contenuti, in modo tale da rendere il documento adatto all’interrogazione, all’interpretazione ed all’elaborazione” (Durante 2007, 139). Il Web 3.0 non sarà più un semplice contenitore di parole, immagini e filmati, ma un contenitore di concetti e conoscenze dotato di strumenti in grado di cercare con precisione, mettere in relazione, “capire” automaticamente il significato dei contenuti e di ragionare su di esso, estraendone informazioni. "Una delle migliori cose sul web è che ci sono tante cose differenti per tante persone differenti. Il Web Semantico che sta per venire moltiplicherà questa versatilità per mille...il fine ultimo del Web è di supportare e migliorare la nostra esistenza reticolare nel mondo»" (Tim Berners Lee)14 . 13 Metadato è l’informazione che descrive un insieme di dati. 14 è un informatico, co-inventore insieme a Robert Cailliau del World Wide Web. 36
  37. 37. Una definizione sicuramente interessante di web 3.0 è quella di Derrick Kerckhove, direttore del McLuhan Program dell’Università di Toronto, secondo il quale la rete del futuro funzionerà come il cervello umano. Sfruttando le capacità di due emisferi opposti e complementari, sarà possibile riprodurre in rete la bipolarità emisferica del nostro cervello. L’emisfero destro sarà la proiezione del web 2.0, sintetico e associativo, mentre il web semantico, analitico e preciso, coinciderà metaforicamente con l’emisfero sinistro.15 1.6 - Web 3.0 come web semantico Dopo l'invenzione del linguaggio XML16 impiegato in diverse applicazioni web 2.0, ora gli sforzi di ricerca si stanno concentrando sull’ impiego di tecnologie semantiche. Questo consentirebbe l'accumulazione delle informazioni e dei servizi per concetti invece che per parole chiave, come fanno attualmente i motori di ricerca; inoltre permetterebbe la completa automazione dei servizi. Molto spesso la ricerca di una parola sugli attuali motori non permette una 15 Articolo: Cattid, Università di Roma La Sapienza. http://tenenga.com/download/TECA02-02.pdf 16 Extensible Markup Language, , metalinguaggio utile allo scambio dei dati. 37
  38. 38. risposta contestualizzata, generando un “overload” ossia una serie di risultati in eccesso o risposte inutili. Per risolvere in parte a tale effetto viene in soccorso la "tecnologia semantica" che dà rilevanza al significato reale dei termini e considera il contesto in cui sono inseriti, consentendo una ricerca più precisa e riducendo le risposte ridondanti. L’intento sarà quello di rendere più trasparente il significato di un termine tramite la descrizione di tale contenuto semantico associato a una specifica occorrenza della parola, attraverso una ricerca di dati fondata sulla corrispondenza tra significati e non su quella tra parole. La descrizione del contenuto semantico è però affidato al piano sintattico, questo mette in evidenza il problema di come sia difficile ottenere una trasparenza semantica senza tener conto dei contesti impliciti. Una soluzione possibile sarebbe il ricorso ai sistemi di intelligenza artificiale, che cercano di simulare l’esperienza dell’interprete. Un’altra opzione riguarda il processo di perfezionamento dei linguaggi di marcatura del documento, volti a costruire meta-dati capaci di esprimere non solo i dati ma anche le relazioni tra essi. “Lo sviluppo del web è volto a definire la costruzione di un database che renda accessibile non solo i significati ma anche la relazione tra significati, evidentemente non in quanto tali, ma in quanto relazioni tra classi, le quali 38
  39. 39. costituiscono la base di conoscenza processabile per elaborare programmi informatici che utilizzino meccanismi inferenziali di reperimento delle informazioni”(Durante 2007, 142). Si tratta di una visione completamente nuova nel web che pone un grande interrogativo: Internet continuerà a spingersi verso una logica di decentramento? Vi sono alcuni aspetti che fanno propendere verso una logica decentrata, basata sul concetto che ognuno, ogni creatore di contenuti può determinare una propria ontologia delle informazioni. Ma il web semantico richiede però la definizione di linguaggi semi-strutturati per consentire l'accumulazione, cioè dei linguaggi preimpostati dai professionisti del settore, quindi questo non sembra dirigersi verso una logica decentrata. Ciò non toglie che, in questo momento, per un buon funzionamento del meccanismo di descrizione il significato debba essere collegato a un contesto di riferimento, così da rendere coerente l’interpretazione del termine da parte dell’intelligenza artificiale con quella dell’utente. A tal fine vengono impiegati sistemi di OSM (Ontology Systems Management) che possono utilizzare diversi linguaggi standard, come l'RDF (Resource Description Framework) o l'OWL (Web Ontology Language) che consentono nuovi costrutti. Con OWL è possibile scrivere delle ontologie che descrivono la conoscenza che abbiamo 39
  40. 40. di un certo dominio, tramite classi, relazioni fra classi e individui appartenenti a classi. Il linguaggio Rdf fa una cosa semplice: rappresenta significati associando alcune risorse identificabili sul web con dei valori. Il progetto pubblico più strutturato per raggiungere questo obiettivo all’interno del web è quello che va sotto il nome di Web semantico (promosso dal W3C17 , che vi lavora da oltre 10 anni. Da questo punto di vista il web 3.0 si configura più come una innovazione tecnologica che sociale rispetto al suo predecessore, inoltre la potenza del web 2.0 riguardava la produzione orizzontale da parte di tutti gli utenti, al contrario il web 3.0 prevede un ritorno all’approccio top-down: dove poche persone competenti creeranno le ontologie, cioè quelle strutture che saranno in grado di rendere comprensibili le informazioni ai computer. In parte questo è giustificato dall’immenso lavoro che richiederà riscrivere il web in chiave semantica, ma dalle prime applicazioni realizzate l’utente non pare ricoprire un ruolo del tutto passivo. Per esempio l’Università dell’Essex si occupa di un progetto che richiede la piena collaborazione degli utenti per realizzare il web semantico, 17 l’ente internazionale che si occupa di standardizzare le tecnologie utilizzate nel Web. È diretto da Tim Berners-Lee. 40
  41. 41. rispettando la filosofia di condivisione e partecipazione del web 2.0. Il progetto si chiama Phrase Detective e ha il compito di creare risorse annotate nel web, ossia di inserire i meta-dati ai contenuti di internet. L’Università dell’Essex ha rivolto l’invito a tutti gli amanti della lingua, della linguistica e della grammatica per realizzare questo lavoro sperimentale, inoltre per chi fornirà costantemente questo servizio sarà prevista una ricompensa in denaro. L’attività consiste nella ricerca di anafore18 e di coreferenze19 nei testi di lingua inglese presi per la maggior parte da Wikipedia. Altri esempi di applicazioni semantiche vengono offerti da Yahoo e Google, che stanno realizzando i nuovi motori di ricerca. Yahoo ha intenzione di rendere accessibile il suo motore di ricerca a terze parti, affinché gli utenti possano inserire informazioni utili alla ricerca semantica. Il nome di questo nuovo progetto sull’Open Search è "Search Monkey", si tratta di una iniziativa che l’azienda di Sunnyvale ritiene utile per realizzare i motori di ricerca della prossima generazione. Gli utenti però non potranno alterare i SERP20 di Yahoo, ma soltanto integrarvi delle informazioni aggiuntive come: foto, indirizzi e link 18 tecnica linguistica che consiste nel riferirsi ad una parte di testo in genere precedentemente espressa, specialmente di un pronome. 19 si intende un rapporto di identità referenziale tra un antecedente e un pronome. 20 la locuzione inglese search engine results page (abbreviata in SERP) significa "pagina dei risultati del motore di ricerca". 41
  42. 42. correlati. In qualità di piattaforma aperta Yahoo renderà disponibili le API che permetteranno agli sviluppatori di creare dei feeds RSS strutturati contenenti meta-dati . Anche google propone nuove soluzioni di ricerca in linea con il web 3.0, ancora in via sperimentale, studia un nuovo metodo chiamato “Wonder Wheel”, ovvero ricerca guidata. Dopo aver utilizzato questo motore è possibile selezionare il tasto option che abilita la ricerca temporale, la suddivisione dei risultati, le immagini o video e infine le recensioni. Con questo tipo di ricerca l’utente trova maggiori informazioni, inoltre google offre anche degli snippets21 . Questi rappresentano i primi passi verso la ricerca semantica, ma il web di prossima generazione fornirà risposte a domande articolate dell’utente. Il motore di ricerca, infatti, non passerà più al setaccio interi portali suddivisi per argomenti, ma chiederà semplicemente quello che si vuole sapere, restituendo risposte che valutano il contesto e il significato dell’oggetto richiesto. Da questi esempi, l’entrata del web 3.0 non significherà rinunciare allo spirito collaborativo del web 2.0, ma integrare invece tutte quelle funzioni non solo per quanto riguarda la loro struttura, bensì anche a livello di contenuti. Grazie alle tecnologie semantiche, tutto il sapere sarà 21 Frammenti ed esempi di codice sorgente di un software. 42
  43. 43. rappresentabile in maniera digitale, in modo tale che anche le macchine possano “comprenderlo”. I computer effettueranno ricerche di contenuti su fonti diverse per poi interpretarli, elaborarli e ricomporli in modo sensato. Se i sistemi vengono utilizzati con una certa frequenza, possono anche “apprendere” automaticamente nuovi concetti non programmati dallo sviluppatore. 43
  44. 44. 1.7 - Requisiti del web 3.0 In questa maniera il web 3.0 si configura come una serie di macchine in grado prima di analizzare contenuti e informazioni grazie a tags e linguaggi comuni e poi in grado di comunicare da sole e di effettuare transazioni fra di loro in maniera autonoma e sequenziale. Complici di questo cambiamento saranno i dispositivi mobile, che spingeranno il web sempre più verso l’ubiquità. Il poter essere sempre collegati diventa nell’immediato futuro un requisito fondamentale. In considerazione di queste premesse si possono isolare alcune caratteristiche del web 3.0: • Ubiquità • Identità • Connessione 44
  45. 45. Ubiquità: Le reti ubiquitarie sono uno degli elementi principali del "Future Internet" in quanto garantiscono agli utenti l’accesso ai servizi ovunque essi siano e sempre, senza bisogno di infrastrutture di rete pre-esistenti. I dispositivi come: telefoni cellulari, palmari, lettori musicali, ecc. non solo saranno connessi alla rete per accedere all’informazione ma saranno parte integrante della rete stessa e fornitori, essi stessi, di contenuti e servizi. Il web 3.0 sarà un web che spedirà e non risponderà e basta; si baserà sul concetto del “Deliver” contrapposto a quello del “Query + Report. Il web 3.0 ha bisogno di Ubiquità, perché avrà come oggetto principale le attività e non più i dati. Identità: Il web 3.0 non sarà più anonimo, ma sarà espresso ed esplicito. L’anonimato in rete, in passato considerato un vantaggio, si sta dimostrando un limite e una peculiarità scarsamente efficace ed efficiente. Già con il web 2.0 l’utente è diventato protagonista, grazie al contributo dei suoi contenuti; con il web 3.0 ci sarà un maggior bisogno di identità, per continuare a condividere i nostri contenuti che nel futuro verranno prodotti con maggior frequenza. 45
  46. 46. Connessione: Il web 3.0 avrà senso solo con l’avvento della diffusione capillare della rete, ormai considerata risorsa fondamentale, perché già nel web2.0 si è dimostrato come il collegamento in rete abbia sviluppato quei principi come la collaborazione e condivisione, dove il piccolo contributo di ognuno è servito per creare delle macro realtà in rete. Nel web 3.0 e con la connessione diffusa tutto questo crescerà esponenzialmente grazie a tutti i dispositivi mobile che potranno raccogliere informazioni in qualsiasi momento e con la stessa facilità trasferirli in rete. A tal proposito nell’ottobre 2008 la Commissione Europea ha aperto una seduta di consultazione, sulle politiche da adottare nei prossimi anni per sviluppare al meglio queste tecnologie. Secondo Viviane Reding, commissaria per la Società dell'informazione e i media, "Web 3.0 significa potersi dedicare ad attività commerciali, sociali e ricreative in qualsiasi momento e in qualsiasi luogo senza soluzioni di continuità, grazie a reti veloci e affidabili". "Il web 3.0 continua la Reding, mette fine alla divisione tra linee fisse e mobili e rappresenta un enorme balzo in avanti dell'universo digitale, che, da qui al 2015, vedrà duplicata la sua scala”. A testimonianza di ciò, è possibile osservare che di recente, 46
  47. 47. nell’ambito dello scontro istituzionale sulla cosiddetta “dottrina Sarkozy” relativa al file-sharing, il Consiglio costituzionale francese ispirandosi alla Dichiarazione dei diritti dell’uomo del 1789 ha stabilito che la connessione a Internet deve essere considerata un diritto fondamentale del cittadino, e dunque a tutti gli effetti inalienabile22 . 22 Michele Iaselli, Francia: la connessione ad Internet è un diritto fondamentale, vanificata la legge contro il peer to peer, in www.blogcatalog.com/blog/michele-iaselli, 10/06/09 47
  48. 48. 1.8 - Verso l’internet delle cose Tra gli aspetti più interessanti dell’immediato futuro vi è una nuova visione che riguarda l’architettura dell’informazione: trovare degli spazi informativi condivisi nella loro totalità, sia digitali sia fisici. L’architettura dell’informazione si pone in tal senso come leva del web 3.0 dove fisico e digitale sono intimamente connessi. Con questa premessa si può finalmente parlare di “internet delle cose”, ossia un altro obiettivo del web 3.0 assieme al web semantico. Il primo a coniare il termine di “internet of things” è stato lo scrittore Bruce Sterling nel suo libro “La Forma del Futuro” dove parla di fenomeni come Radio Frequency Identification (RFId) che danno vita al cosiddetto Internet delle cose. “Il concetto di web 3.0 è basato sulla definizione di un’ontologia delle informazioni che ben si sposa con quello di Internet delle cose, in cui la connessione e il flusso di informazioni raggiungono capillarmente gli oggetti più piccoli e apparentemente meno intelligenti” (Ernesto Hofmann 2005, 50)23 . Nell’Internet della prossima generazione non saranno interconnessi soltanto computer, ma anche oggetti d’uso quotidiano e prodotti industriali, il mondo virtuale e quello reale saranno perfettamente integrati. In alcuni ambiti domestici ad esempio, se pensiamo alla 23 Rivista: Tendenze, gennaio-febbraio 2005 48
  49. 49. possibilità di programmare a distanza, tramite il cellulare, gli apparecchi elettrici della nostra abitazione. Simili applicazioni sono già praticabili, ma ancora molto rudimentali nelle loro possibilità di comunicazione. Ovviamente, non tutti gli oggetti avranno le stesse capacità. La diversità sarà dovuta principalmente alle differenti potenzialità di calcolo, di durata delle batterie e di connettività. Da alcuni anni esiste la tecnologia RFId (Radio Frequency Identification), basata su micro-chip dotati di microantenne, denominati transponder. Questi in modo analogo ai codici a barre, possono essere inseriti in oggetti e successivamente letti o aggiornati da un sistema informativo senza intervento diretto di una persona. La tecnologia RFId si presta in modo ideale per fornire il mezzo di trasmissione delle informazioni. L’assenza di requisiti di alimentazione, di linea, di vista e le esigue dimensioni dell’etichetta stessa fanno sì che la soluzione possa essere implementata facilmente e quasi ovunque. Per ora la tecnologia RFId è stata utilizzata da alcune aziende per svolgere il “tracking” dei prodotti all’interno dei loro centri di distribuzione. In un ambiente come quello del web di terza generazione, questa stessa tecnologia rappresenterà l’entità che gestirà quella moltitudine di 49
  50. 50. informazioni, che si occuperà di capire a quale oggetto corrisponde il rispettivo identificativo, gli eventuali attributi e gli eventi generati. “Lo scenario finale generato dalla convergenza nel web 3.0 dell’Internet delle cose sarà allora in grado di coniugare informazioni complesse, rilevate da reti di sensori dotati di una primitiva intelligenza artificiale, con informazioni a loro volta complesse, derivate dai livelli superiori del web, dando la possibilità all’utente di approfondire in maniera fluida e quasi impercettibile la sua conoscenza dell’ambiente circostante. I campi applicativi che potrebbero beneficiare di questa integrazione sono molteplici e variati: dalla sanità all’educazione, dalla difesa all’asset tracking”24 . 24 Articolo: Cattid, Università di Roma La Sapienza. http://tenenga.com/download/TECA02-02.pdf 50
  51. 51. Cap II - Web semantico 2.1 - Potenzialità della semantica Il web, così come lo conosciamo, è costituito da un vastissimo universo di informazioni disponibili in diversi formati: testuali, video, audio, immagini; inoltre quasi ogni singola voce è tradotta in tutte le lingue. Questo enorme database, fino ad oggi, è stato funzionale solo per le persone e non per le macchine che leggono le informazioni semplicemente come sequenze di bit, prive di significato. Proprio la semantica costituirà il valore aggiunto del prossimo web, ossia la possibilità di mettere in relazione di significato tutti i contenuti pubblicati sulla rete, permettendo alle macchine di interpretare i dati oltre che leggerli. L’idea di fornire internet di capacità interpretativa e logico-relazionale è stato, da sempre, uno dei desideri del suo fondatore. T.Berners Lee aveva già delineato tutto questo in un articolo del 1998: "Il web fu disegnato come uno spazio di informazioni, con l'obiettivo di essere utile non solo per la comunicazione uomo-uomo, ma affinché anche le macchine potessero avere la possibilità di partecipare e dare il loro 51
  52. 52. contributo. Uno dei maggiori ostacoli è stato il fatto che la maggior parte dell'informazione sul web è disegnata per essere fruita dall'uomo (...), la struttura dei dati non è riconoscibile per un robot che naviga il web. (...) L'approccio del web semantico, invece, sviluppa linguaggi per esprimere le informazioni in una forma accessibile e processabile da una macchina"25 . Il concetto di web semantico era quindi già previsto, ma oggi nasce come necessità per estendere le capacità attuali, in modo da favorire lo scambio di informazioni oltre che tra esseri umani anche tra software. Grazie a questa funzione, la relazione tra testi e parole non si baserà più sul solo legame sintattico, ma sarà fondamentale il loro significato. Il progetto di un web semantico è in piena fase di sperimentazione, iniziano a diffondersi alcune applicazioni che rappresentano il primo passo verso l’obiettivo finale: trasformare internet in uno strumento “intelligente”, capace di offrire aiuto concreto all’essere umano. Sulla base di queste premesse, in questo capitolo verranno analizzate alcune applicazioni web 3.0 in ambito semantico, per procedere correttamente in questa procedura si farà ricorso alla pratica del benchmark, ossia una tecnica di indagine sulle applicazioni o servizi simili al caso studio. 25 http://www.w3.org/DesignIssues/Semantic.html 52
  53. 53. 2.2 - Benchmark applicazioni semantiche web 3.0 Questo lavoro sarà utile per conoscere il contesto esistente della materia presa in esame, sarà quindi un approccio di ricerca volto a permettere un primo confronto dell’offerta esistente sul mercato di un determinato servizio. Nello specifico questo lavoro di benchmark si propone di analizzare alcune delle applicazioni semantiche dell’attuale panorama web 3.0. I primi progetti volti a sfruttare le potenzialità del web semantico sono stati i motori di ricerca, a differenza dei tradizionali engine che restituiscono una lista di pagine web, le nuove applicazioni semantiche tentano di restituire delle risposte corrette alle query26 degli utenti, mettendo in relazione semantica le informazioni del database. Il primo vantaggio di questo tipo di tecnologia consentirà un’interazione più immediata e naturale tra uomo e macchina: le risposte possono infatti essere restituite come frasi semplici, migliorando i tempi di ricerca e la qualità delle informazioni. Tuttavia, queste soluzioni di ricerca sono nella prima fase di sviluppo e sarà importante capire e soprattutto prevedere quali vantaggi comporterebbe un mashup di queste applicazioni. Nell’imminente futuro i dati potranno essere letti, interpretati, 26 Il termine query, in informatica viene utilizzato per indicare l'interrogazione di un database. 53
  54. 54. modificati, condivisi, combinati indipendentemente dal luogo in cui si trovano e dalla forma in cui sono pubblicati. Significa dotare il web di un'enorme intelligenza collettiva che potrà essere usata in migliaia di modi diversi. “Se il web fosse in grado di comprendere il significato dei contenuti di una pagina, potrebbe accettare domande come: “Qual è il più piccolo hotel per famiglie a Roma che costa meno di 150 euro?” e fornire un’unica risposta, quella giusta. Una tale capacità permetterebbe poi di creare una nuova generazione di applicazioni web. Ad esempio, un servizio in grado non solo di verificare il prezzo di una stanza doppia di un hotel 3 stelle situato in una certa località, ma anche di prenotare automaticamente quello più economico e più vicino ai luoghi che si desiderano visitare”( Francesco Caccavella 2009, 100)27 . Nelle prossime pagine, saranno presentati alcuni servizi semantici che hanno il web come contesto di utilizzo, in questa maniera si potrà offrire un esempio di come la semantica possa semplificare e rendere più utile la raccolta, la gestione e il riutilizzo delle informazioni. 27 Rivista PC professionale: http://www.pcprofessionale.it/stappro61/uploads/2009/10/pc- professionale-maggio-2009-il-web-semantico.pdf 54
  55. 55. 2.3 - Powerset:http://www.powerset.com Tra le applicazioni semantiche del web 3.0, Powerset 28 costituisce uno degli sforzi più promettenti nel trasformare le idee sulla ricerca semantica. A differenza dei tradizionali motori di ricerca, invece che setacciare il testo per individuare le corrispondenze dei termini presi singolarmente o in gruppo, l'engine è pensato per rispondere a domande formulate in un inglese semplice. Powerset infatti effettua una ricerca di tipo semantico elaborando delle richieste in “linguaggio naturale”. Questo servizio intende migliorare il modo di trovare le informazioni, estrapolando il significato dall’ordinario linguaggio umano. Attualmente il motore offre il solo supporto nella versione inglese dell’enciclopedia online Wikipedia, aggiungendo informazioni estrapolate dal database di Freebase, ma in prospettiva 28 Società fondata a San Francisco nel 2005 è stata acquistata da Microsoft nel 2008. 55
  56. 56. è previsto un ampliamento delle ricerche ad altre importanti risorse presenti in rete. Powerset presenta nella homepage una vistosa casella all'interno della quale effettuare la propria ricerca, ma è l'approccio con lo strumento ciò che veramente lo contraddistingue: anziché inserire semplici parole chiave o loro combinazioni, l'utente può inserire delle vere e proprie frasi, digitando semplicemente le domande alle quali si desidera avere risposta. Nella pagina dei risultati di ricerca, Powerset fornisce le risposte alle domande direttamente, e aggrega le informazioni provenienti da altri articoli. La pagina dei risultati delle ricerche non si limita a fornire le informazioni richieste, ma offre diverse modalità attraverso le quali risalire facilmente a tutti i dati disponibili sull'argomento. La parte superiore presenta normalmente informazioni sintetiche estrapolate da Freebase, un database aperto relativo ad informazioni provenienti da tutto il mondo, mentre al di sotto vengono presentati alcune “anteprime” estrapolate da Wikipedia. Nella lista dei vari articoli appaiono delle parole evidenziate in giallo che secondo il motore di ricerca sono collegate semanticamente all’argomento. La parte inferiore presenta i risultati delle ricerche che combaciano con la query effettuata. Cliccando sulla freccia posta a sinistra delle diverse 56
  57. 57. voci appare un Miniviewer29 in grado di offrire una anteprima dell'articolo presente all'interno dell'enciclopedia libera, senza dover lasciare la pagina dei risultati. La novità sta nel non indicizzare semplicemente le pagine in un'ottica di parole chiave, ma cerca altresì di interpretarne i contenuti. Con Powerset, in maniera ancora molto semplice, si può quasi "chiacchierare" come fosse un sistema esperto dotato di un minimo di senno, capace di interpretare, comprendere e rispondere alle richieste. Per esempio se inseriamo la domanda: “Which is the longest river in the world?” (Qual è il fiume più lungo del mondo?), avremo come risposta un articolo che parla dei fiumi più lunghi del mondo, dove il Nilo occupa il primo posto; oppure avremo degli articoli che in maniera più dettagliata parlano del fiume Nilo in questione. Powerset mette in mostra come la tecnologia semantica non solo migliori i risultati delle ricerche, ma offra anche nuovi modi di aggregare, riassumere o integrare le informazioni. Un ambito in particolare si gioverebbe dei servigi di Powerset, in questo caso potrebbe essere un valido sostituto dei CMS30 , spesso 29 Anteprima fotografica. 30 Content Management System (CMS). Sistema di Gestione dei Contenuti. 57
  58. 58. incapaci ad aiutare nel concreto nella ricerca tra enormi campi di informazione come: e-mail, documenti e database. 58
  59. 59. 2.4 - True Knowledge: http://www.trueknowledge.com/ Un altro esempio basato sul sistema “Question Answering31 ” è True Knowledge. Si tratta di una start-up inglese che cerca di evolversi in un vero e proprio “answer engine”, ovvero un motore di risposte più che un classico motore di ricerca. Come Powerset è un progetto per le ricerche online da condurre in linguaggio naturale, grazie a un proprio database strutturato di conoscenze arricchito dai contributi e dalle correzioni degli utenti. La sua particolarità fondamentale risiede nell’interazione degli utenti, che possono contribuire ad editare la Knowledge Base 32 integrata nel sistema con nuovi input. Nella sezione “Teach True Knowledge” è possibile aggiungere 31 Sistema di “domanda e risposta” 32 Archivio di True Knowledge. 59
  60. 60. manualmente informazioni o intere voci mancanti, confermare o smentire i singoli fatti a cui si fa riferimento e inserire delle immagini. Lo scorso anno, Marco Varone ha pubblicato un articolo del sole 24 ore33 a proposito di True Knowledge: “…Solo tre delle cinquanta domande ottengono una risposta corretta (mentre una quarta è così così) con una percentuale di risposta attorno al 7%. Visto che la maggior parte delle domande sono piuttosto semplici (un esempio è "Who has won a nobel prize for chemistry in 1999"), mi aspettavo francamente qualcosa di meglio (per la domanda citata, Google fornisce la risposta come primo link dei risultati): è vero che si tratta di una versione beta ma anche piccole variazioni delle domande suggerite da loro spesso non rispondono correttamente, facendo sorgere molti dubbi sulla solidità dell'approccio e sulla sua applicabilità a domande reali”. Sicuramente la tecnologia è da perfezionarsi, ma le premesse sembrano interessanti per eventuali sviluppi, se poi teniamo conto dell’attuale fase pionieristica di studio. Purtroppo anche True Knowledge nonostante consenta la collaborazione degli utenti per ora è disponibile solo in lingua inglese. Un altro particolare che ho notato riguarda la sensibilità semantica di True Knowledge rispetto a Powerset, il primo esige una 33 http://marcovarone.nova100.ilsole24ore.com/2009/09/true-knowledge.html 60
  61. 61. maggior precisione lessicale per ottenere una risposta, basta infatti sbagliare un articolo per compromettere il processo di riconoscimento semantico. 61
  62. 62. 2.5 - Hakia: http://www.hakia.com/ Hakia è un altro esempio di motore di ricerca semantico che si occupa di analizzare le pagine web per poi estrarre le possibili query. Graficamente la homepage di Hakia si presenta come un sito dai colori chiari, molto semplice dove compaiono solo il logo blu e la casella di ricerca. In generale, Hakia effettua delle analisi morfologiche e sintattiche, prende in considerazione anche l’autorevolezza della fonte attraverso l’età della pagina web. I risultati vengono visualizzati in diversi modi: per parole singole particolarmente importanti o per i nomi di celebrità, questi vengono raggruppati in sezioni che cercano di offrire un quadro completo dell’argomento oggetto di ricerca. In altri casi il motore di ricerca riesce a identificare sinonimi e modi di dire, risalendo al significato o 62
  63. 63. alla parola effettivamente ricercata. Per il momento il motore funziona solo con la lingua inglese ma si stanno costruendo ontologie anche per altre lingue. La parte più interessante del progetto consiste nel fatto che tutti i visitatori possono contribuire registrandosi gratuitamente e segnalando il loro sito o altre le fonti. Una volta immesso il termine da ricercare si otterrà come risultato una pagina con dei contenuti e proposte di approfondimento suddivisa in più blocchi: Il primo a sinistra riporta i risultati di altre pagine web collegate semanticamente alla ricerca. La parte centrale è suddivisa in cinque blocchi: • Siti credibili, ossia quelle fonti scelte attraverso un criterio basato sulla segnalazione di contenuti da parte di biblioteche ed altri enti, • Pubmed, è un database bibliografico contenente informazioni sulla letteratura scientifica, • News, dove sono contenuti gli ultimi aggiornamenti sul tema di interesse, 63
  64. 64. • Blogs, il motore di ricerca semantico estrapola da diversi blog i contenuti attinenti al contesto di ricerca, • Immagini e video pubblicati dagli utenti. Oltre ai motori di ricerca esistono altre applicazioni legate alle funzioni semantiche del web 3.0, queste permettono per esempio di inserire o estrapolare i meta-dati delle pagine web arricchendo di significati semantici i contenuti pubblicati. 64
  65. 65. 2.6 - Calais: http://www.opencalais.com/ Questo service web 3.0 si propone di fornire una base di sviluppo semplice e versatile per costruire applicazioni in grado di aggiungere ai contenuti del web un livello di meta-dati semantici, più specificamente consente di aggiungere la semantica ai contenuti testuali mediante la generazione di meta-dati, così da descriverli in maniera intellegibile da altre applicazioni semantiche. Calais, previa registrazione gratuita, permette ai propri utenti di inserire dei documenti in diversi formati, anche pagine in HTML, per poi esaminarne i contenuti attraverso un’elaborazione condotta sul linguaggio naturale; successivamente estrapola le informazioni strutturate nel testo, riconoscendo persone, organizzazioni, luoghi, 65
  66. 66. fatti ed eventi che sono menzionati. Queste informazioni verranno poi trasformate in meta-dati scritti in formato Rdf, cioè in dati descrittivi per ogni singola voce semantica riconosciuta nel testo. In questa maniera il documento avrà un codice univo di identificazione detto GUID34 che permetterà a qualunque applicazione semantica conforme agli standard Rdf di leggere e comprendere questi meta- dati. Gli scopi di questo servizio gratuito saranno molteplici dato che Calais consente di creare mappe di collegamento tra: documenti web, persone, aziende, luoghi, prodotti e eventi. Attraverso le tecniche di tagging di contenuti, folksonomie, e filtraggio di feeds RSS, tali mappe potranno altresì essere condivise con altri utenti per ulteriori finalità. 34 Globally Unique Identifier 66
  67. 67. 2.7 - Cogito:http://www.expertsystem.it/ Cogito è un prodotto dell’azienda italiana Expert system, questo software è capace di cogliere il significato delle parole e analizzare qualsiasi tipo di testo: file, mail, articoli, blog, pagine web e addirittura sms impiegando un approccio semantico. Compiere il benchmark di questo servizio è stato alquanto difficoltoso perché la homepage appare ridondante di informazioni, inoltre l’applicazione risulta essere ancora in fase beta, ma consente delle procedure dimostrative che risultano interessanti. La rilevanza di questo servizio risiede nelle opportunità pratiche di utilizzo per le aziende, infatti la funzione Cogito Monitor consente per esempio di esaminare in un determinato periodo l’opinione dei consumatori su un 67
  68. 68. determinato prodotto, raccogliendo le informazioni sulle scelte dei clienti per tracciare meglio una strategia di marketing. Un altro servizio chiamato Cogito Answers (sul sito è disponibile la demo) permette una gestione più agevole del customer care, ossia il servizio di assistenza con cui un’azienda presta attenzione alle richieste dei propri clienti. In pratica, il sistema permette a un’organizzazione di interagire con i propri clienti attraverso il cellulare (chiamate e/o sms), mail e forum. Cogito Answers dopo aver raccolto i dati provenienti da queste diverse fonti sarà poi in grado di tracciare delle informazioni semantiche creando così delle risposte pertinenti alle richieste del cliente. Un terzo servizio si chiama Semantic Advertiser e permette di esaminare il senso delle pagine e di assegnare ad ognuna il giusto messaggio pubblicitario. Cogito rappresenta una interessante alternativa agli strumenti tradizionali, grazie alla capacità di comprensione automatica dei significati offre la possibilità di gestire una grande quantità di informazioni, rivelandosi cosi una risorsa strategica per le aziende del futuro. 68
  69. 69. 2.8 - Freebase: http://www.freebase.com/ Freebase è un’applicazione che riesce a coniugare al meglio la filosofia del web 2.0 con la tecnologia semantica del web 3.0. Questo progetto, sviluppato dalla start-up californiana Metaweb, rappresenta il più grande database esistente sul web. Al suo interno sono contenute più di 4 milioni di voci ( il doppio di Wikipedia). Nonostante i due servizi possano avere alcune analogie, la caratteristica principale di Freebase riguarda proprio l’ambito semantico. I suoi contenuti, infatti, non sono compilati soltanto dai propri utenti, ma la maggior parte del lavoro è svolto dal suo algoritmo che assimila automaticamente le informazioni presenti sul 69
  70. 70. web, come per esempio: Wikipedia, Flickr35 e Music Brainz36 per poi riordinarle semanticamente nei propri contenuti. In pratica tutti questi dati vengono setacciati dall’applicazione semantica che li classifica secondo criteri pertinenti e li collega in relazione tra loro. Il risultato è un enorme contenitore di informazioni strutturate, create in maniera del tutto automatica. In più, grazie alle Api messe a disposizione dal progetto, tutti gli sviluppatori possono costruire applicazioni e attingere ai dati di Freebase, tutte le voci inoltre sono coperte da licenza Creative Commons37 . 35 Sito di condivisione delle fotografie personali 36 Enciclopedia online della musica a contenuto aperto. 37 Licenze di diritto d'autore che si basano sul principio del "alcuni diritti riservati". 70
  71. 71. 2.9 - Tripit: http://www.tripit.com/ TripIt è una applicazione dedicata al mondo dei viaggi, in pratica consente ai propri utenti di aggiornarsi tempestivamente con tutte le informazioni pertinenti dalla partenza sino al rientro. Per il momento il pacchetto completo dei suoi servizi è riservato ai soli abbonati per 69 dollari l’anno. Dopo aver effettuato la registrazione sarà possibile inserire le informazioni base del viaggio, dopodiché il sistema in base ai dati inseriti provvederà automaticamente a creare il vostro itinerario. La forza di questa applicazione semantica riguarda la capacità di stabilire relazioni significative fra più risorse differenti. TripIt una volta ottenute le informazioni semantiche aggiorna i propri utenti con: mappe, informazioni meteo, note turistiche ed eventi; il tutto ricavato dal web senza nessun intervento da parte del 71
  72. 72. navigatore. Inoltre il servizio prevede degli aggiornamenti per tenere conto di scioperi dei mezzi pubblici e feste locali. Schematicamente le principali funzionalità della piattaforma sono: • effettuare il check-in online, • informazioni sulla cancellazione del volo o ritardi, • possibilità di sapere se qualcuno nel vostro network di amici TripIt si trova nella stessa città nei giorni in cui ci siete anche voi, • ricevere suggerimenti e note da vostri amici circa luoghi da visitare, • avere un calendario ben organizzato con tutte le attività previste, • avere un documento stampabile riassuntivo con tutti i dati realmente necessari concentrati in una pagina, • uno strumento per informare in automatico amici e parenti del proprio arrivo nel luogo di destinazione, • gestire e tenere sotto controllo le spese (molto utile per i viaggi di lavoro), • poter effettuare uno sharing del viaggio su LinkedIn o sul vostro blog e altri social media, 72
  73. 73. 2.10 - Swotti: www.swotti.com Questo servizio mette la tecnologia semantica a disposizione dell’utente per agevolarlo in situazioni pratiche e concrete come quella del viaggio. Poter avere sempre la situazione sotto controllo, grazie agli aggiornamenti e i consigli del sistema costituisce sicuramente un valido aiuto per il viaggiatore. Per quanto riguarda alcune funzioni c’è da porsi l’interrogativo sé e quanto queste possano generare problemi in ambito di privacy. Swotti è un'applicazione web che con l'ausilio di un motore semantico (funziona in inglese e spagnolo), permette di fare ricerche comparate su alcuni prodotti, beni o servizi prima di procedere all'acquisto. Attraverso questo servizio 3.0 è possibile cercare e leggere le tantissime opinioni espresse dagli utenti sul web. Tutti i dati sono 73
  74. 74. estratti automaticamente dai forum, blog e siti per essere poi elaborati dal motore semantico, che individua i giudizi o le impressioni. Per ogni prodotto viene creato un indice di gradimento che mostra gli aspetti migliori e peggiori dell'oggetto cercato. Questo servizio fornisce un certo spessore alle pubblicazioni dei blogger, contenuti spesso privi di faziosità tipiche della pubblicità tradizionale, gli utenti in questo modo possono davvero ottenere informazioni obiettive sul prodotto desiderato in modo semplice e veloce. Una volta realizzata la ricerca, Swotti propone all'utente una serie di informazioni che quest’ultimo valuterà in base alle proprie esigenze. Sulla sinistra dello schermo vengono presentati due grafici con una lista di parole che definiscono il prodotto o l’azienda in questione: il 74
  75. 75. grafico a torta mostra la percentuale delle volte in cui la parola ricercata viene nominata all’interno dei blog, mentre il secondo grafico mostra quanto il prodotto è considerato positivo o negativo in relazione ai risultati del primo grafico. Nel lato destro della pagina viene visualizzato l’elenco dei siti in cui compare la parola ricercata, indicando con un diverso colore gli aggettivi che definiscono l’oggetto in senso negativo o in senso positivo. Il servizio è ancora nella sua fase beta, infatti a volte il sito non funziona correttamente e genere degli errori. 75
  76. 76. 2.11 Boorah: www.boorah.com Boorah rappresenta un interessante servizio semantico che può migliore una pratica comune come quella di cercare un ristorante. Il principio di ricerca è simile a Swotti, ma in particolare Boorah si concentra appunto sulla ristorazione. Il servizio analizza le opinioni espresse nei blog o le recensioni condotte da professionisti su ristoranti, pizzerie e tavole calde; successivamente il servizio interpreta tutti questi dati per aiutare l’utente a scegliere il miglior posto dove poter mangiare. La ricerca è molto semplice, basta inserire il tipo di ristorante o il tipo di cucina che interessa (pizzeria, ristorante etnico) e il luogo in cui si intende mangiare, per poi ricevere una lista di ristoranti ordinata in base ai commenti positivi 76
  77. 77. dove vengono mostrate le percentuali di preferenza. Per ogni ristorante vengono fornite le opinioni raccolte sul servizio, sul cibo e sull’ambiente oltre che dati logistici e l’elenco delle recensioni dei siti esterni. Attualmente il sistema estrae solo un numero limitato di dati, perché il servizio è attivo solo in poche città degli Stati Uniti. Se un futuro sviluppo porterà un suo utilizzo su scala globale, Boorah offrirà sicuramente una interessante applicazione che sfrutta la tecnologia semantica e la collaborazione degli utenti per risolvere problemi pratici e comuni. 77
  78. 78. 2.12 - Twine: http://www.twine.com Twine è una delle applicazioni 3.0 attualmente più diffuse, questo strumento permette la raccolta e la condivisione dei contenuti sparsi sul web attraverso una logica di catalogazione semantica. In pratica Twine costruisce una rete di riferimenti e informazioni attorno agli interessi dell’utente, facilitandone l’esplorazione e suggerendo nuovi spunti possibili. Questo servizio grazie al suo algoritmo riesce a identificare le tag presenti nei contenuti per poi ordinarli secondo i gusti dell’utente. La barra di navigazione superiore permette di passare velocemente dalle aree personali alle pagine d'interesse, 78
  79. 79. dalle liste di amici al modulo di creazione di un Twine. Quest’ultimo rappresenta un deposito virtuale di informazioni organizzate, che permette di condividere nozioni e scoprire persone con gusti e preferenze affini. È possibile inoltre filtrare le ricerche isolando specifiche voci, oppure selezionando direttamente una determinata persona o luogo. Ci sono infine altri due elementi che rendono Twine un’applicazione particolarmente intelligente. In primo luogo il sistema di raccomandazione dove gli elementi aggiunti dall’utente contribuiscono a costruire il suo profilo di interessi, che confrontato con gli altri utenti permette di suggerire persone con cui entrare in contatto o nuove informazioni da leggere. In secondo luogo, ogni elemento inserito su Twine viene salvato all’interno dell’applicazione secondo gli standard Rdf per poter essere così utilizzata all’interno di altre applicazioni semantiche capaci di utilizzarli. 79
  80. 80. 2.13 - Il futuro della semantica Come già successo per altre innovazioni, è necessario ancora del tempo e diverse fasi di ricerca prima che il web semantico diventi un fenomeno di massa. L’obiettivo sarà quello di promuovere sempre più nuovi servizi che si dimostrino semplici e intuitivi da utilizzare su larga scala, il fine del web semantico consiste nel dare una qualche struttura alla caotica moltitudine di risorse e documenti oggi presenti in rete per facilitarne il reperimento, e inoltre agevolare la condivisione di informazioni ed esperienze tra i membri della "comunità virtuale" del web. La portata di questa innovazione tecnologia è molto rilevante e avrà forti conseguenze anche sull'utilizzo di internet all'interno di processi di business to business ed e-government. Il futuro, non tanto remoto, prevede infatti l’impiego di oggetti che in maniera del tutto autonoma saranno in grado di leggere e comunicare le nostre esigenze, per queste ragioni l’ argomento risulta essere di forte attualità anche in vista delle ricadute che avrà nella vita di tutti i giorni. “Cosa succederà non è facile dirlo ma la storia insegna che bisogna sempre essere fiduciosi 80
  81. 81. nel progresso tecnologico perché la conoscenza di oggi è la base dell'esistenza di domani”(Antonio Tomarchio)38 . 38 Articolo su: Blueberrypie, Università Bocconi, http://www.blueberrypie.it/articoli/papers1106.shtml 81
  82. 82. Cap III - Internet of Things 3.1 - Definizione di "Internet of Things" Il principio sulla quale si basa l’idea di internet of things è quello di concepire l’utilizzo di alcuni device per un miglioramento della vita dell’uomo, e non come minacciosi ostacoli. Questa affermazione è giustificata dall’ossessione che abbiamo nei confronti del futuro, le tecnologie emergenti ci favoriranno indubbiamente in una vasta serie di attività, ma saranno anche irrimediabilmente pervasive in ogni aspetto della nostra vita, pubblica o privata. Qualsiasi oggetto infatti potrebbe essere dotato di identità propria, che comunica e permette di avere una storia documentabile e documentata. Mentalmente, separare gli uomini e gli oggetti è più semplice che intenderli insieme come sistema ampio e interdipendente: gli esseri umani sono vivi, gli oggetti sono inerti; le persone possono pensare gli oggetti semplicemente giacciono li. “Ma questa visione tassonomica ci rende ciechi riguardo ai modi e ai mezzi attraverso cui gli oggetti mutano e lascia in ombra quelle aree d’intervento nelle quali la progettazione può dare nuova forma alle cose”(Sterling 2005, 6). Per 82
  83. 83. far si che il futuro che vogliamo sia meno insidioso ci occorre promuovere una cultura del progetto, dove definire meglio il confine tra risorse e pericoli. L’EPoSS (European Technology Platform on Smart Systems Integration) e il DG INFSO (Information Society and Media Directorate general of the European Commission), nel rapporto redatto in seguito al workshop del febbraio 2008 ‘Beyond RFId The internet of things’, definiscono l’Internet delle cose come: "Le cose che hanno un’identità e personalità virtuali che operano in spazi intelligenti utilizzando interfacce per connettersi e comunicare all'interno sociale, ambientale, degli utenti e dei contesti”. Questa definizione pone l'accento sulla perfetta integrazione tra cose reali e il web, oggetti che avranno un ruolo attivo in quello che potrebbe essere chiamato Internet del futuro. Bruce Sterling39 conia un neologismo per definire questi nuovi oggetti, che sono indicati come: spime ossia la contrazione di space e time, perché questi oggetti iniziano e finiscono come dati e le loro tracce possono essere seguite nello spazio e nel tempo. E’ esattamente in questa prospettiva che si deve osservare lo sviluppo del concetto di internet 39 autore di fantascienza statunitense. 83
  84. 84. of things, che ormai da alcuni anni impegna ricercatori e produttori di tutto il mondo, mossi dall’ambizioso obiettivo di sfruttare nel modo più proficuo l’enorme, sterminato potenziale di un’infrastruttura come internet, che davvero promette di migliorare significativamente la vita delle persone. In questi anni lo sviluppo di internet è stato impetuoso, tanto che l’ICANN (Internet Corporation for Assigned Names and Numbers) ha recentemente sancito il passaggio dal protocollo IPv4 all’IPv6: sostanzialmente si passa da un numero di indirizzi generabili che va da (4 × 109) a (3,4 × 1038), in parole povere c’è stata una vorticosa espansione di internet. Il fatto che ogni entità possa avere un preciso indirizzo sulla rete è stato il presupposto fondamentale di questa crescita che porterà verso l’Internet delle cose, che si configura come una tecnologia del tutto pervasiva e ubiqua. Infatti, grazie alle reti mobili sono già state abbattute significativamente le barriere spazio-temporali, poiché finalmente si sono potuti raggiungere gli obiettivi dell’any-time connection e insieme dell’any-place connection. Lo sviluppo dell’Internet delle cose, però, permette di spingersi anche oltre, arrivando a raggiungere il traguardo dell’any-thing connection. Il primo requisito dell’Internet delle cose, dunque, sembra essere l’indirizzabilità delle entità interconnesse, ovvero la possibilità che 84
  85. 85. ogni singolo oggetto, persona o essere vivente abbia un unico identificativo in rete, che gli permetta di esistere non solo nel mondo reale, ma anche in modalità remota. Con l’Internet of things, infatti, non ci si limiterà a dare una rappresentazione speculare della realtà, ma gli elementi di questa rappresentazione saranno attivi e addirittura autonomi, in quanto capaci di prendere decisioni, poiché altra caratteristica di questo progetto è dotare di intelligenza queste entità connesse. L’intuizione visionaria di un simile scenario è però da attribuirsi, prima ancora che ai ricercatori del MIT, a Mark Weiser, un collaboratore dello XEROX PARC (Palo Alto Research Institute) che enunciò le sue tesi in un celebre articolo del settembre del 1991, intitolato ‘The computer for the 21st century’. In tale articolo, esponendo la sua visione di quello che sarebbe stato l’ubiquitous computing, Weiser immaginava un mondo con una tecnologia talmente pervasiva da rendersi invisibile all’occhio umano. Gli studi sull’ Internet of things si fanno in genere risalire alle attività dell’Auto-ID Center, un gruppo di ricercatori legati dal 1999 al 2003 al Massachusetts Institute of Technology (MIT), che hanno lavorato 85
  86. 86. per anni ai sistemi di identificazione a radiofrequenza. Nel 2003 l’Auto-ID Center si fuse con l’EPCglobal, dando vita agli Auto-ID Labs, che muovendosi sulla stessa linea di ricerca del passato, si occupa di tematiche molto simili. Il concetto di “internet delle cose” o internet of things (IOT) non si esaurisce ad una specifica tecnologia o applicazione, ma comprende varie soluzioni tecnologiche : RFId, network di sensori, protocolli TCP/IP, tecnologie mobili e software che permettono di identificare gli oggetti, raccogliere, immagazzinare, processare e trasferire le informazioni non solo in ambienti fisici ma anche tra mondi fisici e virtuali. Al di là dell’aumento quantitativo, la rete in questi anni si avvia a compiere un salto di qualità fondamentale, poiché la tendenza che si sta prefigurando con forza è quella di un passaggio dall’ Internet dei dati e delle persone, a ciò che si può definire un’ Internet delle cose. “La paternità del concetto di internet of things va attribuita a Kevin Ashton, che lo utilizzò per primo nel corso di una presentazione alla Procter&Gamble nel 1998: “L'aggiunta di RFId e altri sensori agli oggetti di tutti i giorni porterà ad un Internet delle Cose e sancirà la 86
  87. 87. fondazione di una nuova era di percezione delle macchine”(Enrico Sacchi, 2009)40 . Nonostante IOT (Internet Of Things) sia costituita da un insieme di tecnologie, per capire meglio di cosa si tratti sarà necessario approfondire innanzi tutto il tema sulle etichette RFId (Radio Frequency Identification) sulla quale si basano i successivi sviluppi. 40 Articolo del sole 24 ore, 19/06/2009, http://www.gdoweek.it/articoli/0,1254,44_ART_1737,00.html?lw=44;CHL 87
  88. 88. 3.2 - Cenni storici e funzionamento delle etichette RFId I primi dispositivi RFId, cioè i sistemi che consentono via radio di trasmettere delle informazioni di identificazione su un determinato prodotto/oggetto, risalgono a circa sessant'anni fa. Come per molte tecnologie di telecomunicazione attuali lo sviluppo dell' RFId è iniziato durante la seconda guerra mondiale, per scopi bellici. La tecnologia si basava sugli IFF (Identification Friend or Foe), ossia i sistemi che consentono l'identificazione a distanza di aerei e navi militari. Dalle applicazioni militari si è passati all’uso civile negli anni '60 con la commercializzazione dei primi sistemi EAS (Electronic Article Surveillance) per il controllo dei furti nei supermercati. All'epoca, le etichette radio consentivano l'invio di un singolo bit d'informazione (presente/assente) ed erano piuttosto ingombranti e costose. Dagli anni '90 si è iniziato a pensare all’utilizzo degli RFId anche per le applicazioni di massa, uno dei primi esempi è costituito dal telepass per il pedaggio autostradale. Gli sviluppi recenti, hanno consentito di fare notevoli passi in avanti su questa tecnologia, permettendo una miniaturizzazione e una considerevole riduzione dei costi. Oggi un'etichetta radio può essere grande poche decine di 88
  89. 89. millimetri, non richiedere alcun tipo di alimentazione autonoma e costare pochi centesimi di euro. Le dimensioni e i costi ridotti permettono l'inserimento di questo tipo di tecnologia di identificazione praticamente su qualsiasi tipo di prodotto, andando in prospettiva a soppiantare gli attuali codici a barre. Nell’etichetta RFId vengono memorizzati i dati di identificazione per poi essere successivamente trasmessi. Semplificando al massimo, un sistema RFId è sempre formato da due elementi: reader e tag. Un reader è il dispositivo di lettura composto da un modulo di elaborazione dati e un’antenna per la generazione del campo elettromagnetico che serve a interrogare il tag. Quest’ultimo è un dispositivo posto sull’oggetto da identificare ed è costituito da: un’antenna per la rice- trasmissione del campo del reader e un chip per la gestione della comunicazione e dell’identificazione. 89
  90. 90. I tag possono essere classificati in: • Attivi: quando hanno una fonte di alimentazione indipendente dal reader e la capacità di trasmettere senza essere interrogati; • Semi-passivi: quando hanno una fonte di alimentazione indipendente dal reader ma trasmettono solo se interrogati; • Passivi: quando sono alimentati dalla potenza irradiata dall’antenna del reader quando questo li interroga. Oggi è possibile realizzare RFId inseriti in etichette del tutto simili a quelle normalmente utilizzate nei capi di abbigliamento, oppure sotto forma di adesivi da applicare sulle confezioni di cartone per prodotti. Per accedere alle informazioni contenute nell'etichetta radio è necessario un lettore fisso o portatile, che nel caso di RFId passivi ha il compito anche di alimentare l'etichetta. Il vantaggio offerto da questo tipo di tecnologia rispetto ai sistemi di identificazione attualmente più utilizzati, come i codici a barre, è che il lettore non ha bisogno di avere la visibilità ottica rispetto all'etichetta. Inoltre, le etichette radio possono essere contenute all'interno dei prodotti e 90

×