Slides dell'intervento "Open Data fra Potenzialità e Retorica" nell'ambito della Giornata Tematica del MaCSIS (Master in Comunicazione della Scienza e Innovazione Sostenibile) "Scienza Aperta"
Open Data Support onsite training in Italy (Italian)Open Data Support
The ODS training was given on 16 November on the Smart City Exhibition 2013 in the city of Bologna.
The original ODS material in this slide deck has been translated to Italian.
Innovazione Open Data Innovazione organizzativa Gestione del cambiamentodatitrentinoit
Corso di Formazione per gli enti del sistema provinciale trentino: Innovazione, Open Data, cambiamento organizzativo, cambiamento sociale (Modulo Base)
In collaborazione con la Trentino School of Management http://www.tsm.tn.it/interne/interna2.aspx?ID=23892 aprile maggio 2014
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Il paradigma dei Big Data e Predictive Analysis, un valido supporto al contra...Data Driven Innovation
GFT ha sviluppato una soluzione basata sulle tecnologie Big Data inclusa una soluzione di Cognitive Analysis quale strumento di supporto all’analisi in real time di relazioni tra soggetti, utile all’azione di Detection e Investigation di potenziali frodi. La soluzione permette di acquisire ed elaborare milioni di informazioni a partire da diverse banche dati (interne ed esterne), di identificare le relazioni nascoste tra i soggetti e le informazioni ad essi collegate, di eseguire regole predittive per individuare in tempo reale l’esistenza di possibili relazioni sospette.
Slides dell'intervento "Open Data fra Potenzialità e Retorica" nell'ambito della Giornata Tematica del MaCSIS (Master in Comunicazione della Scienza e Innovazione Sostenibile) "Scienza Aperta"
Open Data Support onsite training in Italy (Italian)Open Data Support
The ODS training was given on 16 November on the Smart City Exhibition 2013 in the city of Bologna.
The original ODS material in this slide deck has been translated to Italian.
Innovazione Open Data Innovazione organizzativa Gestione del cambiamentodatitrentinoit
Corso di Formazione per gli enti del sistema provinciale trentino: Innovazione, Open Data, cambiamento organizzativo, cambiamento sociale (Modulo Base)
In collaborazione con la Trentino School of Management http://www.tsm.tn.it/interne/interna2.aspx?ID=23892 aprile maggio 2014
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Il paradigma dei Big Data e Predictive Analysis, un valido supporto al contra...Data Driven Innovation
GFT ha sviluppato una soluzione basata sulle tecnologie Big Data inclusa una soluzione di Cognitive Analysis quale strumento di supporto all’analisi in real time di relazioni tra soggetti, utile all’azione di Detection e Investigation di potenziali frodi. La soluzione permette di acquisire ed elaborare milioni di informazioni a partire da diverse banche dati (interne ed esterne), di identificare le relazioni nascoste tra i soggetti e le informazioni ad essi collegate, di eseguire regole predittive per individuare in tempo reale l’esistenza di possibili relazioni sospette.
Gli Open Data sono un fattore di sviluppo e competitività fondamentale: non sono solo un obbligo, sono una opportunità.
Da un lato abbiamo ancora tanti dati che non sono ancora stati pubblicati, dall’altro è necessario consolidare dataset pubblici che non rispondono ai requisiti di efficienza, altro ancora è necessario attuare delle regole per garantire che i dati nuovi vengano pubblicati con criteri di massima diffusione e usabilità.
Come tante cose dell’era digitale, sono tanti gli attori dello sviluppo degli Open data. E’ compito delle amministrazione assolvere l’obbligo individuando i dataset che maggiormente possano interessare gli operatori pubblici e privati, perché su questi possano costruire delle applicazioni a valore aggiunto.
E’ compito dei tecnici e degli ingegneri dell’informazione mettere a disposizione le competenze in termini di conoscenze tecnologiche e progettazione di architetture distribuite al fine di costruire una base solida per uno sviluppo sostenibile dei futuri open data.
The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
Watch full webinar here: https://bit.ly/2GmNEAS
Integra i tuoi dati in un unico luogo e rendili velocemente disponibili per supportare le scelte di business. La capacità di fornire un unico luogo per l'accesso istantaneo ai dati può rappresentare un grande vantaggio competitivo per le aziende, in un mercato in continuo mutamento.
È compito delle tecnologie di virtualizzazione e di data integration creare un logical data fabric sempre più efficiente, rendendo disponibili tutti i dati in un unico posto senza doverli replicare, pronti per essere analizzati e consentire di prendere decisioni aziendali migliori e più rapide.
Assieme ai Data Virtualization Engineer di Denodo e di Miriade scopriremo come la Data Virtualization e il Logical Data Fabric consentano di integrare e rendere disponibili velocemente i dati, superando problemi quali:
- la posizione fisica dei dati
- la diversità di formato dei dati
- la latenza dei dati
Per riservare il tuo posto, registrati ora! Sentiti libero di invitare chi pensi possa trovare l'argomento utile per la propria carriera o per la propria attività.
Dopo la rivoluzione industriale ed in piena rivoluzione digitale una nuova sfida si affaccia nel mondo digitale:
Gli Open Data. I grandi cambiamenti del mondo economico ed istituzionale, a livello nazionale ed internazionale, stanno mettendo in discussione i rapporti tra cittadini, imprese, amministrazioni, istituzioni ed ovviamente politica.
Gli Open Data possono aiutare a ridisegnare questi rapporti ?
Cosa sono, cosa rappresentano, quali sono le opportunità che si aprono con l'apertura e e libera fruizione delle informazioni?
Il “data-journalism” è un filone in piena esplosione soprattutto negli Stati Uniti e in Gran Bretagna. Quali sono le attività in italia?
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Portabilità dei dati e benessere del consumatore di servizi cloud - Davide MulaData Driven Innovation
La ricerca intende prendere in esame l'impatto del nuovo Regolamento n. 679/2016 sui consumatori e di come questo intervento legislativo sia idoneo a favorire lo sviluppo del mercato dei servizi cloud. In particolare si evidenzierà come l'introduzione del diritto alla portabilità dei dati di cui all'art. 20 sia idoneo a conseguire effetti positivi sulla disciplina del contratto di servizi cloud essendo in grado di scongiurare i rischi di lock-in e, dunque, ad incrementare la fiducia dei consumatori negli stessi.
Presentazione CSI Piemonte - Fossano 11 dicembre 2014 - parte 1Giuly Bonello
Aspetti territoriali dell'uso di dati informativi nelle PA: esperienze e opportunità - presentazione di CSI Piemonte (G. Bonello e M. Cavagnoli) al Comune di Fossano (11 dicembre 2014)
Convegno L’informazione statistica ufficiale sul trasporto marittimo tra integrazione e innovazione
Ancona, Sala Marconi, Molo Santa Maria
27 febbraio 2019
Intervento a “Manifattura Milano Camp 2018”, evento del Comune di Milano dedicato alla nuova manifattura 4.0 e all'artigianato digitale - www.manifattura.milano.it
Caratterizzazione dei sistemi cloud per la Pubblica AmministrazioneAmmLibera AL
Il presente documento ha lo scopo di orientare le soluzioni di sistemi di CloudComputing in ambito
SPC ed è pertanto diretto ai datacenter delle Pa che vorranno seguire una logica di razionalizzazione e
integrazione, al mercato interessato alle prossime gare SPC, ai privati interessati a qualificare la propria offerta secondo i bisogni della PA e le linee di indirizzo dell’AgID, ai nuovi datacenter che verranno realizzati. Il documento
intende inoltre essere una prima linea di indirizzo per la certificazione delle soluzioni cloud per la PA, in
attuazione delle regole tecniche per la qualificazione dei fornitori SPC e della certificazione dei servizi in
corso di emanazione.
Massimo Rosso - Social Media e Prodotti TV: esperienze di "Extended Audience"...Cultura Digitale
Nell'ambito della discussione circa i Big Data e l'analisi delle conversazioni CrossMediali correlate agli eventi televisivi, appare di estremo interesse l'approfondimento dell'opportunità' di utilizzo, dei pericoli, e dei ritorni del cosiddetto "canale di ritorno" abilitato dai social media in internet. A seguito della mancata affermazione del flusso informativo proveniente dai decoder (apparati che hanno caratterizzato la transizione al Digitale Terrestre), le moderne media company italiane sono attualmente impegnate a valutare i potenziali ritorni derivanti dall'accesso, trattamento ed analisi delle informazioni pubblicate, in primis, sulle piattaforme di social networking. Il presidio del nuovo "canale di ritorno" così definito promette di abilitare analisi di marketing innovative e valutazioni delle performance di prodotto di elevata puntualità ed affidabilità; in una parola vantaggio competitivo. L'intervento proposto illustrerà, dal punto di vista del Dipartimento ICT di RAI, le esperienze di recente conduzione (sperimentazione di strumenti di "extended audience" in occasione ad esempio del Festival di San Remo) ed approfondirà i principali elementi da considerare per una pertinente gestione dei rischi potenziali.
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Free Your Talent
Digital Transformation: Big Data, User Targeting ed Etica - Project Work a cura degli studenti del Master ISTUD in Marketing Management Alex Caruso, Federica Ferrara e Riccardo Pavesi
Esperienza open data della provincia di RomaDatiGovIT
La presentaizozione dell'esperienza della provincia di Roma presentate da Giovanni Calcerano nel webinar sui dati aperti promosso dal Portale dati.gov.it
Gli Open Data sono un fattore di sviluppo e competitività fondamentale: non sono solo un obbligo, sono una opportunità.
Da un lato abbiamo ancora tanti dati che non sono ancora stati pubblicati, dall’altro è necessario consolidare dataset pubblici che non rispondono ai requisiti di efficienza, altro ancora è necessario attuare delle regole per garantire che i dati nuovi vengano pubblicati con criteri di massima diffusione e usabilità.
Come tante cose dell’era digitale, sono tanti gli attori dello sviluppo degli Open data. E’ compito delle amministrazione assolvere l’obbligo individuando i dataset che maggiormente possano interessare gli operatori pubblici e privati, perché su questi possano costruire delle applicazioni a valore aggiunto.
E’ compito dei tecnici e degli ingegneri dell’informazione mettere a disposizione le competenze in termini di conoscenze tecnologiche e progettazione di architetture distribuite al fine di costruire una base solida per uno sviluppo sostenibile dei futuri open data.
The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
Watch full webinar here: https://bit.ly/2GmNEAS
Integra i tuoi dati in un unico luogo e rendili velocemente disponibili per supportare le scelte di business. La capacità di fornire un unico luogo per l'accesso istantaneo ai dati può rappresentare un grande vantaggio competitivo per le aziende, in un mercato in continuo mutamento.
È compito delle tecnologie di virtualizzazione e di data integration creare un logical data fabric sempre più efficiente, rendendo disponibili tutti i dati in un unico posto senza doverli replicare, pronti per essere analizzati e consentire di prendere decisioni aziendali migliori e più rapide.
Assieme ai Data Virtualization Engineer di Denodo e di Miriade scopriremo come la Data Virtualization e il Logical Data Fabric consentano di integrare e rendere disponibili velocemente i dati, superando problemi quali:
- la posizione fisica dei dati
- la diversità di formato dei dati
- la latenza dei dati
Per riservare il tuo posto, registrati ora! Sentiti libero di invitare chi pensi possa trovare l'argomento utile per la propria carriera o per la propria attività.
Dopo la rivoluzione industriale ed in piena rivoluzione digitale una nuova sfida si affaccia nel mondo digitale:
Gli Open Data. I grandi cambiamenti del mondo economico ed istituzionale, a livello nazionale ed internazionale, stanno mettendo in discussione i rapporti tra cittadini, imprese, amministrazioni, istituzioni ed ovviamente politica.
Gli Open Data possono aiutare a ridisegnare questi rapporti ?
Cosa sono, cosa rappresentano, quali sono le opportunità che si aprono con l'apertura e e libera fruizione delle informazioni?
Il “data-journalism” è un filone in piena esplosione soprattutto negli Stati Uniti e in Gran Bretagna. Quali sono le attività in italia?
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Portabilità dei dati e benessere del consumatore di servizi cloud - Davide MulaData Driven Innovation
La ricerca intende prendere in esame l'impatto del nuovo Regolamento n. 679/2016 sui consumatori e di come questo intervento legislativo sia idoneo a favorire lo sviluppo del mercato dei servizi cloud. In particolare si evidenzierà come l'introduzione del diritto alla portabilità dei dati di cui all'art. 20 sia idoneo a conseguire effetti positivi sulla disciplina del contratto di servizi cloud essendo in grado di scongiurare i rischi di lock-in e, dunque, ad incrementare la fiducia dei consumatori negli stessi.
Presentazione CSI Piemonte - Fossano 11 dicembre 2014 - parte 1Giuly Bonello
Aspetti territoriali dell'uso di dati informativi nelle PA: esperienze e opportunità - presentazione di CSI Piemonte (G. Bonello e M. Cavagnoli) al Comune di Fossano (11 dicembre 2014)
Convegno L’informazione statistica ufficiale sul trasporto marittimo tra integrazione e innovazione
Ancona, Sala Marconi, Molo Santa Maria
27 febbraio 2019
Intervento a “Manifattura Milano Camp 2018”, evento del Comune di Milano dedicato alla nuova manifattura 4.0 e all'artigianato digitale - www.manifattura.milano.it
Caratterizzazione dei sistemi cloud per la Pubblica AmministrazioneAmmLibera AL
Il presente documento ha lo scopo di orientare le soluzioni di sistemi di CloudComputing in ambito
SPC ed è pertanto diretto ai datacenter delle Pa che vorranno seguire una logica di razionalizzazione e
integrazione, al mercato interessato alle prossime gare SPC, ai privati interessati a qualificare la propria offerta secondo i bisogni della PA e le linee di indirizzo dell’AgID, ai nuovi datacenter che verranno realizzati. Il documento
intende inoltre essere una prima linea di indirizzo per la certificazione delle soluzioni cloud per la PA, in
attuazione delle regole tecniche per la qualificazione dei fornitori SPC e della certificazione dei servizi in
corso di emanazione.
Massimo Rosso - Social Media e Prodotti TV: esperienze di "Extended Audience"...Cultura Digitale
Nell'ambito della discussione circa i Big Data e l'analisi delle conversazioni CrossMediali correlate agli eventi televisivi, appare di estremo interesse l'approfondimento dell'opportunità' di utilizzo, dei pericoli, e dei ritorni del cosiddetto "canale di ritorno" abilitato dai social media in internet. A seguito della mancata affermazione del flusso informativo proveniente dai decoder (apparati che hanno caratterizzato la transizione al Digitale Terrestre), le moderne media company italiane sono attualmente impegnate a valutare i potenziali ritorni derivanti dall'accesso, trattamento ed analisi delle informazioni pubblicate, in primis, sulle piattaforme di social networking. Il presidio del nuovo "canale di ritorno" così definito promette di abilitare analisi di marketing innovative e valutazioni delle performance di prodotto di elevata puntualità ed affidabilità; in una parola vantaggio competitivo. L'intervento proposto illustrerà, dal punto di vista del Dipartimento ICT di RAI, le esperienze di recente conduzione (sperimentazione di strumenti di "extended audience" in occasione ad esempio del Festival di San Remo) ed approfondirà i principali elementi da considerare per una pertinente gestione dei rischi potenziali.
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Free Your Talent
Digital Transformation: Big Data, User Targeting ed Etica - Project Work a cura degli studenti del Master ISTUD in Marketing Management Alex Caruso, Federica Ferrara e Riccardo Pavesi
Esperienza open data della provincia di RomaDatiGovIT
La presentaizozione dell'esperienza della provincia di Roma presentate da Giovanni Calcerano nel webinar sui dati aperti promosso dal Portale dati.gov.it
Seminari dal titolo: "Open Data come strumento per i cittadini" tenuto in occasione della Settima dell'Amministrazione Aperta 2019 e del progetto "A Scuola di OpenCoesione".
Presentazione CSI Piemonte - Fossano 11 dicembre 2014 - parte 2Giuly Bonello
Aspetti territoriali dell'uso di dati informativi nelle PA: esperienze e opportunità - presentazione di CSI Piemonte (G. Bonello e M. Cavagnoli) al Comune di Fossano (11 dicembre 2014)
Organizzazioni di ogni forma e dimensione producono quotidianamente un'incredibile mole di informazioni, che se adeguatamente organizzate possono essere un fattore chiave per le scelte strategiche aziendali. Tuttavia, nelle realtà aziendali il patrimonio informativo è frammentato in "Data Silos" separati e di natura eterogenea, comportando così una notevole difficoltà nella loro gestione. Nel seminario, partendo dalle esperienze maturate in ambito aziendale, verrà affrontato il tema del Knowledge Management, mostrando un approccio alla gestione interconnessa delle informazioni mediante l'uso di ontologie e tecnologie di integrazione.
I dati aperti delle regioni. Od2016 cagliari-22-09-16 - ASergio Agostinelli
Aprire i dati: analizzare, progettare e gestire il processo di apertura dei dati pubblici regionali
Laboratorio Cagliari, 22 Settembre 2016 - ore 09:30
Slide che Filippo d'angelo dell'inps ha utilizzato per tenere il seminario online sui dati perti dell'INPS per Dati.gov.it
qui maggiori info: http://www.dati.gov.it/content/terzo-ciclo-di-seminari-online-sui-dati-aperti
3. Piattaforma Digitale Nazionale Dati
Scaling the Open Data Concept to 13000 Public Administrations
ANDREA CARLINI
Chief Data Product Manager
Italian Government – Digital Transformation Team
4. La Piattaforma Digitale Nazionale Dati I Casi d’Uso
PDND & Open Data Scaling The Open Data Concept
6. Visione
L'informazione é
fondamentale per
interpretare i fenomeni
sociali ed economici, prendere
decisioni informate, migliorare
i servizi ai cittadini, competere
sullo scenario internazionale.
Le nuove tecnologie
permettono di estrarre
sapere dall'enorme
mole di dati di cui
lo Stato dispone
Strategia
L'estrazione di valore
dai dati si ottiene con una
solida piattaforma tecnologica,
un team di esperti e soprattutto una
governance con competenze
che coordini la generazione,
l’integrazione,
la standardizzazione
e l’utilizzo dei dati.
8. Quali problemi risolve
• Compliance
Strumenti e modelli operativi per facilitare
la pubblicazione, distribuzione ed utilizzo
dei dati conforme al GDPR
• Interoperabilità
Punto centrale di raccolta e distribuzione
Standardizzazione delle codifiche
Abbattimento dei silos
• Democratizzazione
Open data utilizzabili da tutti, self service
• Standardizzazione
Metadatazione assistita, Cataloghi,
Ontologie, Validazione in fase di Ingestion
• Valorizzazione
Estrazione di informazioni per creare
modelli decisionali
• Engagement
Fare leva sulla potenza della community,
creare storie con i dati
9. CAD ( Codice Amministrazione Digitale ) articolo 50-ter
Introduce la Piattaforma Digitale Nazionale Dati e il concetto di conferimento
obbligatorio per alcuni data set strategici.
Con un DPCM, la Presidenza del Consiglio indicherà un elenco di dataset che le PA
dovranno obbligatoriamente conferire nella PDND
Normative di riferimento a Supporto
10. Storia del progetto
DAF nel Piano
Triennale
Nel CAD
DAF diventa PDND
Art 50 Ter
Il primoprototipovalive
durante Hack.Developers
Sviluppo e
sperimentazione con enti
pilota
2017 2018 2019
Inzioattivitàdi
consolidamentoed
introduzione dei concetti
PricavybyDesigne Data
QualitybyDesign
11. PDND e SaaS : PDND as a Service
La PDND adotta il modello di distribuzione del software applicativo come
Servizio ( SaaS ) , dove il Team per la Trasformazione Digitale ne è
responsabile per lo sviluppo, messa in opera, gestione e manutenzione,
semplificando i compiti delle PA relativamente alla gestione e condivisione
dei Dati Pubblici e la loro pubblicazione in Dati Aperti
12. PDND e SaaS : PDND as a Service
Piattaforma
Codice OpenSource Discussione Semantica
ed
Ontologie
Documentazione
Portale OpenDataPortale Privato
as Service
Portale Pubblico
as Service
21. PAC Regioni Comuni Altro
ACI
ANAC
Consip
Corte dei Conti
INAPP
MEF RGS
MIT
Toscana
Piemonte
Puglia
Umbria
Firenze
Torino
Roma Capitale
Università Torino
Attuali utilizzatori della PDND
23. PDND come Data Hub Problema che risolve
la complessitànell’acquisizione e
ridistribuzione dei dataset, in conformità con
GDPR
La PDND è un framework standardizzato per
l’automazione della acquisizione, controllo,
metadatazione e ridistribuzione sicura dei dati.
Esempio
Ad esempio, ANAC deve raccogliere dati sulle
gare da molte amministrazioni e, dopo averli
consolidati/filtrati, deve mettere il risultato a
disposizione di molte altre PA.
24. OpenData as-a-service
Problema che risolve
In esecuzione di CAD art 50 le PA devono
pubblicare i loro dati in formato aperto ma le
PAL non hanno strumenti e competenze per
farlo in maniera sicura e adeguata.
La PDND è un servizio di pubblicazione assistita
degli open data che garantisce la conformità
con le linee guida DCAT-AP_IT.
Esempio
Comune di Torino ha configurato PDND per
erogare un sito personalizzato ed esporre i
dataset che ha caricato
Logo, Stile, Filtri sui Dati e Widgets sono
specifici per il Comune, ma è PDND
25. Analytics as-a-service Problema che risolve
Le PA hanno bisogno di utilizzare i dati per
creare cruscottidecisionali.
La PDND è un servizio di correlazione e analisi
per facilitare l’esplorazione dei dati
Esempio
Comune di Milano ha caricato su PDND i suoi
dati e li ha combinati con altri già presenti per
creare una mappa dei quartieri che visualizza
diversi KPI ed aiuta ad ottimizzare la
pianificazione degli investimenti su territorio.
26. Data stories Problema che risolve
Le PA hanno vogliono comunicare con i
cittadini usando i dati
La PDND è un servizio di story-telling con i dati.
Esempio
Dal Registro nazionale degli aiuti di Stato è
stata creata una storia (simile a un blog post).
I grafici sono interattivi, zoomabili, e si
aggiornano via via che nuovi dati confluiscono
nella piattaforma.
Il testo a contorno spiega di cosa si sta
parlando e come interpretare i dati.
27. OpenAPI
Problema che risolve
I dati devono essere ottenibili non solo attraverso dei
portali dedicati alla loro distribuzione, ma anche
attraverso strumenti che ne consentono una più facile
integrazione con le altre piattaforme pubbliche,
sempre nel rispetto della sicurezza e privacy
Esempio
Integrazione PDND con software di terze parti per
DataViz, BI, Analytics
28. OpenAPI & 3rd Party Tools for DataViz, BI, Analytics
Esempio
Le PA che possiedono già strumentidi terze parti per
la Data Visualization, Business Intelligence, Data
Science, possono connettersi direttamente ai DataSet
della PDND sfruttando le REST API, in maniera
semplice, rapida e sicura
30. L’origine dei Dati Aperti ( Open Data )
Il termine «Open Data» è apparso per la prima volta nel 1995, in
un documento di un'agenzia scientifica americana. Si è occupato
della divulgazione di dati geofisici e ambientali. Per citare gli autori
del rapporto: "La nostra atmosfera, gli oceani e la biosfera formano
un insieme integrato che trascende i confini".
Promuovono uno scambio completo e aperto di informazioni
scientifiche tra diversi paesi, un prerequisito per l'analisi e la
comprensione di questi fenomeni globali.
31. Open Data e Normative di riferimento a
Supporto in Italia
CAD ( Codice Amministrazione Digitale ) articoli 50 e 52
Dal 2005 normano il concetto di Open Data by Default e gli obblighi di condivisione
dei dati delle PA.
Le PA sono obbligate:
• a mettere i dati in condivisione tra loro (per fini istituzionali)
• a rilasciare i dati in formato aperto (open data) mettendoli a disposizione della
comunità quando non ci sono ostacoli di privacy o di sicurezza nazionale
32. Classificazione degli Open Data
Nel 2010 nasce il primo Sistema di classificazione di un Dato Aperto proposto da Tim Berners-Lee, il
creatore del World Wide Web. Esso si basa su un Sistema di Ranking da 1 a 5 ( stelle ) secondo la
seguente scala di requisiti :
(1) Essere disponibile su Web con una licenza aperta
(2) Essere in formato strutturato
(3) Essere in un formato di file non-proprietario
(4) Fare uso di URI per identificare i dati, in modo che possano essere facilmente referenziati
(5) Includere link ad altre sorgenti dati (vedi linked data)
Si può definire Dato Aperto solo quello che è in grado di soddisfare almeno primi tre requisiti e
quindi ottenere un punteggio di 3 stelle
33. Il fenomeno dei Big Data
Dal 2010 il volume di dati in Internet cresce
esponenzialmente, solo nel 2016 è stato creato
un volume pari al 90% del totale, nel 2017 una
ulteriore crescita del 45%
Il termine big data, indica genericamente una raccolta di dati così estesa in termini di volume,
velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valore o
conoscenza.
Il termine è utilizzato in riferimento alla capacità (propria della scienza dei dati) di analizzare ovvero
estrapolare e mettere in relazione un'enorme mole di dati eterogenei, strutturati e non strutturati,
allo scopo di scoprire i legami tra fenomeni diversi (ad esempio correlazioni) e prevedere quelli
futuri..
34. Open Data e Big Data : Open Big Data
Due concetti differenti si uniscono
I Big Data si concentrano principalmente sulle possibilità offerte
sfruttando un volume di dati in crescita esponenziale. Mentre con i
dati aperti, la creazione di valore dipende dalla capacità di condividere i
dati, di renderli disponibili a terze parti, piuttosto che sul volume puro.
I dati aperti rispondono a una serie di criteri tecnici, economici e legali:
devono essere liberamente disponibili online, in un formato che
consenta il riutilizzo
35. Situazione Open Data In Italia
L’italia nel rapporto DESI 2018 si è situata all’ 8 posto
nella classifica dei Servizi Pubblici Digitali per gli OpenData,
recuperando ben 11 posizioni dal 2017
Questo valore però non
evidenzia un problema molto
grave :
La scarsa qualità dei dati
che questi servizi offrono
36. Situazione Open Data In Italia
Controllando i numerosi portali dove questi dati sono esposti si può facilmente
verificare come essi siano poco aggiornati e presentano numerosi problemi per il
loro riutilizzo, ed il tutto trova riscontro negli indici relativi al «Capitale Umano» e
«Uso dei Servizi Internet» :
I DATI NON VENGONO USATI
37. La scarsa Qualità del Dato impatta sul suo riutilizzo
Problemi Riscontrati : ANPR Archivio Storico Comuni
Di contenuto
1. Ridefinizione interna di codici master presenti in altre banche dati - opposto del principio
once only
e.g. ID provincia interno e non di ISTAT titolare del dato
2. Gestione differente rispetto ad altre banche dati note per le maiuscole e minuscole nei
nomi dei comuni
3. Gestione del multilinguismo per certi nomi assente (deducibile solo guardando la
regione)
4. Assenza di una gestione appropriata delle modifiche del dato
Tecnici
1. Assenza di metadatazione (anche secondo lo standard nazionale)
2. Formato proprietario, licenza assente
3. Nessun permanent link disponibile
4. Nessuna specifica della semantica dei dati
38. La scarsa Qualità del Dato impatta sul suo riutilizzo
Problemi Riscontrati : IPA Indice Pubbliche Amministrazioni
Di contenuto
1. Ridefinizione interna di codici master presenti in altre banche dati - opposto del principio
once only
e.g. gestione interna dei comuni che non sono aggiornati alle ultime
modifiche ISTAT
2. Diversi modi per indicare che un campo non è valorizzato
e.g. «null», spazi bianchi, «da indicare» «da_indicare»,«-», «0», «n.d.», «non
dichiarato» ...
3. Campi indirizzo che contengono numeri di telefono (problema semantico)
4. Indirizzi gestiti con testo libero: stesso indirizzo scritto in maniera diversa in diversi
record
5. Tutti gli accenti trasformati in apostrofi (per ragioni di sicurezza nella fase di
compilazione di web form)
Tecnici
1. Assenza di metadatazione (anche secondo lo standard nazionale)
39. I Dati Pubblici : Set di dati dove il Titolare è la Pubblica
Amministrazione
Non necessariamente un Dato Pubblico può essere considerato
Aperto
Le recendi regolamentazioni sulla protezione dei dati impongono
dei limiti sulla condivisione dei Dati Pubblici anche tra PA,
nonostante vi siano delle convenzioni pre-esistenti di interscambio
di informazioni
Dai Dati Pubblici ai Dati Aperti : Il «problema» della Privacy
40. Solo dopo la conferma dell’uscita del regolamento GDPR (UE) n. 2016/679
I più grossi fornitori di piattaforme Data Lake & Big Data Analytics hanno
inizato a preoccuparsi seriamente della Privacy sui Dati
Tutti i sistemi creati “in house” che non erano disegnati per supportare un
certo tipo di verifiche e controlli sui dati hanno dovuto subire una rivoluzione
Ad oggi molte pubbliche amministrazioni vedono la GDPR più come un
ostacolo che una garanzia per il Cittadino, soprattutto perchè rende più
complessa la ridistribuzione dei Dati Privati della Pubblica Amministrazione
Dai Dati Pubblici ai Dati Aperti : Il «problema» della Privacy
42. I Punti Chiave della Scalabilità del concetto Open Data
- Per le PA che oggi pubblicano dati occorre indirizzare e risolvere tutti I problemi di
qualità sulle sorgenti
- Per le PA che non pubblicano dati che potrebbero essere Aperti, nonostante la legge lo
imponga, occorre fornire gli strumenti e le competenze per farlo
- La PDND è lo strumento che può semplificare
i compiti delle Pubbliche Amministrazioni
nell’adottare il concetto di Open Data
grazie al modello SaaS , supportando
l’indirizzamento e la risoluzione dei
problemi di qualità sulle sorgenti
43. La PDND e l’indirizzamento delle problematiche sui Dati
Aperti prima e dopo la loro pubblicazione
- Durante la fase di on boarding di una PA in PDND viene fatta una analisi dei dati da
ingerire da parte dei nostril Data Scientists, in modo da dare le opportune indicazioni
sulle modifiche da fare sui dataset di origine
- La metadatazione dei DataSet eseguita in fase di Ingestion è fatta in rispetto ai
cataloghi ed ontologie già presenti, e garantisce una maggiore standardizzazione e
minor rischio di errori
- Una volta “ingeriti” nella piattaforma, I dati possono essere ulteriormente controllati
eseguendo dei modelli di analisi complessi direttamente sulla piattaforma Big Data
- I controlli sulla privacy dei dati sono sia lato ingestion che condivisione e pubblicazione (
in open data ) attraverso delle form di Impact Assessment