The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
Watch full webinar here: https://bit.ly/2GmNEAS
Integra i tuoi dati in un unico luogo e rendili velocemente disponibili per supportare le scelte di business. La capacità di fornire un unico luogo per l'accesso istantaneo ai dati può rappresentare un grande vantaggio competitivo per le aziende, in un mercato in continuo mutamento.
È compito delle tecnologie di virtualizzazione e di data integration creare un logical data fabric sempre più efficiente, rendendo disponibili tutti i dati in un unico posto senza doverli replicare, pronti per essere analizzati e consentire di prendere decisioni aziendali migliori e più rapide.
Assieme ai Data Virtualization Engineer di Denodo e di Miriade scopriremo come la Data Virtualization e il Logical Data Fabric consentano di integrare e rendere disponibili velocemente i dati, superando problemi quali:
- la posizione fisica dei dati
- la diversità di formato dei dati
- la latenza dei dati
Per riservare il tuo posto, registrati ora! Sentiti libero di invitare chi pensi possa trovare l'argomento utile per la propria carriera o per la propria attività.
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Il paradigma dei Big Data e Predictive Analysis, un valido supporto al contra...Data Driven Innovation
GFT ha sviluppato una soluzione basata sulle tecnologie Big Data inclusa una soluzione di Cognitive Analysis quale strumento di supporto all’analisi in real time di relazioni tra soggetti, utile all’azione di Detection e Investigation di potenziali frodi. La soluzione permette di acquisire ed elaborare milioni di informazioni a partire da diverse banche dati (interne ed esterne), di identificare le relazioni nascoste tra i soggetti e le informazioni ad essi collegate, di eseguire regole predittive per individuare in tempo reale l’esistenza di possibili relazioni sospette.
La Data Virtualization a supporto della Data Science: "Da grandi poteri deriv...Denodo
Watch full webinar here: https://bit.ly/3awy5Tj
In questo webinar andremo a spiegare cosa si intende per Data Virtualization, come si integra nei sistemi aziendali e perché è una componente critica del data fabric di qualsiasi organizzazione.
La trasformazione digitale richiede che diamo potere a tutti i consumatori di dati all'interno dell'organizzazione, ma richiede anche agilità, e la Data Virtualization offre un accesso significativo alle informazioni che possono essere condivise da una miriade di consumatori.
Per questo motivo è così strettamente legata alla Data Science: le tecniche avanzate di data science, come il machine learning, sono estremamente utili per ricavare informazioni preziose dai dati, le piattaforme di Data Science sono sempre più accessibili, ma comunque il Data Scientist trascorre ancora la maggior parte del tempo a pulire e manipolare i dati per renderli utilizzabili a fini analitici. In questo senso la Data Virtualization è un ottimo strumento per rendere i dati aziendali più accessibili e promuovere una cultura della condivisione dei dati, quindi semplificare la fase di preprocessing e lasciare ai Data Scientist tutte le energie da dedicare agli aspetti più analitici ed avanzati.
Portabilità dei dati e benessere del consumatore di servizi cloud - Davide MulaData Driven Innovation
La ricerca intende prendere in esame l'impatto del nuovo Regolamento n. 679/2016 sui consumatori e di come questo intervento legislativo sia idoneo a favorire lo sviluppo del mercato dei servizi cloud. In particolare si evidenzierà come l'introduzione del diritto alla portabilità dei dati di cui all'art. 20 sia idoneo a conseguire effetti positivi sulla disciplina del contratto di servizi cloud essendo in grado di scongiurare i rischi di lock-in e, dunque, ad incrementare la fiducia dei consumatori negli stessi.
The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
Watch full webinar here: https://bit.ly/2GmNEAS
Integra i tuoi dati in un unico luogo e rendili velocemente disponibili per supportare le scelte di business. La capacità di fornire un unico luogo per l'accesso istantaneo ai dati può rappresentare un grande vantaggio competitivo per le aziende, in un mercato in continuo mutamento.
È compito delle tecnologie di virtualizzazione e di data integration creare un logical data fabric sempre più efficiente, rendendo disponibili tutti i dati in un unico posto senza doverli replicare, pronti per essere analizzati e consentire di prendere decisioni aziendali migliori e più rapide.
Assieme ai Data Virtualization Engineer di Denodo e di Miriade scopriremo come la Data Virtualization e il Logical Data Fabric consentano di integrare e rendere disponibili velocemente i dati, superando problemi quali:
- la posizione fisica dei dati
- la diversità di formato dei dati
- la latenza dei dati
Per riservare il tuo posto, registrati ora! Sentiti libero di invitare chi pensi possa trovare l'argomento utile per la propria carriera o per la propria attività.
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Il paradigma dei Big Data e Predictive Analysis, un valido supporto al contra...Data Driven Innovation
GFT ha sviluppato una soluzione basata sulle tecnologie Big Data inclusa una soluzione di Cognitive Analysis quale strumento di supporto all’analisi in real time di relazioni tra soggetti, utile all’azione di Detection e Investigation di potenziali frodi. La soluzione permette di acquisire ed elaborare milioni di informazioni a partire da diverse banche dati (interne ed esterne), di identificare le relazioni nascoste tra i soggetti e le informazioni ad essi collegate, di eseguire regole predittive per individuare in tempo reale l’esistenza di possibili relazioni sospette.
La Data Virtualization a supporto della Data Science: "Da grandi poteri deriv...Denodo
Watch full webinar here: https://bit.ly/3awy5Tj
In questo webinar andremo a spiegare cosa si intende per Data Virtualization, come si integra nei sistemi aziendali e perché è una componente critica del data fabric di qualsiasi organizzazione.
La trasformazione digitale richiede che diamo potere a tutti i consumatori di dati all'interno dell'organizzazione, ma richiede anche agilità, e la Data Virtualization offre un accesso significativo alle informazioni che possono essere condivise da una miriade di consumatori.
Per questo motivo è così strettamente legata alla Data Science: le tecniche avanzate di data science, come il machine learning, sono estremamente utili per ricavare informazioni preziose dai dati, le piattaforme di Data Science sono sempre più accessibili, ma comunque il Data Scientist trascorre ancora la maggior parte del tempo a pulire e manipolare i dati per renderli utilizzabili a fini analitici. In questo senso la Data Virtualization è un ottimo strumento per rendere i dati aziendali più accessibili e promuovere una cultura della condivisione dei dati, quindi semplificare la fase di preprocessing e lasciare ai Data Scientist tutte le energie da dedicare agli aspetti più analitici ed avanzati.
Portabilità dei dati e benessere del consumatore di servizi cloud - Davide MulaData Driven Innovation
La ricerca intende prendere in esame l'impatto del nuovo Regolamento n. 679/2016 sui consumatori e di come questo intervento legislativo sia idoneo a favorire lo sviluppo del mercato dei servizi cloud. In particolare si evidenzierà come l'introduzione del diritto alla portabilità dei dati di cui all'art. 20 sia idoneo a conseguire effetti positivi sulla disciplina del contratto di servizi cloud essendo in grado di scongiurare i rischi di lock-in e, dunque, ad incrementare la fiducia dei consumatori negli stessi.
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
Watch: https://bit.ly/3ftTdKr
Il 26 giugno partecipa al Webinar DATA STRATEGY PER TRASFORMARE I DATI IN ASSET STRATEGICI AZIENDALI realizzato da IKN Italy con la collaborazione di Denodo per approfondire i trend tecnologici che indirizzeranno e stanno guidando la Data Strategy delle aziende in tutto il mondo. Nell'era dei Big Data, dell'Intelligenza Artificiale e del Cloud Computing, il volume, l’eterogeneità e la velocità dei dati sono in costante crescita e la sfida, pertanto, diventa quella di poter governare i dati, in modo da facilitare la loro trasformazione in informazioni e conoscenza, dando la possibilità al business di accedervi con agilità e semplicità.
Vuoi sapere come trasformare i dati in asset strategici, affinché l’azienda sia (veramente) Data-Driven?
Partecipa al webinar per rispondere a questa domanda e per scoprire:
- Come Machine Learning e Artificial Intelligence possono semplificare le sfide della gestione dei dati al giorno d’oggi e qual è il ruolo della Data Virtualization in tale semplificazione
- Qual è l'evoluzione delle architetture di Data Provisioning e di Data Management nelle aziende e in che modo il paradigma di Data Fabric entra in gioco
- Come è possibile gestire l'integrazione dei dati in un mondo sempre più ibrido e multi-cloud
- Come possono le aziende monetizzare dati e informazioni, sfruttando e valorizzando un’infrastruttura Data-as-a-Service
- Quale ruolo svolgere il Voice Computing nel futuro dell'analisi dei dati
Watch full webinar here: https://bit.ly/2J06agA
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, molte organizzazioni fanno ancora affidamento ad architetture di dati basate su tecnologie della fine del XX secolo. Questo scenario è al centro di una rapida evoluzione, con l’adozione di nuove tecnologie d'integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico e sicuro per l'accesso in tempo reale ai dati aziendali, riducendo i costi e rischi e migliorando la conformità delle informazioni.
In questa sessione parleremo di:
1. Cos'è la virtualizzazione dei dati;
2. Come differisce da altre forme di integrazione a livello Enterprise;
3. Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Logical Data Lake: polifunzionale e decentralizzato per l'analisi dei datiDenodo
Watch full webinar here: https://bit.ly/2KFC4j6
Storicamente il data lake viene strutturato come una piattaforma centralizzata di archiviazione dei dati al fine di consentire l'analisi e la gestione di grandi quantitativi di dati, per esempio da parte dei data scientist, e per ridurre i costi di archiviazione.
Al giorno d'oggi, avere successo con questo metodo di lavoro orientato su una repository di dati centralizzata, è reso più problematico dall'esplosione del big data, dalle nuove regole sulla privacy dei dati e dalle restrizioni intra-dipartimentali. In questo webinar discuteremo del perché i data lake multifunzionali e decentralizzati sono il futuro dell'analisi dei dati.
Partecipa a questa sessione per imparare:
- Le restrizioni del data lake fisico monofunzionale;
- Come costruire un Logical Datalake multifunzionale per i business users aziendali;
- I casi d'uso più recenti che rendono necessari un data lake multifunzionale e decentralizzato;
Digital 4 e guide - Hybrid Cloud come scegliere il meglio tra virtuale e fisi...Alberto Ferretti
N4B SRL & SOLARWINDS MSP - CAMBIA IL TUO APPROCCIO VS IL CYBER RISK Scopri le soluzioni Saas per il Remote Management ed il Backup & Disaster Recovery. L'importanza per le PMI di scegliere il Partner MSP (Managed Service Provider) e gli strumenti adeguati per garantire la sicurezza IT e la Business Continuity. MSP + CIO + CEO un nuovo approccio integrato al Cyber Risk e allo sviluppo sostenibile della Digital Trasformation
N4B SRL Distributore Solarwinds MSP - alberto.ferretti@n4b.it - 328-7221519 - www.n4b.it
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Big Data Social Media
Valore dei Dati
Volume Varietà Velocità
Trends & Patterns
Numeri Vs Immagini
Dati Vs Istinto
Data Flow nel Business e nei Social Media
Big Data Value Chain
Analisi Predittive
Hadoop, Microsoft Big Data
Big Data landscape 2014
Convergenza: Social Media, Coding, Big Data, Apps, Cloud
Convegno L’informazione statistica ufficiale sul trasporto marittimo tra integrazione e innovazione
Ancona, Sala Marconi, Molo Santa Maria
27 febbraio 2019
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Cloud computing indicazioni per l’utilizzo consapevole dei servizi (Garante P...AmmLibera AL
L’Autorità nell’ottica di promuovere un utilizzo corretto delle nuove modalità di erogazione dei servizi informatici, specie per quelli erogati tramite cloudpubbliche (public cloud), che comportano l’esternalizzazione di dati e documenti, ritiene opportuna e doverosa un’opera di informazione orientata a tutelare l’importante patrimonio informativo costituito dai dati personali.
Tali indicazioni si propongono, quindi, di offrire un primo insieme di indicazioni utili a tutti gli utenti di dimensioni contenute e di limitate risorse economiche (singoli,
piccole o medie imprese, amministrazioni locali quali i piccoli comuni, ecc.) destinatari della crescente offerta di servizi di cloud computing(pubbliche o ibride), con l’obiettivo di favorire l'adozione consapevole e responsabile di tale tipologia di servizi.
Le avvertenze di seguito enucleate costituiscono un primo quadro di cautele che favoriscono il corretto trattamento dei dati personali attraverso l’utilizzo dei
predetti servizi virtuali e, pertanto, si indirizzano anche ai fornitori, i quali possono fare riferimento a tali indicazioni nella predisposizione dei loro servizi, con l’accortezza
di informare opportunamente gli utenti in ordine alla loro adozione.
L’Autorità - nella consapevolezza che l’utilizzo dei servizi di cloud computing prefigura problematiche ben difficilmente risolvibili a livello nazionale che richiedono,
invece, una riflessione condivisa a livello sia europeo sia internazionale, e in considerazione di tutte le sue implicazioni in relazione al trattamento dei dati personali - intende in ogni caso continuare a seguire l’evoluzione del fenomeno, anche partecipando con altri decisori istituzionali a specifici tavoli di lavoro aperti in materia, in particolare con DigitPAper quanto attiene all’adozione di modelli orientati alle cloud in ambito pubblico. L’Autorità, inoltre, si riserva, laddove ne rilevasse la necessità, di adottare in futuro specifiche e dettagliate prescrizioni indirizzate a utenti e fornitori, specie
sotto il profilo delle misure di sicurezza.
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
L’Enterprise Data Fabric per una gestione agile dei datiDenodo
Watch full webinar here: https://bit.ly/2P5RUcO
Il machine learning e l'intelligenza artificiale stanno rivoluzionando la nostra vita quotidiana e la trasformazione ad azienda data-driven è diventata una delle priorità strategiche in molte organizzazioni pubbliche e private. I dati si sono trasformati in linfa vitale per le compagnie, fluendo all’interno dell’azienda senza interruzioni, per consentire la generazione di insight capaci di produrre valore, creare nuove opportunità di business, ottimizzare l’operatività e migliorare le relazioni con i clienti.
Il team del CDO, i CIO, i Data Architect e tutti i professionisti dei dati e degli analytics, ricevono una continua pressione per trovare nuove modalità di gestione dei dati, che presentano volumi in costante crescita, elevata distribuzione rispetto all’architettura dati aziendale, formati e tipologie sempre più eterogenei.
La maggior parte dei professionisti dei dati riconosce che, allo stato attuale, muovere fisicamente i dati in una singola location per il reporting e l’attività legata agli analytics non è più praticabile.
Unisciti a noi in questo webinar per scoprire quali sono le moderne alternative per la gestione agile dei dati nel 2021. In questa sessione parleremo di:
- Enterprise Data Fabric
- Data Mesh
- Multi-Cloud Hybrid architecture
Come utilizzare la piattaforma Denodo Data Virtualization per implementare una moderna architettura di dati.
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...AmmLibera AL
L’obiettivo di questo documento di raccomandazioni e proposte è duplice. Da una parte raccoglie considerazioni e proposte rilevanti ai fini dell’adozione del cloud computing da parte della pubblica amministrazione in Italia. Dall’altra si promette di offrire strumenti utili a questo scopo privilegiando un approccio che oltre a proporsi con finalità di razionalizzazione e di risparmio miri anche a promuovere un’organizzazione innovativa dei servizi pubblici online che le soluzioni tecnologiche e operative del cloud rendono possibile. Coerentemente, nel documento vengono solo
marginalmente affrontate alcune problematiche più tecniche connesse alla naturale evoluzione tecnologica dei data center, anche perché a tale tematica sarà dedicato un apposito documento che terrà conto di quanto emerso nel corso delle attività di valutazione, monitoraggio e coordinamento svolte da DigitPA.
Linee Guida per la razionalizzazione della infrastruttura digitale della Pubb...AmmLibera AL
Le presenti linee guida indicano i possibili approcci alla razionalizzazione delle infrastrutture IT, ovvero l’insieme di interventi attuati sulla tecnologia, sulla logistica e sulla organizzazione di un “sistema informativo”, al fine di diminuirne i costi di esercizio, semplificarne la gestione operativa, aumentarne l’efficienza, la flessibilità e la sicurezza. Il disegno architetturale delle applicazioni e le limitazioni di alcuni sistemi operativi obbligano ancora molti server a risiedere su diverse istanze di sistema operativo e quindi spesso su macchine diverse. Per tali ragioni il processo di razionalizzazione è complesso e implica un ridisegno applicativo e architetturale del sistema informativo e un nuovo disegno organizzativo delle funzioni IT di supporto.
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Denodo
Watch full webinar here: https://bit.ly/40l9A3C
L’approccio logico alla gestione dei dati sta rapidamente guadagnando popolarità tra le aziende pubbliche e private. Per rispondere alle nuove logiche di business, le organizzazioni devono essere in grado di gestire, accedere, integrare e utilizzare i dati in modo semplice, sicuro ed efficace, indipendentemente dalla loro origine o formato.
In questo webinar, esploreremo come un approccio logico alla gestione dei dati, basato sulla virtualizzazione dei dati, può aiutare le organizzazioni a superare le sfide relative alla gestione e integrazione del patrimonio informativo, migliorare l'analisi dei dati e accelerare la delivery dei dati e il processo di digitalizzazione.
Discuteremo anche i casi d'uso comuni come Real-Time Analytics, Data Science, Logical Data Fabric, Data Democratization, 360 Customer View e Hybrid/Multi Cloud Data Integration, e come le organizzazioni possono utilizzare questo moderno approccio per trarre il massimo valore dai loro dati.
Inoltre, condivideremo esempi di successo di organizzazioni che hanno già implementato una gestione logica del patrimonio informativo aziendale con la virtualizzazione dei dati.
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
Watch: https://bit.ly/3ftTdKr
Il 26 giugno partecipa al Webinar DATA STRATEGY PER TRASFORMARE I DATI IN ASSET STRATEGICI AZIENDALI realizzato da IKN Italy con la collaborazione di Denodo per approfondire i trend tecnologici che indirizzeranno e stanno guidando la Data Strategy delle aziende in tutto il mondo. Nell'era dei Big Data, dell'Intelligenza Artificiale e del Cloud Computing, il volume, l’eterogeneità e la velocità dei dati sono in costante crescita e la sfida, pertanto, diventa quella di poter governare i dati, in modo da facilitare la loro trasformazione in informazioni e conoscenza, dando la possibilità al business di accedervi con agilità e semplicità.
Vuoi sapere come trasformare i dati in asset strategici, affinché l’azienda sia (veramente) Data-Driven?
Partecipa al webinar per rispondere a questa domanda e per scoprire:
- Come Machine Learning e Artificial Intelligence possono semplificare le sfide della gestione dei dati al giorno d’oggi e qual è il ruolo della Data Virtualization in tale semplificazione
- Qual è l'evoluzione delle architetture di Data Provisioning e di Data Management nelle aziende e in che modo il paradigma di Data Fabric entra in gioco
- Come è possibile gestire l'integrazione dei dati in un mondo sempre più ibrido e multi-cloud
- Come possono le aziende monetizzare dati e informazioni, sfruttando e valorizzando un’infrastruttura Data-as-a-Service
- Quale ruolo svolgere il Voice Computing nel futuro dell'analisi dei dati
Watch full webinar here: https://bit.ly/2J06agA
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, molte organizzazioni fanno ancora affidamento ad architetture di dati basate su tecnologie della fine del XX secolo. Questo scenario è al centro di una rapida evoluzione, con l’adozione di nuove tecnologie d'integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico e sicuro per l'accesso in tempo reale ai dati aziendali, riducendo i costi e rischi e migliorando la conformità delle informazioni.
In questa sessione parleremo di:
1. Cos'è la virtualizzazione dei dati;
2. Come differisce da altre forme di integrazione a livello Enterprise;
3. Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Logical Data Lake: polifunzionale e decentralizzato per l'analisi dei datiDenodo
Watch full webinar here: https://bit.ly/2KFC4j6
Storicamente il data lake viene strutturato come una piattaforma centralizzata di archiviazione dei dati al fine di consentire l'analisi e la gestione di grandi quantitativi di dati, per esempio da parte dei data scientist, e per ridurre i costi di archiviazione.
Al giorno d'oggi, avere successo con questo metodo di lavoro orientato su una repository di dati centralizzata, è reso più problematico dall'esplosione del big data, dalle nuove regole sulla privacy dei dati e dalle restrizioni intra-dipartimentali. In questo webinar discuteremo del perché i data lake multifunzionali e decentralizzati sono il futuro dell'analisi dei dati.
Partecipa a questa sessione per imparare:
- Le restrizioni del data lake fisico monofunzionale;
- Come costruire un Logical Datalake multifunzionale per i business users aziendali;
- I casi d'uso più recenti che rendono necessari un data lake multifunzionale e decentralizzato;
Digital 4 e guide - Hybrid Cloud come scegliere il meglio tra virtuale e fisi...Alberto Ferretti
N4B SRL & SOLARWINDS MSP - CAMBIA IL TUO APPROCCIO VS IL CYBER RISK Scopri le soluzioni Saas per il Remote Management ed il Backup & Disaster Recovery. L'importanza per le PMI di scegliere il Partner MSP (Managed Service Provider) e gli strumenti adeguati per garantire la sicurezza IT e la Business Continuity. MSP + CIO + CEO un nuovo approccio integrato al Cyber Risk e allo sviluppo sostenibile della Digital Trasformation
N4B SRL Distributore Solarwinds MSP - alberto.ferretti@n4b.it - 328-7221519 - www.n4b.it
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Big Data Social Media
Valore dei Dati
Volume Varietà Velocità
Trends & Patterns
Numeri Vs Immagini
Dati Vs Istinto
Data Flow nel Business e nei Social Media
Big Data Value Chain
Analisi Predittive
Hadoop, Microsoft Big Data
Big Data landscape 2014
Convergenza: Social Media, Coding, Big Data, Apps, Cloud
Convegno L’informazione statistica ufficiale sul trasporto marittimo tra integrazione e innovazione
Ancona, Sala Marconi, Molo Santa Maria
27 febbraio 2019
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Cloud computing indicazioni per l’utilizzo consapevole dei servizi (Garante P...AmmLibera AL
L’Autorità nell’ottica di promuovere un utilizzo corretto delle nuove modalità di erogazione dei servizi informatici, specie per quelli erogati tramite cloudpubbliche (public cloud), che comportano l’esternalizzazione di dati e documenti, ritiene opportuna e doverosa un’opera di informazione orientata a tutelare l’importante patrimonio informativo costituito dai dati personali.
Tali indicazioni si propongono, quindi, di offrire un primo insieme di indicazioni utili a tutti gli utenti di dimensioni contenute e di limitate risorse economiche (singoli,
piccole o medie imprese, amministrazioni locali quali i piccoli comuni, ecc.) destinatari della crescente offerta di servizi di cloud computing(pubbliche o ibride), con l’obiettivo di favorire l'adozione consapevole e responsabile di tale tipologia di servizi.
Le avvertenze di seguito enucleate costituiscono un primo quadro di cautele che favoriscono il corretto trattamento dei dati personali attraverso l’utilizzo dei
predetti servizi virtuali e, pertanto, si indirizzano anche ai fornitori, i quali possono fare riferimento a tali indicazioni nella predisposizione dei loro servizi, con l’accortezza
di informare opportunamente gli utenti in ordine alla loro adozione.
L’Autorità - nella consapevolezza che l’utilizzo dei servizi di cloud computing prefigura problematiche ben difficilmente risolvibili a livello nazionale che richiedono,
invece, una riflessione condivisa a livello sia europeo sia internazionale, e in considerazione di tutte le sue implicazioni in relazione al trattamento dei dati personali - intende in ogni caso continuare a seguire l’evoluzione del fenomeno, anche partecipando con altri decisori istituzionali a specifici tavoli di lavoro aperti in materia, in particolare con DigitPAper quanto attiene all’adozione di modelli orientati alle cloud in ambito pubblico. L’Autorità, inoltre, si riserva, laddove ne rilevasse la necessità, di adottare in futuro specifiche e dettagliate prescrizioni indirizzate a utenti e fornitori, specie
sotto il profilo delle misure di sicurezza.
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
L’Enterprise Data Fabric per una gestione agile dei datiDenodo
Watch full webinar here: https://bit.ly/2P5RUcO
Il machine learning e l'intelligenza artificiale stanno rivoluzionando la nostra vita quotidiana e la trasformazione ad azienda data-driven è diventata una delle priorità strategiche in molte organizzazioni pubbliche e private. I dati si sono trasformati in linfa vitale per le compagnie, fluendo all’interno dell’azienda senza interruzioni, per consentire la generazione di insight capaci di produrre valore, creare nuove opportunità di business, ottimizzare l’operatività e migliorare le relazioni con i clienti.
Il team del CDO, i CIO, i Data Architect e tutti i professionisti dei dati e degli analytics, ricevono una continua pressione per trovare nuove modalità di gestione dei dati, che presentano volumi in costante crescita, elevata distribuzione rispetto all’architettura dati aziendale, formati e tipologie sempre più eterogenei.
La maggior parte dei professionisti dei dati riconosce che, allo stato attuale, muovere fisicamente i dati in una singola location per il reporting e l’attività legata agli analytics non è più praticabile.
Unisciti a noi in questo webinar per scoprire quali sono le moderne alternative per la gestione agile dei dati nel 2021. In questa sessione parleremo di:
- Enterprise Data Fabric
- Data Mesh
- Multi-Cloud Hybrid architecture
Come utilizzare la piattaforma Denodo Data Virtualization per implementare una moderna architettura di dati.
Raccomandazioni e proposte sull'utilizzo del cloud computing nella Pubblica A...AmmLibera AL
L’obiettivo di questo documento di raccomandazioni e proposte è duplice. Da una parte raccoglie considerazioni e proposte rilevanti ai fini dell’adozione del cloud computing da parte della pubblica amministrazione in Italia. Dall’altra si promette di offrire strumenti utili a questo scopo privilegiando un approccio che oltre a proporsi con finalità di razionalizzazione e di risparmio miri anche a promuovere un’organizzazione innovativa dei servizi pubblici online che le soluzioni tecnologiche e operative del cloud rendono possibile. Coerentemente, nel documento vengono solo
marginalmente affrontate alcune problematiche più tecniche connesse alla naturale evoluzione tecnologica dei data center, anche perché a tale tematica sarà dedicato un apposito documento che terrà conto di quanto emerso nel corso delle attività di valutazione, monitoraggio e coordinamento svolte da DigitPA.
Linee Guida per la razionalizzazione della infrastruttura digitale della Pubb...AmmLibera AL
Le presenti linee guida indicano i possibili approcci alla razionalizzazione delle infrastrutture IT, ovvero l’insieme di interventi attuati sulla tecnologia, sulla logistica e sulla organizzazione di un “sistema informativo”, al fine di diminuirne i costi di esercizio, semplificarne la gestione operativa, aumentarne l’efficienza, la flessibilità e la sicurezza. Il disegno architetturale delle applicazioni e le limitazioni di alcuni sistemi operativi obbligano ancora molti server a risiedere su diverse istanze di sistema operativo e quindi spesso su macchine diverse. Per tali ragioni il processo di razionalizzazione è complesso e implica un ridisegno applicativo e architetturale del sistema informativo e un nuovo disegno organizzativo delle funzioni IT di supporto.
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Denodo
Watch full webinar here: https://bit.ly/40l9A3C
L’approccio logico alla gestione dei dati sta rapidamente guadagnando popolarità tra le aziende pubbliche e private. Per rispondere alle nuove logiche di business, le organizzazioni devono essere in grado di gestire, accedere, integrare e utilizzare i dati in modo semplice, sicuro ed efficace, indipendentemente dalla loro origine o formato.
In questo webinar, esploreremo come un approccio logico alla gestione dei dati, basato sulla virtualizzazione dei dati, può aiutare le organizzazioni a superare le sfide relative alla gestione e integrazione del patrimonio informativo, migliorare l'analisi dei dati e accelerare la delivery dei dati e il processo di digitalizzazione.
Discuteremo anche i casi d'uso comuni come Real-Time Analytics, Data Science, Logical Data Fabric, Data Democratization, 360 Customer View e Hybrid/Multi Cloud Data Integration, e come le organizzazioni possono utilizzare questo moderno approccio per trarre il massimo valore dai loro dati.
Inoltre, condivideremo esempi di successo di organizzazioni che hanno già implementato una gestione logica del patrimonio informativo aziendale con la virtualizzazione dei dati.
Da microservizi a processi agili, da indicazioni sul governo della spesa a piattaforme verticali ed API. Alcune delle novità introdotte dal Piano Triennale per i fornitori di tecnologia della Pubblica Amministrazione.
Edward William Gnudi - Indipendentemente dal percorso intrapreso da ogni realtà, le chiavi principali di successo per la Data Governance sono trasparenza e chiarezza del processo e degli asset coinvolti. Con l’avvento dei Big Data i classici framework proposti non bastano più. Occorrono standard e best-practice che rendano chiaro e accessibile un modello unico che centralizzi la gestione di Data Warehouse e Data Lake. Verrà presentato un caso reale che dimostra come la modellazione dei dati ha permesso a tutti i Business User di comprendere l'intero patrimonio informativo a disposizione.
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...Denodo
Watch full webinar here: https://buff.ly/3Fmc74I
Affinché i progetti di data science abbiano successo, i Data Scientist e i Business Analysts hanno bisogno di accedere a una molteplicità di dati. Tuttavia, consentire l'accesso a tutti i dati tramite un repository centrale integrato è un compito spesso arduo, che può richiedere fino all'80% del tempo del progetto in attività di acquisizione, esplorazione, comprensione e preparazione dei dati.
La Gestione Logica dei dati può aiutare i Data Scientist e i Business Analyst ad accelerare alcune delle attività più tediose e onerose, consentendo loro di concentrarsi sui loro obiettivi e su come i dati consentono di raggiungerli. Poiché la piattaforma di Gestione Logica dei dati dei dati si integra agilmente nell'ecosistema aziendale, i Data scientist o i Business Analyst possono continuare a utilizzare gli strumenti che conoscono, senza dover acquisire nuove competenze per sfruttare compiutamente i dati disponibili.
In questa sessione on-demand, scopriremo insieme come la Gestione Logica dei dati permetta di:
- fornire tutti i dati aziendali, in tempo reale e senza repliche;
- creare e condividere più modelli logici con un semplici operazioni di drag and drop;
- disporre di un catalogo attraverso il quale comprendere facilmente il significato dei dati, le loro relazioni reciproche e la loro origine.
GWT 2014: Energy Conference - 03 Network Design & Maintenance per le reti tec...Planetek Italia Srl
Geospatial World Tour 2014: Energy Conference.
Milano, 27 maggio 2014.
Network Design & Maintenance per le reti tecnologiche
Tiziano Orsenigo, Intergraph Italia
Power BI Streaming Data Flow e Azure IoT CentralMarco Parenzan
Dal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
Il mercato del nuovo millennio chiede capacità di costruire la propria solidità in una situazione di grandi perturbazioni. Ogni azienda è chiamata ad interpretare le costanti sfide accogliendo ogni istanza proposta dal mercato, avendo la capacità di re-immaginarsi, rispondendo a stimoli costanti e spesso disparati.
Oggi la grande sfida e’ interpretare la cosiddetta società della conoscenza. Entrare e costruire valore a partire dalla grande opportunità rappresentata dalla rete. L’informazione produce valore, la corretta gestione delle informazioni migliora la qualità della vita e del lavoro, consente di ridurre gli sprechi e di aggredire i mercati in modo competitivo.
In tale contesto Insiel si sta misurando, ad esempio con il FLOSS, impegnata ad aprire interlocuzioni con la comunità, con le istituzioni internazionali, con gli operatori e con gli utenti stessi. L’obiettivo e’ interpretare questo innovativo modello di business sia all’interno dell’azienda che mettendo a sistema la solidità e la forza di Insiel nella partecipazione a diversi progetti nazionali e internazionali in ambito Open Source.
Nell’intervento verranno presentate esperienze e criticità maturate in ambito OS, sia per la conduzione di progetti di collaborazione e sviluppo che per l’adozione di strumenti all’interno dell’azienda.
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...Denodo
Watch full webinar here: https://bit.ly/3m9tIkF
I dati sono il carburante della conoscenza, ma la loro mole fa emergere nuove sfide:
- come integrare dati eterogenei;
- come metterli a disposizione a chi ne ha bisogno;
- come renderne esplicito il significato.
Il Cloud, inoltre, rende il dato ubiquo e distribuito, amplificando la complessità e costringendoci a semplificarla, adottando un approccio basato sulla Data Virtualization.
S. Corradini, L. Martinez, 30 Novembre - 1 Dicembre 2021 -
Webinar: L'inclusione lavorativa: il panorama nazionale e l'esperienza dell'Istat
Titolo: La condizione occupazionale delle persone con disabilità
L. Lavecchia, 30 Novembre - 1 Dicembre 2021 -
Webinar: Il quadro informativo per il Green Deal: sviluppi e domanda informativa per le questioni energetiche
Titolo: La misura della povertà energetica in Italia
V. Buratta, 30 Novembre - 1 Dicembre 2021 -
Webinar: La strategia dei dati: l’iniziativa europea e la risposta nazionale
Titolo: Il ruolo dell'Istat nella Strategia Nazionale ed Europea dei Dati
E. Fornero, 30 Novembre - 1 Dicembre 2021 -
Webinar: Gender statistics by default: il cambiamento di paradigma nelle statistiche e oltre
Titolo: Illusioni, luoghi comuni e verità nella lotta alle disparità di genere
A. Perrazzelli, 30 Novembre - 1 Dicembre 2021 -
Webinar: Gender statistics by default: il cambiamento di paradigma nelle statistiche e oltre
Titolo: Qualità di genere per sostenere la crescita
A. Tinto, 30 Novembre - 1 Dicembre 2021 -
Webinar: Gli effetti della pandemia sulla soddisfazione per la vita e il benessere: analisi e prospettive
Titolo: L'impatto della pandemia sulla componente soggettiva del Benessere Equo e Sostenibile
L. Becchetti, 30 Novembre - 1 Dicembre 2021 -
Webinar: Gli effetti della pandemia sulla soddisfazione per la vita e il benessere: analisi e prospettive
Titolo: La pandemia attraverso gli indicatori soggettivi a livello internazionale: un paradosso?
G. Onder, 30 Novembre - 1 Dicembre 2021 -
Webinar: La lezione della crisi per le statistiche demografiche e sociali
Titolo: Il sistema di sorveglianza dei decessi dell'ISS e le nuove prospettive
C. Romano, 30 Novembre - 1 Dicembre 2021 -
Webinar: La lezione della crisi per le statistiche demografiche e sociali
Titolo: Nuovi strumenti e indagini per un'informazione pertinente in fase di emergenza
S. Prati, M. Battaglini, G. Corsetti, 30 Novembre - 1 Dicembre 2021 -
Webinar: La lezione della crisi per le statistiche demografiche e sociali
Titolo: La sfida per la demografia: tempestività e qualità dell'informazione
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai microdati sta cambiando la policy-making
1. Piattaforma Digitale Nazionale Dati
Stato Attuale e Piano Sviluppi
SIMONE PIUNNO
Chief Technology Officer
Team per la Trasformazione Digitale, Presidenza del Consiglio
2. Le sfide per la PA
• Conformità alle regolamentazioni
Strumenti e modelli operativi per facilitare
la pubblicazione, distribuzione ed utilizzo
dei dati conforme al GDPR
• Interoperabilità
Punto centrale di raccolta e distribuzione
Standardizzazione delle codifiche
Abbattimento dei silos
• Democratizzazione
Open data utilizzabili da tutti, self service
• Standardizzazione
Metadatazione assistita, Cataloghi,
Ontologie, Validazione in fase di Ingestion
• Valorizzazione
Estrazione di informazioni per creare
modelli decisionali
• Engagement
Fare leva sulla potenza della community,
creare storie con i dati
3. Team di
esperti
Data
governance
Piattaforma
tecnologica
Infrastruttura Cloud
Data Engineers
Ontologie e vocabolariApproccio organizzativo
Data Protection
Officer
CyberSecurity
Officer
Data Scientist
Analytics as a Service
Data Applications
Web API
Big Data Lake
DB di interesse nazionale
Compliance GDPR Policy di accesso
Sistema normativo
4. CAD ( Codice Amministrazione Digitale ) articolo 50-ter
Introduce la Piattaforma Digitale Nazionale Dati e il concetto di conferimento
obbligatorio per alcuni data set strategici.
Con un DPCM, la Presidenza del Consiglio indicherà un elenco di dataset che le PA
dovranno obbligatoriamente conferire nella PDND
Normative di riferimento a Supporto
5. Storia del progetto
DAF nel Piano
Triennale
Nel CAD
DAF diventa PDND
Art 50 Ter
Il primo prototipo va live
durante Hack.Developers
Sviluppo e
sperimentazione con enti
pilota
2017 2018 2019
Inzio attività di
consolidamento ed
introduzione dei concetti
Privacy by Design e Data
Quality by Design
6. PDND e SaaS : PDND as a Service
La PDND adotta il modello di distribuzione del software applicativo come
Servizio ( SaaS ) , dove il Team per la Trasformazione Digitale ne è
responsabile per lo sviluppo, messa in opera, gestione e manutenzione,
semplificando i compiti delle PA e supportandole relativamente alla gestione
e condivisione dei Dati Pubblici e la loro pubblicazione in Dati Aperti
7. PDND e SaaS : PDND as a Service
Piattaforma
Codice OpenSource Discussione Semantica
ed
Ontologie
Documentazione
Portale OpenDataPortale Privato
as Service
Portale Pubblico
as Service
Developers, Designers, Docs Communities
Technology & Services
Technology
9. PDND come Data Hub
Problema che risolve
la complessità nell’acquisizione e ridistribuzione dei
dataset, in conformità con GDPR
La PDND è un framework standardizzato per
l’automazione della acquisizione, controllo,
metadatazione e ridistribuzione sicura dei dati
attraverso la segregazione in Organizzazione e Gruppi
Esempio
Ad esempio, ANAC deve raccogliere dati sulle gare da
molte amministrazioni e, dopo averli consolidati/filtrati,
deve mettere il risultato a disposizione di molte altre
PA.
10. OpenData as-a-service Problema che risolve
In esecuzione di CAD art 50 le PA devono pubblicare i
loro dati in formato aperto ma le PAL non hanno
strumenti e competenze per farlo in maniera sicura e
adeguata.
La PDND è un servizio di pubblicazione assistita degli
open data che garantisce la conformità con le linee
guida DCAT-AP_IT.
Esempio
Comune di Torino ha configurato PDND per erogare un
sito personalizzato ed esporre i dataset che ha caricato
Logo, Stile, Filtri sui Dati e Widgets sono specifici per il
Comune, ma è PDND
11. Analytics as-a-service Problema che risolve
Le PA hanno bisogno di utilizzare i dati per
creare cruscotti decisionali.
La PDND è un servizio di correlazione e analisi
per facilitare l’esplorazione dei dati
Esempio
Comune di Milano ha caricato su PDND i suoi
dati e li ha combinati con altri già presenti per
creare una mappa dei quartieri che visualizza
diversi KPI ed aiuta ad ottimizzare la
pianificazione degli investimenti su territorioSuperSet Dashboards e Data Applications
12. Data stories Problema che risolve
Le PA vogliono comunicare con i cittadini
usando i dati
La PDND è un servizio di story-telling con i dati.
Esempio
Dal Registro nazionale degli aiuti di Stato è
stata creata una storia (simile a un blog post).
I grafici sono interattivi, zoomabili, e si
aggiornano via via che nuovi dati confluiscono
nella piattaforma.
Il testo a contorno spiega di cosa si sta
parlando e come interpretare i dati.
13. OpenAPI & 3rd Party Tools for DataViz, BI, Analytics
Esempio
Le PA che possiedono già strumenti di terze parti per la Data
Visualization, Business Intelligence, Data Science, possono connettersi
direttamente ai DataSet della PDND sfruttando le REST API, in maniera
semplice, rapida e sicura
15. Personal Data Protection Rules / Privacy by Design
Problema che risolve
Compliancy GDPR
Automazione delle procedure di Impact Assessment e
convenzioni di scambio dati tra le diverse organizzazioni
Come
Implementazione delle valutazioni di impatto sulla privacy
legate ai DataSet nei punti chiave del processo di
ingestion e distribuzione all’interno ed esterno della
piattaforma PDND
Registro convenzioni e DataSets associati
Ingestion
Condivisione
Pubblicazione
16. Data Governance Enhancement
Data Quality Services Problema che risolve
Qualità del dato in Ingestion, automazione del
processo di verifica sulla sensibilità dei dati,
classificazione, metadatazione, mascheramento, etc.
Come
Implementazione di un Data Governance Framework
integrato nella piattaforma che implementi I vari
servizi di controllo sulla qualità dati ed informazioni
sensibili rilevate in maniera automatica e
configurabile, che sia in grado di fornire in tempo
reale ( event messages , dashboards, logs )
informazioni sui problemi ed anomalie riscontrati
Cleaned
Good
Pulizia
Integrazione