Watch: https://bit.ly/3ftTdKr
Il 26 giugno partecipa al Webinar DATA STRATEGY PER TRASFORMARE I DATI IN ASSET STRATEGICI AZIENDALI realizzato da IKN Italy con la collaborazione di Denodo per approfondire i trend tecnologici che indirizzeranno e stanno guidando la Data Strategy delle aziende in tutto il mondo. Nell'era dei Big Data, dell'Intelligenza Artificiale e del Cloud Computing, il volume, l’eterogeneità e la velocità dei dati sono in costante crescita e la sfida, pertanto, diventa quella di poter governare i dati, in modo da facilitare la loro trasformazione in informazioni e conoscenza, dando la possibilità al business di accedervi con agilità e semplicità.
Vuoi sapere come trasformare i dati in asset strategici, affinché l’azienda sia (veramente) Data-Driven?
Partecipa al webinar per rispondere a questa domanda e per scoprire:
- Come Machine Learning e Artificial Intelligence possono semplificare le sfide della gestione dei dati al giorno d’oggi e qual è il ruolo della Data Virtualization in tale semplificazione
- Qual è l'evoluzione delle architetture di Data Provisioning e di Data Management nelle aziende e in che modo il paradigma di Data Fabric entra in gioco
- Come è possibile gestire l'integrazione dei dati in un mondo sempre più ibrido e multi-cloud
- Come possono le aziende monetizzare dati e informazioni, sfruttando e valorizzando un’infrastruttura Data-as-a-Service
- Quale ruolo svolgere il Voice Computing nel futuro dell'analisi dei dati
GenAI y el futuro de la gestión de datos: mitos y realidades
Data Strategy per trasformare i dati in asset strategici aziendali
1. EMEA WEBINARS
Data Strategy per trasformare i dati in asset
strategici aziendali
Andrea Zinno
Data Evangelist
Denodo
Cosa sta accadendo, cosa accadrà e cosa dobbiamo augurarci possa accadere
2. 2
Attribuita a Niels Bohr - Fisico
... È difficile fare previsioni, in
particolare sul futuro
3. 3
Predire il futuro osservando il presente (sperando di prenderci)
Hype Cycle for Data Management, 2018
5. 5
Denodo Customers Cloud Survey - 2019
• Oltre il 60% delle aziende ha già in corso uno o più progetti in Cloud
• Il 25% è «Cloud-First» o si trova nello stato avanzato dell’implementazione
• Solo il 4,5% non ha al momento piani a breve termine per uno «spostamento» verso il Cloud
• Oltre il 46% ha esigenze di integrazione ibrida e oltre il 35% è già Multi-Cloud
• I principali casi d'uso includono: Analytics (49%), Data Lake (45%) e Cloud Data Warehouse
(40%)
• Meno del 9% dei sistemi On-Premise è stato «decommissionato» (la stima di Forrester è 8%)
• Le «Key Technologies» per la transizione verso il Cloud sono: Cloud Platform Tools (56%), Data
Virtualization (49.5%), Data Lake Technology (48%)
Source: Denodo Cloud Survey 2019, N = 200 - https://www.denodo.com/en/document/whitepaper/denodo-global-cloud-survey-2019
8. 8
“A unified, trusted, and comprehensive view of business data
produced by orchestrating data sources automatically, intelligently,
and securely, then preparing and processing them in big data
platforms such as Hadoop and Apache Spark, data lakes, in-
memory, and NoSQL.”
https://www.forrester.com/report/Now+Tech+Big+Data+Fabric+Q2+2018/-/E-RES142691
9. 9
Possiamo permetterci un unico Repository per tutti i dati ?
• Perdita di capacità: ciò che offre un Data Lake può differire da ciò che è offerto dalle
fonti originali, ad esempio un accesso rapido tramite ID in un RDBMS operativo
• Elevato investimento iniziale: costo per la creazione delle «Pipeline» che, a partire
dalle diverse fonti dati, alimentano il Data Lake
• Calcolo del ROI difficoltoso, dato molti dei dati potrebbero non essere mai usati
• Il Data Lake è una replica, parziale o totale, del Data Warehouse ?
• Costi ricorrenti elevati: le «Pipeline» richiedono normalmente una frequente
manutenzione, per essere sempre coerenti con le modifiche alla struttura delle fonti
dati
• Rischio di inconsistenza: la necessità di sincronizzazione tra le fonti dati e il Data Lake
introduce necessariamente delle «finestre di disallineamento»
COST
GOVERNANCE
Possiamo mettere tutti i dati dell'azienda in un unico Super Repository ? Sarebbe
possibile? Sarebbe realistico ?
11. 11
Gartner – La nascita delle «Logical Architectures»
“Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner April 2018
DATA VIRTUALIZATION
12. 12
Come ML e AI possono
aiutarci nell’affrontare le
sfide del Data Management
13. 13
ML, AI e Data Science già sono tra noi
▪ La Data Science è una pratica comune in
molte aziende, in grado di fornire
informazioni per prendere decisioni
migliori e contestualizzate
▪ La figura del Data Scientist è attualmente
una delle più richieste
▪ Gli ambiti di applicazione variano tra
l’allocazione delle risorse, la gestione della
Supply Chain, il contrasto alle frodi, l’analisi
predittiva, etc.
▪ Denodo è già frequentemente utilizzato
in questi ambiti, come un modo per
semplificare e accelerare l'esplorazione e
l'analisi dei dati
https://www.denodo.com/en/webinar/customer-keynote-data-virtualization-modernize-and-
accelerate-analytics-prologis
14. 14
Il ruolo dell’intelligenza artificiale nel Data Management…
▪ I Software Vendor hanno iniziato a utilizzare tecniche di
IA per analizzare i loro dati, cercando di automatizzare
quelle attività ripetitive e di basso valore
▪ Queste tecniche possono fornire competenze e porre in
essere azioni che altrimenti richiederebbero l'intervento
manuale di un esperto umano
• Capacità di scalare su volumi elevati
• Riduzione del carico di lavoro dovuto ad attività
ripetitive su profili qualificati
▪ Nell’ambito del Data Management, le prime applicazioni
di successo sono quelle che aiutano a identificare
possibili criticità nella qualità dei dati e a evidenziare
dati potenzialmente sensibili
▪ Molti fornitori già incorporano una qualche forma di «AI
Tagging», come modelli per la classificazione automatica
e/o per la valutazione della sicurezza
https://www.wsj.com/articles/how-data-management-helps-companies-deploy-ai-11556530200
15. 15
…e nella Data Virtualization
▪ Rendere il Data Discovery più efficace
▪ Suggerimenti sui Dataset più adatti al profilo dell’utente
▪ Semplificare la modellazione dei dati
▪ Individuazione delle relazioni sulla base dell’utilizzo dei dati
▪ Suggerimenti su filtri e restrizioni
▪ Incremento delle prestazioni
▪ Suggerimenti e automatismo nella «messa a punto» delle
Query e della Cache
▪ Risoluzione automatica dei «colli di bottiglia»
17. 17
Verso un’interazione più naturale
▪ Il controllo vocale è già parte delle nostre vite, sia per
«chiedere» che per «fare»
▪ Con Siri, Alexa o Google Home, possiamo, ad esempio,
chiedere come sarà il tempo, accendere la luce o regolare la
temperatura
▪ In ambito analitico, le soluzioni cominciano ad adottare il
linguaggio naturale come metodo di «interrogazione», con
una notevole semplificazione, soprattutto per gli utenti non
tecnici
▪ In certi contesti questa possibilità potrebbe rappresentare una
funzionalità irrinunciabile e non essere solo un optional
▪ Con il progredire di queste tecnologie, sarà possibile,
usando la voce, fare richieste sempre più complesse e
articolate
18. 18
Umanizzare l’interazione
Il Natural Language Processing consente - e consentirà sempre di più - agli utenti di porre una domanda a un chatbot e di ricevere
una risposta, ricca di dati, con un’interazione molto più vicina al modo con cui normalmente comunichiamo
«Le vendite totali dello scorso trimestre
del Prodotto A, in Italia, sono state pari
a 200 milioni, con un aumento del 15%
rispetto al trimestre precedente"
«Come sono
andate le vendite
del prodotto A, per il
trimestre passato,
in Italia?»
20. 20
Dare valore ai dati attraverso la loro condivisione
▪ Si prevede che il mercato delle Data Application
registrerà, nei prossimi anni, la maggiore crescita
per segmento
▪ La comunicazione «moderna» tra applicazioni
avviene tramite API, motivo per cui le API sono
diventate la pietra angolare di molte iniziative di
Digital Transformation
▪ L'accesso alle API (rispetto all'accesso diretto
attraverso un sito Web) rappresenta già una parte
significativa delle entrate dei colossi di Internet
▪ Esiste anche una porzione significativa di aziende
che utilizzano i dati come risorsa principale, con un
modello di business centrato sul «vendere API»
▪ Inoltre, le aziende «tradizionali» hanno già
cominciato a utilizzare i propri dati come risorsa
aggiuntiva
https://www.statista.com/statistics/255970/global-big-data-market-forecast-by-segment/
21. Business Need Solution Benefits
21
Drillinginfo, ora Enverus, è la principale società di SaaS e di analisi dei dati per il supporto alle decisioni
sull'esplorazione energetica, aiutando l'industria petrolifera e del gas a ottenere risultati migliori e più rapidi.
Drillinginfo fornisce assistenza a oltre 3.200 aziende in tutto il mondo dalla sede principale di Austin, in Texas.
▪ La crescita del business impone di
sviluppare nuovi strumenti e modelli
▪ L’importanza di ridurre il time-to-
market
▪ Il Data Warehouse tradizionale non
abbastanza veloce e agile nel
soddisfare le esigenze dei team di
analisi e sviluppo
▪ Ricerca di una soluzione economica in
grado di ridurre il time-to-value
▪ Connettere virtualmente, grazie a
Denodo, i dati grezzi del Data
Warehouse con quelli perfezionati
dell’MDM
▪ Il livello di virtualizzazione dei dati
combina le viste e le espone come
servizi RESTful alle applicazioni di
analisi e supporto decisionale
▪ Fornire strumenti di ricerca ai clienti
esterni, in modo che possano costruire
le proprie applicazioni sulla base dei
servizi resi disponibili
▪ Realizzati circa 25 servizi per i
principali ambiti di business
▪ Tempo di sviluppo ridotti a un paio
d’ore, contro i precedenti 2/3 giorni
per il completamento del processo di
ETL, più altri 2 giorni circa per la
creazione dell'interfaccia dati
▪ L'intero processo di virtualizzazione è
ora gestito da un solo sviluppatore,
con un deciso risparmio sui costi e le
risorse necessarie
Un caso reale – Drillinginfo
Drillinginfo Pumps Data-driven Applications Faster Using
Denodo’s Data Virtualization Platform
23. 23
Un caso reale – Caterpillar
Dealer
Maintenance
Contracts
Parts Inventory
OSI PI Hadoop Cluster
Tableau: Dealer / Customer Dashboard
IoT - Big Data Operational Data
Telematica - IoT
▪ Manutenzione predittiva per grandi client e
rivenditori
▪ Elemento differenziante rispetto alla
concorrenza, soprattutto quella a basso costo
▪ Aumento delle vendite di servizi e delle parti
di ricambio, con relativo aumento dei profitti
▪ Ottimizzazione dei prezzi dei servizi e della
parti di ricambio (Dynamic Price)
I dati di telemetria sono
inviati con Spark ad Hadoop
(OSI PI) per le analisi
Denodo è usato come
livello virtuale di
integrazione dei dati
provenienti dai sensori
con quelli «gestionali»
24. 24
Denodo e i suoi Data Services
▪ La Data Virtualization consente l'accesso via API a tutti i dati
«connessi» al livello virtuale, senza alcuna codifica
▪ Controlli di sicurezza per mostrare dati diversi a seconda
dell'utente / ruolo / profilo
▪ È possibile aggiungere articolate politiche di gestione del carico
di lavoro (esempio, massimo 100 Query / ora)
▪ Denodo supporta un’ampia gamma di protocolli e opzioni
▪ GraphQL
▪ GeoJSON (Geospatial APIs)
▪ OData 4
▪ OAuth 2.0, SAML and SPNEGO authentication
▪ OpenAPI (pka Swagger) documentation
26. 26
Cosa ci riserva il futuro…
La forza di gravità dei dati è in continuo aumento e lo sarà ancora nel prossimo
futuro. Saranno sempre più i dati a definire i processi che opereranno su di essi,
piuttosto che il viceversa
I dati continueranno inesorabilmente a crescere, in volume, variabilità e velocità, e
le architetture «fisiche» saranno sempre più in affanno, cedendo progressivamente
spazio a quelle «logiche»
I dati non saranno più «a supporto del business», ma saranno il business essi stessi
e ciò dovrà essere accompagnato dalla facilità con cui sarà possibile rappresentarli,
renderne evidente il significato, modellarli, fruirli, condividerli e venderli
La Data Virtualization sarà un tassello fondamentale per le nuove architetture dati, permettendo
a chi li consuma di focalizzarsi sul «cosa» piuttosto che sul «come»
27. 27
… e cosa dobbiamo ricordarci della Data Virtualization
Consapevolezza
Condivisione
Controllo
Consapevolezza del patrimonio informativo disponibile, per
sapere subito se c’è o meno quello che fa al caso nostro
Condivisione dei «concetti» e del loro «significato», così da
non reinventare ogni volta la ruota ed evitare di avere tante
ruote inutilmente differenti
Controllo di come il patrimonio informativo è utilizzato, per
migliorarlo, farlo evolvere e avere la garanzia che questo sia
utilizzato secondo le politiche aziendali e la normativa vigente
Capacità
Capacità di separare i dati nella loro componente logica e
fisica, riducendone gli «spostamenti» e fornendo l’ambiente
ideale per lavorare sul loro «significato»
28. 28
Niccolò Copernico - Astronomo, matematico e presbitero
Sapere che sappiamo ciò che
sappiamo e sapere che non
sappiamo quello che non sappiamo,
questa è la vera conoscenza