SlideShare a Scribd company logo
1 of 20
Download to read offline
Big Data e la forza degli eventi
Da sovraccarico informativo a strumento di conoscenza




                Big Data e IT Strategy
                Come costruire l’Impresa Intelligente




                                 Università Milano Bicocca
                                            1 Marzo 2013
                                             GIUSEPPE LIETO
Gartner definition

"Big data are high-volume, high-velocity, and/or high-variety
information assets that require new forms of processing to enable
enhanced decision making, insight discovery and process
optimization”




                                                                    2
Analytics con approccio classico BI (~ 1996)




                                               3
Evoluzione verso Data Warehouse (~2004)




                                          4
Il nuovo modello Big Data (~ 2011)




                                     5
Di cosa parlerò
A. Perché introdurre progetti di Big Data nelle aziende
B. Come introdurre progetti Big Data nelle aziende

Di cosa non parlerò
C. Quale tecnologia utilizzare per i Big Data




                                                          6
7
A. Perché introdurre progetti di Big Data

1.   Il primo approccio con le tecnologie dei Big Data fa apparire questa
     tecnologia come la soluzione a tutti i problemi di estrazione di
     conoscenza dai dati gestiti e gestibili da un’Organizzazione
2.   Si possono sviluppare applicazioni in modo semplice e veloce nei campi
     più disparati:                •Change monitoring
     •   Application management    •Network management
     •   IT Operation management   •Server management
     •   Security                  •Virtualization management
     •   Compliance                •Desktop management          •Web Analytics
                                   •SLA management              •Revenue optimization
     •   Business Analytics        •……….                        •Transaction analysis
     •   ………..
                                                                •……….



                                                                                        8
Dashboard




            9
A. Perché introdurre progetti di Big Data



Quindi la soluzione sembrerebbe essere
“mettiamo tutto in un grande contenitore, indicizziamo tutti i
dati possibili, mettiamoci all’opera perché ci aspetta la soluzione
a tutti i nostri problemi”




                                                                  10
B. Come introdurre progetti di Big Data
   (una buona ragione)
1.   Si deve partire da un caso d'uso, un fattore per migliorare la
     competitività, un problema di costo o qualunque altra ragione per cui
     l’uso di tecnologie Big Data fa diventare conveniente la soluzione del
     problema
2.   Driver tipici sono il tipo di informazioni (ad esempio fonti di informazione
     non strutturate) o il grande volume di informazioni da trattare; in ogni
     caso, è necessario identificare esattamente perché si sta perseguendo la
     strada dei Big Data
3.   Un buon fattore è sempre il ROI. Il costo per la soluzione del problema è
     sicuramente una ragione convincente (il costo include sia il costo della
     tecnologia che quello del lavoro e dei tempi di realizzazione)

                                                                               11
B. Come introdurre progetti di Big Data
   (un team di lavoro convinto)

1.   Il team di lavoro deve comprendere le potenzialità degli strumenti di Big
     Data. Non si tratta di realizzare un progetto tradizionale: bisogna
     coinvolgere il team per sensibilizzarlo sulle nuove possibilità di questi
     strumenti. Realizzato un caso sarà tipicamente semplice realizzarne un
     altro, anche se non era inizialmente previsto e sarà il team stesso ad
     essere propositivo




                                                                             12
B. Come introdurre progetti di Big Data
   (un team di lavoro convinto)

1.   I risultati non vanno considerati come ennesima elaborazione di dati
     presenti in database o data warehouse, ma piuttosto come nuovo modo
     di ottenere informazioni dai dati, anche da quelli non strutturati e che
     non erano utilizzati per gli scopi del nostro caso. Non si tratta, quindi di
     sostituire banche dati esistenti, ma piuttosto di aumentare il livello di
     integrazione dei dati ottenendo così nuove informazioni




                                                                                13
B. Come introdurre progetti di Big Data
   (un team di lavoro convinto)

Big Data come tecnologia additiva e non sostitutiva per ottenere
          risultati in modo rapido e con costi contenuti




                                                              14
B. Come introdurre progetti di Big Data
   (skill tecnico di sviluppo non necessariamente elevato)

1.   Le tecnologie Big Data consentono di utilizzare linguaggi di scripting
     piuttosto semplici, rendendo spesso disponibili sistemi visuali per
     disegnare applicazioni.
2.   Può essere più importante coinvolgere personale che conosce le fonti dei
     dati e i loro contenuti che personale con uno skill tecnico di
     programmazione elevato


        Non sottovalutare problemi di sicurezza e di privacy



                                                                           15
B. Come introdurre progetti di Big Data
   (evoluzione di prototipi)

• Non c’è cosa migliore che provare
    – Provare a sviluppare il progetto in un ambiente di test rappresentativo di come potrà
      essere l'ambiente di produzione può essere una buona tecnica per una serie di motivi:
      per capire le caratteristiche prestazionali del sistema, come può scalare al crescere delle
      dimensioni, come determinare le risorse professionali ed EDP necessarie e, soprattutto,
      verificare di aver compreso tutte le variabili in gioco.
    – Essere sicuri che i dati che si pensa di elaborare siano effettivamente disponibili e in una
      forma utilizzabile


   Attenzione! Non dimentichiamo i problemi di sicurezza e di governance




                                                                                                16
B. Come introdurre progetti di Big Data
   (certezza di poter usare i dati)

• Il tempo per poter materialmente stabilire il canale per l’accesso ai dati
  potrebbe non essere breve (dati di responsabilità di aree aziendali non
  coinvolte, dati sensibili, dati immediatamente utilizzabili, …..)




                                                                               17
B. Come introdurre progetti di Big Data
   (modello operativo semplice)
                                      Con l’ausilio di opportuni tools:
        Individuazione delle
                                      -  si definiscono i requisiti di massima dell’applicazione
         esigenze funzionali
                                      -  si selezionano i componenti da utilizzare


                                       Si definisce la profondità di analisi, in termini di
        Individuazione delle           -   storage massimo richiesto / tempo di retention
        esigenze prestazionali         -   tempi di risposta desiderati / CPU allocata
                                       -   opzioni di configurazione


              Sviluppo e/o
                                       Le applicazioni possono essere rilasciate in varie
        configurazione dei servizi,
           collaudo e rilascio         modalità (cloud, private cloud, servizi, …..)




         Attivazione del servizio      Configurazioni specifiche
         Possibili sviluppi custom     Possibilità di customizzazioni per specifiche esigenze.




                                                                                                   18
Modalità di introduzione di progetti big data

    (una buona ragione)
    (un team di lavoro convinto)
    (skill tecnico di sviluppo non necessariamente elevato)
    (evoluzione di prototipi)
    (certezza di poter usare i dati)
    (modello operativo semplice)

L’attenzione si sposta verso gli obiettivi. La definizione degli obiettivi viene
effettuata con il team di lavoro che vede progressivamente concretizzare gli
sforzi, senza competenze di sviluppo particolari, ma vedendo valorizzata la
propria competenza sui dati che ...... diventano informazioni




                                                                                   19
Grazie per l’attenzione



Giuseppe Lieto
glieto@sysmanagement.it
www.sysmanagement.it

More Related Content

Similar to Big Data e la forza degli eventi - Intervento di Lieto

Introduzione alla Virtualizzazione dei Dati
Introduzione alla Virtualizzazione dei DatiIntroduzione alla Virtualizzazione dei Dati
Introduzione alla Virtualizzazione dei DatiDenodo
 
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Denodo
 
Cloud, IoT and Big Data
Cloud, IoT and Big DataCloud, IoT and Big Data
Cloud, IoT and Big DataSolidQIT
 
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...La gestione logica dei dati come chiave del successo per Data Scientist e Bus...
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...Denodo
 
Datarace: IoT e Big Data (Italian)
Datarace: IoT e Big Data (Italian)Datarace: IoT e Big Data (Italian)
Datarace: IoT e Big Data (Italian)Davide Mauri
 
Data Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliData Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
 
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rotta
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rottaSe la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rotta
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rottaDenodo
 
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...Denodo
 
Il percorso verso un real-time business
Il percorso verso un real-time businessIl percorso verso un real-time business
Il percorso verso un real-time businessDedagroup
 
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
 
Business intelligence v0.3
Business intelligence v0.3Business intelligence v0.3
Business intelligence v0.3Luca Mauri
 
Il data warehouse nella business intelligence
Il data warehouse nella business intelligenceIl data warehouse nella business intelligence
Il data warehouse nella business intelligenceAndrea Mecchia
 
Big data e business intelligence
Big data e business intelligenceBig data e business intelligence
Big data e business intelligenceMarco Pozzan
 
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...Istituto nazionale di statistica
 
Big data & opendata
Big data & opendataBig data & opendata
Big data & opendataDatiGovIT
 
White Paper Business Intelligence
White Paper Business IntelligenceWhite Paper Business Intelligence
White Paper Business IntelligenceGiovanni Rota
 

Similar to Big Data e la forza degli eventi - Intervento di Lieto (20)

Introduzione alla Virtualizzazione dei Dati
Introduzione alla Virtualizzazione dei DatiIntroduzione alla Virtualizzazione dei Dati
Introduzione alla Virtualizzazione dei Dati
 
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
Logical Data Management: La chiave per sfruttare al massimo il potenziale dei...
 
Cloud, IoT and Big Data
Cloud, IoT and Big DataCloud, IoT and Big Data
Cloud, IoT and Big Data
 
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...La gestione logica dei dati come chiave del successo per Data Scientist e Bus...
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...
 
Datarace: IoT e Big Data (Italian)
Datarace: IoT e Big Data (Italian)Datarace: IoT e Big Data (Italian)
Datarace: IoT e Big Data (Italian)
 
Data Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendaliData Strategy per trasformare i dati in asset strategici aziendali
Data Strategy per trasformare i dati in asset strategici aziendali
 
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rotta
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rottaSe la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rotta
Se la meta è la Self-Service Analytics, il Logical Data Warehouse ne è la rotta
 
DS4Biz - Data Science for Business
DS4Biz - Data Science for BusinessDS4Biz - Data Science for Business
DS4Biz - Data Science for Business
 
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...
Dati distribuiti e rappresentazione centralizzata, ovvero come valorizzare il...
 
Data Governance at work
Data Governance at workData Governance at work
Data Governance at work
 
Il percorso verso un real-time business
Il percorso verso un real-time businessIl percorso verso un real-time business
Il percorso verso un real-time business
 
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...
 
Cloud e big data
Cloud e big dataCloud e big data
Cloud e big data
 
Business intelligence v0.3
Business intelligence v0.3Business intelligence v0.3
Business intelligence v0.3
 
Il data warehouse nella business intelligence
Il data warehouse nella business intelligenceIl data warehouse nella business intelligence
Il data warehouse nella business intelligence
 
Big data e business intelligence
Big data e business intelligenceBig data e business intelligence
Big data e business intelligence
 
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...
S. Piunno, Piattaforma Digitale Nazionale Dati - Sessione come l'accesso ai m...
 
Next future bi
Next future biNext future bi
Next future bi
 
Big data & opendata
Big data & opendataBig data & opendata
Big data & opendata
 
White Paper Business Intelligence
White Paper Business IntelligenceWhite Paper Business Intelligence
White Paper Business Intelligence
 

Recently uploaded

Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Associazione Digital Days
 
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Associazione Digital Days
 
ScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIinfogdgmi
 
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Associazione Digital Days
 
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Associazione Digital Days
 
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Associazione Digital Days
 

Recently uploaded (6)

Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
Alessio Mazzotti, Aaron Brancotti; Writer, Screenwriter, Director, UX, Autore...
 
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
Luigi Di Carlo, CEO & Founder @Evometrika srl – “Ruolo della computer vision ...
 
ScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AIScrapeGraphAI: a new way to scrape context with AI
ScrapeGraphAI: a new way to scrape context with AI
 
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
Daniele Lunassi, CEO & Head of Design @Eye Studios – “Creare prodotti e servi...
 
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
Federico Bottino, Lead Venture Builder – “Riflessioni sull’Innovazione: La Cu...
 
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
Edoardo Di Pietro – “Virtual Influencer vs Umano: Rubiamo il lavoro all’AI”
 

Big Data e la forza degli eventi - Intervento di Lieto

  • 1. Big Data e la forza degli eventi Da sovraccarico informativo a strumento di conoscenza Big Data e IT Strategy Come costruire l’Impresa Intelligente Università Milano Bicocca 1 Marzo 2013 GIUSEPPE LIETO
  • 2. Gartner definition "Big data are high-volume, high-velocity, and/or high-variety information assets that require new forms of processing to enable enhanced decision making, insight discovery and process optimization” 2
  • 3. Analytics con approccio classico BI (~ 1996) 3
  • 4. Evoluzione verso Data Warehouse (~2004) 4
  • 5. Il nuovo modello Big Data (~ 2011) 5
  • 6. Di cosa parlerò A. Perché introdurre progetti di Big Data nelle aziende B. Come introdurre progetti Big Data nelle aziende Di cosa non parlerò C. Quale tecnologia utilizzare per i Big Data 6
  • 7. 7
  • 8. A. Perché introdurre progetti di Big Data 1. Il primo approccio con le tecnologie dei Big Data fa apparire questa tecnologia come la soluzione a tutti i problemi di estrazione di conoscenza dai dati gestiti e gestibili da un’Organizzazione 2. Si possono sviluppare applicazioni in modo semplice e veloce nei campi più disparati: •Change monitoring • Application management •Network management • IT Operation management •Server management • Security •Virtualization management • Compliance •Desktop management •Web Analytics •SLA management •Revenue optimization • Business Analytics •………. •Transaction analysis • ……….. •………. 8
  • 10. A. Perché introdurre progetti di Big Data Quindi la soluzione sembrerebbe essere “mettiamo tutto in un grande contenitore, indicizziamo tutti i dati possibili, mettiamoci all’opera perché ci aspetta la soluzione a tutti i nostri problemi” 10
  • 11. B. Come introdurre progetti di Big Data (una buona ragione) 1. Si deve partire da un caso d'uso, un fattore per migliorare la competitività, un problema di costo o qualunque altra ragione per cui l’uso di tecnologie Big Data fa diventare conveniente la soluzione del problema 2. Driver tipici sono il tipo di informazioni (ad esempio fonti di informazione non strutturate) o il grande volume di informazioni da trattare; in ogni caso, è necessario identificare esattamente perché si sta perseguendo la strada dei Big Data 3. Un buon fattore è sempre il ROI. Il costo per la soluzione del problema è sicuramente una ragione convincente (il costo include sia il costo della tecnologia che quello del lavoro e dei tempi di realizzazione) 11
  • 12. B. Come introdurre progetti di Big Data (un team di lavoro convinto) 1. Il team di lavoro deve comprendere le potenzialità degli strumenti di Big Data. Non si tratta di realizzare un progetto tradizionale: bisogna coinvolgere il team per sensibilizzarlo sulle nuove possibilità di questi strumenti. Realizzato un caso sarà tipicamente semplice realizzarne un altro, anche se non era inizialmente previsto e sarà il team stesso ad essere propositivo 12
  • 13. B. Come introdurre progetti di Big Data (un team di lavoro convinto) 1. I risultati non vanno considerati come ennesima elaborazione di dati presenti in database o data warehouse, ma piuttosto come nuovo modo di ottenere informazioni dai dati, anche da quelli non strutturati e che non erano utilizzati per gli scopi del nostro caso. Non si tratta, quindi di sostituire banche dati esistenti, ma piuttosto di aumentare il livello di integrazione dei dati ottenendo così nuove informazioni 13
  • 14. B. Come introdurre progetti di Big Data (un team di lavoro convinto) Big Data come tecnologia additiva e non sostitutiva per ottenere risultati in modo rapido e con costi contenuti 14
  • 15. B. Come introdurre progetti di Big Data (skill tecnico di sviluppo non necessariamente elevato) 1. Le tecnologie Big Data consentono di utilizzare linguaggi di scripting piuttosto semplici, rendendo spesso disponibili sistemi visuali per disegnare applicazioni. 2. Può essere più importante coinvolgere personale che conosce le fonti dei dati e i loro contenuti che personale con uno skill tecnico di programmazione elevato Non sottovalutare problemi di sicurezza e di privacy 15
  • 16. B. Come introdurre progetti di Big Data (evoluzione di prototipi) • Non c’è cosa migliore che provare – Provare a sviluppare il progetto in un ambiente di test rappresentativo di come potrà essere l'ambiente di produzione può essere una buona tecnica per una serie di motivi: per capire le caratteristiche prestazionali del sistema, come può scalare al crescere delle dimensioni, come determinare le risorse professionali ed EDP necessarie e, soprattutto, verificare di aver compreso tutte le variabili in gioco. – Essere sicuri che i dati che si pensa di elaborare siano effettivamente disponibili e in una forma utilizzabile Attenzione! Non dimentichiamo i problemi di sicurezza e di governance 16
  • 17. B. Come introdurre progetti di Big Data (certezza di poter usare i dati) • Il tempo per poter materialmente stabilire il canale per l’accesso ai dati potrebbe non essere breve (dati di responsabilità di aree aziendali non coinvolte, dati sensibili, dati immediatamente utilizzabili, …..) 17
  • 18. B. Come introdurre progetti di Big Data (modello operativo semplice) Con l’ausilio di opportuni tools: Individuazione delle - si definiscono i requisiti di massima dell’applicazione esigenze funzionali - si selezionano i componenti da utilizzare Si definisce la profondità di analisi, in termini di Individuazione delle - storage massimo richiesto / tempo di retention esigenze prestazionali - tempi di risposta desiderati / CPU allocata - opzioni di configurazione Sviluppo e/o Le applicazioni possono essere rilasciate in varie configurazione dei servizi, collaudo e rilascio modalità (cloud, private cloud, servizi, …..) Attivazione del servizio Configurazioni specifiche Possibili sviluppi custom Possibilità di customizzazioni per specifiche esigenze. 18
  • 19. Modalità di introduzione di progetti big data (una buona ragione) (un team di lavoro convinto) (skill tecnico di sviluppo non necessariamente elevato) (evoluzione di prototipi) (certezza di poter usare i dati) (modello operativo semplice) L’attenzione si sposta verso gli obiettivi. La definizione degli obiettivi viene effettuata con il team di lavoro che vede progressivamente concretizzare gli sforzi, senza competenze di sviluppo particolari, ma vedendo valorizzata la propria competenza sui dati che ...... diventano informazioni 19
  • 20. Grazie per l’attenzione Giuseppe Lieto glieto@sysmanagement.it www.sysmanagement.it