Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
Watch: https://bit.ly/3ftTdKr
Il 26 giugno partecipa al Webinar DATA STRATEGY PER TRASFORMARE I DATI IN ASSET STRATEGICI AZIENDALI realizzato da IKN Italy con la collaborazione di Denodo per approfondire i trend tecnologici che indirizzeranno e stanno guidando la Data Strategy delle aziende in tutto il mondo. Nell'era dei Big Data, dell'Intelligenza Artificiale e del Cloud Computing, il volume, l’eterogeneità e la velocità dei dati sono in costante crescita e la sfida, pertanto, diventa quella di poter governare i dati, in modo da facilitare la loro trasformazione in informazioni e conoscenza, dando la possibilità al business di accedervi con agilità e semplicità.
Vuoi sapere come trasformare i dati in asset strategici, affinché l’azienda sia (veramente) Data-Driven?
Partecipa al webinar per rispondere a questa domanda e per scoprire:
- Come Machine Learning e Artificial Intelligence possono semplificare le sfide della gestione dei dati al giorno d’oggi e qual è il ruolo della Data Virtualization in tale semplificazione
- Qual è l'evoluzione delle architetture di Data Provisioning e di Data Management nelle aziende e in che modo il paradigma di Data Fabric entra in gioco
- Come è possibile gestire l'integrazione dei dati in un mondo sempre più ibrido e multi-cloud
- Come possono le aziende monetizzare dati e informazioni, sfruttando e valorizzando un’infrastruttura Data-as-a-Service
- Quale ruolo svolgere il Voice Computing nel futuro dell'analisi dei dati
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Data Strategy per trasformare i dati in asset strategici aziendaliDenodo
Watch: https://bit.ly/3ftTdKr
Il 26 giugno partecipa al Webinar DATA STRATEGY PER TRASFORMARE I DATI IN ASSET STRATEGICI AZIENDALI realizzato da IKN Italy con la collaborazione di Denodo per approfondire i trend tecnologici che indirizzeranno e stanno guidando la Data Strategy delle aziende in tutto il mondo. Nell'era dei Big Data, dell'Intelligenza Artificiale e del Cloud Computing, il volume, l’eterogeneità e la velocità dei dati sono in costante crescita e la sfida, pertanto, diventa quella di poter governare i dati, in modo da facilitare la loro trasformazione in informazioni e conoscenza, dando la possibilità al business di accedervi con agilità e semplicità.
Vuoi sapere come trasformare i dati in asset strategici, affinché l’azienda sia (veramente) Data-Driven?
Partecipa al webinar per rispondere a questa domanda e per scoprire:
- Come Machine Learning e Artificial Intelligence possono semplificare le sfide della gestione dei dati al giorno d’oggi e qual è il ruolo della Data Virtualization in tale semplificazione
- Qual è l'evoluzione delle architetture di Data Provisioning e di Data Management nelle aziende e in che modo il paradigma di Data Fabric entra in gioco
- Come è possibile gestire l'integrazione dei dati in un mondo sempre più ibrido e multi-cloud
- Come possono le aziende monetizzare dati e informazioni, sfruttando e valorizzando un’infrastruttura Data-as-a-Service
- Quale ruolo svolgere il Voice Computing nel futuro dell'analisi dei dati
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Big Data Social Media
Valore dei Dati
Volume Varietà Velocità
Trends & Patterns
Numeri Vs Immagini
Dati Vs Istinto
Data Flow nel Business e nei Social Media
Big Data Value Chain
Analisi Predittive
Hadoop, Microsoft Big Data
Big Data landscape 2014
Convergenza: Social Media, Coding, Big Data, Apps, Cloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Wi-Cobol, il modulo realizzato da Sior e distribuito da VGSoft che utilizza un precompilatore in grado di inserire in modo automatico nei sorgenti Cobol, le istruzioni e le routines necessarie per potersi interfacciare con la suite Webgate400.
Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Big Data Social Media
Valore dei Dati
Volume Varietà Velocità
Trends & Patterns
Numeri Vs Immagini
Dati Vs Istinto
Data Flow nel Business e nei Social Media
Big Data Value Chain
Analisi Predittive
Hadoop, Microsoft Big Data
Big Data landscape 2014
Convergenza: Social Media, Coding, Big Data, Apps, Cloud
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Wi-Cobol, il modulo realizzato da Sior e distribuito da VGSoft che utilizza un precompilatore in grado di inserire in modo automatico nei sorgenti Cobol, le istruzioni e le routines necessarie per potersi interfacciare con la suite Webgate400.
Molte aziende hanno costruito negli anni sistemi informatici complessi che gestiscono i processi interni e i processi di gestione i clienti/fornitori. Con il cambiamento delle abitudini dei consumatori quello che una volta si faceva intermediato da un agente, commesso o addetto che usava il sistema gestionale per rispondere alla richiesta del cliente ora si fa in modalità self service semplicemente con uno smartphone, il cliente si aspetta di essere autonomo nel rapporto con l’azienda. L’esperienza che ci si aspetta come consumatore è quella che si vive usando piattaforma native digitali come ad esempio Netflix e Spotify. Il problema è che la maggior parte delle aziende non è partita nativamente digitale e non è possibile azzerare tutto e ripartire da capo senza correre rischi di business continuity importanti che vedono milioni di clienti coinvolti e impatti significativi a livello economico in caso di down. Se non è possibile ripartire da zero, quindi come fare? Una risposta è un approccio graduale di evoluzione architetturale e tecnologica dove Kubernetes, e il suo ecosistema, giocano un ruolo chiave. In questa presentazione vedremo i tre principi cardine sulla quale si basa questa strategia: API as a Product; architetture evolutive; fast data con pattern CQRS; che si uniscono per creare una strategia di Modernizzazione delle Applicazioni utilizzando i componenti dell’ecosistema del landscape CNCF (https://landscape.cncf.io). Da qui capiremo quali siano i benefici nel breve, medio e lungo termine e quali passi iniziare a fare per avviare questa strategia.
Real Time Monitoring and Analitycs : Customer Experience in ProductionCodemotion
"Real Time Monitoring and Analitycs : Customer Experience in Production" by Simone Cellini, Simone Gaddeo
Come aiutare un cliente a evolvere il proprio Business da "Reactive" a "Proactive" convincendolo ad utilizzare tecnologie avanzate? In questo talk vi raccontiamo su un caso reale come abbiamo fatto. Utilizzando Kafka, ElastichSearch, Kibana, Java NIO & Concurrent API siamo riusciti a monitorare lo Stack Applicativo che eroga business, ad analizzarne i comportamenti e a garantire una "Availability" 24x7. Buona Visione
[ITA] Sql Saturday 355 in Parma - New SQL Server databases under source controlAlessandro Alpi
We are used to see our code under source control. What about our databases? This topic is too often underestimated. Keeping database under our control (source controlled) brings many advantages in terms of organization and quality. The distributed work become rock solid and Continuous integration is simpler to implement. In addition, we can take many advantages from testing, automated deployment and all the stuff that brings the agile methodology available to the team. We will compare also third party tools in order to understand the differences between different vendors.
Primo webinar Italiano sulla piattaforma di Business Intelligence leader di mercato Yellowfin. Contatta Emerasoft per una demo personalizzata (sales@emerasoft.com)
Open Source Day 2015 - DBaaS con Docker: un caso di studioPar-Tec S.p.A.
Il TechAdvisor Michelangelo Uberti spiega come realizzare un servizio di Database-as-a-Service basato su MySQL e Docker.
I punti trattati durante la presentazione sono:
- DB-as-a-Service: la semplicità del concept
- I possibili approcci
- Architettura di alto livello
- Focus sul Management Agent
- Orchestration at work
- Da cgroups a Docker
- Le sfide principali
- Quale futuro?
Per saperne di più, scaricate le slide e guardate il video della presentazione del nostro TechAdvisor su http://www.par-tec.it/dbaas-con-docker-un-caso-di-studio
Presentazione di Oracle Apex, un tool per lo sviluppo di applicazioni web gratuito, facile da usare e basato su tecnologia e standard Oracle che risponde alle moderne necessità aziendali di sicurezza, condivisione, accessibilità e velocità di sviluppo.
Il video di presentazione è disponibile a questo indirizzo: http://youtu.be/LxzNQUdTI4I
2014.11.14 Implementare e mantenere un progetto Azure SQL DatabaseEmanuele Zanchettin
Questa sessione affronta come implementare, mantenere e far evolvere soluzioni sviluppate su Azure SQL Database, attraverso l’utilizzo degli strumenti SQL Sever Management Studio e Visual Studio. Attraverso esempi e casi reali, saranno illustrate la versatilità, potenza e affidabilità del database come servizio nel cloud.
2. SELDA: 30 anni di soluzioni
SELDA Informatica SELDA Informatica
SELDA è una società di software e servizi Un laboratorio del software per confezionare
di informatica che dal 1977 ha la soluzione su misura in ogni realtà
consolidato un'esperienza trentennale aziendale.
nell'area del software gestionale per Partner per la progettazione e la revisione
aziende, studi di consulenza, associazioni dei sistemi informativi o per risolvere le
di categoria e nella integrazione di molteplici esigenze organizzative e di
sistemi. controllo delle aziende in crescita.
3. SELDA e la Business Intelligence
SELDA Informatica
Con QlikView negli ultimi anni si è
SELDA Informatica specializzata nella progettazione e
SELDAL’azienda
realizzazione di soluzioni di Business
impiega professionisti alto livello
Intelligence, e nella formazione e
per fornire soluzioni sempre
all’avanguardia ed in linea con il continuo assistenza degli utenti finali, nei settori
sviluppo degli strumenti informatici. della produzione di beni di largo consumo,
aziende meccaniche, pubblica
amministrazione (HR, Logistica, Finance,
Vendite).
4. Cos’è QlikView?
E’ una tecnologia innovativa che permette un approccio
semplice e immediato anche allo sviluppatore e che
consente una produttività mai vista fin’ora
E’ una soluzione di accesso ai dati che permette l’analisi e
l’utilizzo di informazioni provenienti da differenti fonti
E’ uno strumento ideale per un’analisi veramente interattiva
di grandi moli di dati, attraverso un’interfaccia di
presentazione ottimale
5. L’Accesso ai Dati
SQL
Server Oracle
FTP mode ODBC MySQL
DB
Http mode OLEDB
Access AS/400
Sybase
Informix
SAP
XML Connector
HTML
7. I DataBase Tradizionali (OLTP)
data cliente articolo qta
05/02/2006 001 AAA 1000
cliente ragsoc
articolo nome
05/02/2006 002 AAA 2300
001 pippo
AAA modem
15/03/2006 001 BBB 4500
002 pluto
BBB tastiera
21/06/2006 001 CCC 1000
003 paperino CCC mouse
15/03/2006 003 BBB 1600
DDD monitor
21/06/2006 002 DDD 4500
I database tradizionali, secondo la logica relazionale,
registrano le informazioni in tabelle collegate attraverso
codici chiave. Normalmente la struttura di queste basi dati
deve rispettare regole di non ridondanza necessarie per un
uso tipicamente TRANSAZIONALE (OLTP) che mal si adatta
a moli di dati grandi come quelle della BI
8. Le Data Warehouse (OLAP)
data codcli ragsoc qta codpar nome
05/02/2006 001 pippo 1000 AAA modem
05/02/2006 002 pluto 2300 AAA modem
15/03/2006 001 pippo 4500 BBB tastiera
21/06/2006 001 pippo 1000 CCC mouse
15/03/2006 003 paperino 1600 BBB tastiera
21/06/2006 002 pluto 4500 DDD monitor
Le Data WareHouse tendono, al contrario, a ridondare
l’informazione per diminuire il livello di frammentazione dei
dati (Snow Flaking) in modo da migliorare le prestazioni
nell’accesso a dati aggregati e nel calcolo di formule di
aggregazione complesse
9. L’Associative Query Logic (AQL™)
AQL™
• I dati sono gestiti da una struttura a puntatori
• Ogni campo del database o del file strutturato (.xls, .html, .xml, .cvs…)
diventa un’entità indipendente e non ridondante
• L’associazione avviene attraverso l’identificazione di campi con nome
uguale
• Tutte le possibili fonti dati vengono uniformate secondo tale struttura e
lo sviluppatore, in fase di presentation, non distingue più campi
database da colonne di un foglio excel
• Lo script di ETL ricalca il dialetto SQL del driver ODBC in uso,
corredato poi di funzioni evolute per la manipolazione delle
informazioni
10. L’Associative Query Logic (AQL™)
data cliente articolo qta
05/02/2006 001 AAA 1000
cliente ragsoc
05/02/2006 002 AAA 2300 articolo nome
001 pippo
15/03/2006 001 BBB 4500 AAA modem
002 pluto
21/06/2006 001 CCC 1000 BBB tastiera
003 paperino
15/03/2006 003 BBB 1600 CCC mouse
21/06/2006 002 DDD 4500 DDD monitor
A partire da un DB tradizionale (o altra fonte dati), senza
scrivere clausole di collegamento fra le tabelle, l’AQL™
associa tabelle trovando campi con nome uguale e linkando
tutto attraverso puntatori
11. L’Associative Query Logic (AQL™)
Lo script per caricare una struttura come la precedente
potrebbe essere questo:
SELECT cliente, ragsoc
FROM Clienti;
SELECT data, cliente, articolo, qta
FROM Ordini;
SELECT articolo, nome
FROM Articoli;
12. L’Associative Query Logic (AQL™)
quantità
data
1000
05/02/2006 1600
2300
15/03/2006
4500
nome
21/06/2006 cliente
modem
001 articolo
tastiera
ragsoc 002 AAA
mouse
pippo BBB
003
monitor
pluto CCC
DDD
paperino
Quello che si ottiene è una rete di puntatori fra i valori dei
campi originali, memorizzati in DISTINCT all’interno della
nuova struttura dati
13. Conclusioni
• Non è più necessario costruire schemi a stella e architetture Data
WareHouse
• Non è più necessario dividere l’informazione in fatti, misure e
dimensioni: ogni dato assume la funzione che si preferisce
• Non è più necessario progettare a priori schemi di gerarchie di drill
• Non si è più costretti nei vincoli dei Cubi OLAP
• Ogni modifica alle fonti dati è immediatamente inseribile nella struttura
AQL™ senza dover riprogettare pesanti architetture di data
warehousing, ma al limite aggiungendo o modificando una select nello
script di ETL
• Il processo di sviluppo può essere incrementale, consentendo in
qualsiasi momento di adattare il progetto alle esigenze che di volta in
volta si presentano
15. Fonti Eterogenee
La tecnologia AQL™ ed uno script dedicato al processo di ETL consentono di
prelevare dati da fonti eterogenee e di lavorare su di esse in modo omogeneo
ERP
A/R
MRP CRM
SCM
MRM
…
16. Rappresentazione Omogenea
Che i dati provengano da una sorgente ODBC, da un foglio Excel, da una pagina
HTML o da un file XML, l’utente e lo sviluppatore avranno comunque percezione di
lavorare con dati omogenei
Anche se la reale struttura della
base dati AQL™ è gestita da
puntatori campo per campo, lo
sviluppatore avrà a disposizione
una rappresentazione familiare
di tipo relazionale per tenere
sotto controllo il processo di
caricamento ed i legami fra i
campi in gioco
17. Un unico file: “.qvw”
In un unico file con estensione .qvw
sono contenute la logica di
caricamento, la presentation grafica
e la base dati associativa.
In tal modo è possibile avere
sempre a disposizione i dati
caricati dall’ultimo processo di
.qvw reload, lo script di ETL per poter
effettuare modifiche o per ricaricare
i dati freschi e l’interfaccia grafica
per aggiungere/modificare oggetti o
codice articolo qta
001 alimentatore 10.000
semplicemente per effettuare analisi
002 mouse 5.600 sui dati
003 tastiera 7.400
004 monitor 8.100
20. Un’approccio integrato
La tradizionale ’Pila’ della BI
User Interface,
Dashboards,
Scorecards, Reports • Interfaccia Utente
• Motore Grafici e Reports
Molti strumenti di • Motore di Analisi
OLAP, Query and diversi produttori
Reporting tools • Compressione Dati
• Integrazione
Gestita dall’IT
Data Marts
Costi e tempi Un’unico strumento da
considerevoli per un’unico fornitore
Data Warehouse l’implementazione
delle modifiche Indirizzato all’utente
Integration Layer (ETL) finale
Tempi minimi per
realizzazione e modifiche
Unstructured
ERP CRM
Data
21. Processo di Sviluppo
One Time Daily Run Time
• ETL Script • Extract data • Render UI
Traditional • Define Dimensions • Calculate cube
OLAP • Define Measures
• Build Reports
• Build Dashboards
2 Months 2-8 Hours Seconds
Data Bound Process Bound Memory/Processor
Bound
One Time Daily Run Time
• ETL Script • Extract data • Calculate cube
QlikView • Define Dimensions • Render UI
• Define Measures
• Build Reports
• Build Dashboards
4 Day 5-60 Minutes Seconds
22. Metodologia di Sviluppo
Visione strategica Visione strategica Visione strategica
Rilascio
Sviluppo
Analisi delle esigenze
Visione strategica
Processo di apprendimento e implementazione step by step
23. SELDA e la Business Intelligence
SELDA Informatica
www.selda.net
http://www.facebook.com/SELDAInformatica @SELDAsrl info@selda.net