Power BI: Introduzione ai dataflow e alla preparazione dei dati self-serviceMarco Pozzan
Power BI Dataflow è il componente di trasformazione dei dati in Power BI. È un processo di Power Query che viene eseguito nel cloud. Bene, questa potrebbe non sembrare una funzionalità molto nuova, giusto? Quindi cosa c'è di nuovo con Dataflow? Le risposte alle vostre domande saranno nella mia sessione :-)
Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” -Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
Power BI: Introduzione ai dataflow e alla preparazione dei dati self-serviceMarco Pozzan
Power BI Dataflow è il componente di trasformazione dei dati in Power BI. È un processo di Power Query che viene eseguito nel cloud. Bene, questa potrebbe non sembrare una funzionalità molto nuova, giusto? Quindi cosa c'è di nuovo con Dataflow? Le risposte alle vostre domande saranno nella mia sessione :-)
Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” -Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
Come funzionano i Retrieval-Augmented Generators (RAG) e quanto i database vettoriali sono fondamentali per poter memorizzare e utilizzare le sorgenti dati aziendali e personali?
MongoDB 3.6 ti permette di *muoverti alla stessa velocità dei tuoi dati*, trasformando analisti, sviluppatori e sistemisti in un motore di crescita per il business. Con MongoDB 3.6, le applicazioni arrivano prima sul mercato, sono affidabili e sicure nell'esecuzione in scala, offrono intelligence e informazioni utili in tempo reale. https://www.mongodb.com/mongodb-3.6
Molte aziende hanno costruito negli anni sistemi informatici complessi che gestiscono i processi interni e i processi di gestione i clienti/fornitori. Con il cambiamento delle abitudini dei consumatori quello che una volta si faceva intermediato da un agente, commesso o addetto che usava il sistema gestionale per rispondere alla richiesta del cliente ora si fa in modalità self service semplicemente con uno smartphone, il cliente si aspetta di essere autonomo nel rapporto con l’azienda. L’esperienza che ci si aspetta come consumatore è quella che si vive usando piattaforma native digitali come ad esempio Netflix e Spotify. Il problema è che la maggior parte delle aziende non è partita nativamente digitale e non è possibile azzerare tutto e ripartire da capo senza correre rischi di business continuity importanti che vedono milioni di clienti coinvolti e impatti significativi a livello economico in caso di down. Se non è possibile ripartire da zero, quindi come fare? Una risposta è un approccio graduale di evoluzione architetturale e tecnologica dove Kubernetes, e il suo ecosistema, giocano un ruolo chiave. In questa presentazione vedremo i tre principi cardine sulla quale si basa questa strategia: API as a Product; architetture evolutive; fast data con pattern CQRS; che si uniscono per creare una strategia di Modernizzazione delle Applicazioni utilizzando i componenti dell’ecosistema del landscape CNCF (https://landscape.cncf.io). Da qui capiremo quali siano i benefici nel breve, medio e lungo termine e quali passi iniziare a fare per avviare questa strategia.
Power BI Streaming Data Flow e Azure IoT CentralMarco Parenzan
Dal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
Global Azure Bootcamp 2018 - Verona.
Scalare una applicazione con le proprie applicazioni con Azure Functions.
All'interno è presente la spiegazione di Durable Functions con qualche esempio completo
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
slide del seminario "Dove e come si producono i dati del patrimonio informativo pubblico, il caso della Provincia Autonoma di Trento" all'interno del corso interdisciplinare "Digital Social Data"
Università degli Studi di Trento - Dipartimento di Sociologia e Ricerca Sociale, 19 Marzo 2015
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQLPar-Tec S.p.A.
Il TechAdvisor Michelangelo Uberti fornisce una panoramica generale inerente le soluzioni di alta disponibilità con MySQL.
I punti trattati durante la presentazione sono:
- Presentazione dell’offerta Par-Tec dedicata a MySQL Enterprise
- Cause, effetti e reali esigenze di HA
- Funzionamento, benefici e limiti dei principali approcci:
- Replica di database
- Cluster attivo/passivo
- Cluster attivo/attivo: shared-nothing
Per saperne di più, scaricate le slide e guardate il video della presentazione del nostro TechAdvisor su http://www.par-tec.it/soluzioni-di-alta-disponibilita-con-mysql
Come funzionano i Retrieval-Augmented Generators (RAG) e quanto i database vettoriali sono fondamentali per poter memorizzare e utilizzare le sorgenti dati aziendali e personali?
MongoDB 3.6 ti permette di *muoverti alla stessa velocità dei tuoi dati*, trasformando analisti, sviluppatori e sistemisti in un motore di crescita per il business. Con MongoDB 3.6, le applicazioni arrivano prima sul mercato, sono affidabili e sicure nell'esecuzione in scala, offrono intelligence e informazioni utili in tempo reale. https://www.mongodb.com/mongodb-3.6
Molte aziende hanno costruito negli anni sistemi informatici complessi che gestiscono i processi interni e i processi di gestione i clienti/fornitori. Con il cambiamento delle abitudini dei consumatori quello che una volta si faceva intermediato da un agente, commesso o addetto che usava il sistema gestionale per rispondere alla richiesta del cliente ora si fa in modalità self service semplicemente con uno smartphone, il cliente si aspetta di essere autonomo nel rapporto con l’azienda. L’esperienza che ci si aspetta come consumatore è quella che si vive usando piattaforma native digitali come ad esempio Netflix e Spotify. Il problema è che la maggior parte delle aziende non è partita nativamente digitale e non è possibile azzerare tutto e ripartire da capo senza correre rischi di business continuity importanti che vedono milioni di clienti coinvolti e impatti significativi a livello economico in caso di down. Se non è possibile ripartire da zero, quindi come fare? Una risposta è un approccio graduale di evoluzione architetturale e tecnologica dove Kubernetes, e il suo ecosistema, giocano un ruolo chiave. In questa presentazione vedremo i tre principi cardine sulla quale si basa questa strategia: API as a Product; architetture evolutive; fast data con pattern CQRS; che si uniscono per creare una strategia di Modernizzazione delle Applicazioni utilizzando i componenti dell’ecosistema del landscape CNCF (https://landscape.cncf.io). Da qui capiremo quali siano i benefici nel breve, medio e lungo termine e quali passi iniziare a fare per avviare questa strategia.
Power BI Streaming Data Flow e Azure IoT CentralMarco Parenzan
Dal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
Global Azure Bootcamp 2018 - Verona.
Scalare una applicazione con le proprie applicazioni con Azure Functions.
All'interno è presente la spiegazione di Durable Functions con qualche esempio completo
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
slide del seminario "Dove e come si producono i dati del patrimonio informativo pubblico, il caso della Provincia Autonoma di Trento" all'interno del corso interdisciplinare "Digital Social Data"
Università degli Studi di Trento - Dipartimento di Sociologia e Ricerca Sociale, 19 Marzo 2015
MySQL Tech Tour 2015 - Soluzioni di alta disponibilità con MySQLPar-Tec S.p.A.
Il TechAdvisor Michelangelo Uberti fornisce una panoramica generale inerente le soluzioni di alta disponibilità con MySQL.
I punti trattati durante la presentazione sono:
- Presentazione dell’offerta Par-Tec dedicata a MySQL Enterprise
- Cause, effetti e reali esigenze di HA
- Funzionamento, benefici e limiti dei principali approcci:
- Replica di database
- Cluster attivo/passivo
- Cluster attivo/attivo: shared-nothing
Per saperne di più, scaricate le slide e guardate il video della presentazione del nostro TechAdvisor su http://www.par-tec.it/soluzioni-di-alta-disponibilita-con-mysql
PowerPivot and BISM Tabular share a columnar-based database engine called xVelocity. Understand some basic principles about how VertiPaq works, how data is compressed, and how you can design a data model for better optimization.
2. Explore your
PASS
community
Free online
webinar events
Connect with the global
data community
Local user groups
around the world
Online special
interest user groups
Learning on-demand
and delivered to you
Get involved
Own your career with interactive learning built
by community and guided by data experts.
Get involved. Get ahead.
.org
3. Missed PASS Summit 2019?
Get the Recordings
Download all PASS Summit sessions on
Data Management, Analytics, or
Architecture for only $399 USD
More options available at
PASSstuff.com
4. We are covering all bases to ensure our community can continue reaching new and exciting heights. Plans
are underway for the in-person event you all know and love along with a new venture, a new opportunity:
a PASS Summit 2020 Virtual Event.
Find out more at PASS.org/summit
7. Speaker
Consulente e formatore in ambito business intelligence, business analytics e
data mining
Dal 2002 le attività principali sono legate alla progettazione di data warehouse
relazionale e alla progettazione multidimensionale con strumenti Microsoft.
Docente all'Università di Pordenone nel corso di analisi dei dati e Big Data
Community Lead di 1nn0va (www.innovazionefvg.net)
MCP, MCSA, MCSE, MCT SQL Server
dal 2014 MVP per SQL Server e relatore in diverse conferenze sul tema.
info@marcopozzan.it
@marcopozzan.it
www.marcopozzan.it
http://www.scoop.it/u/marco-pozzan
http://paper.li/marcopozzan/1422524394
9. Agenda
Import Mode vs Direct Query Mode
Concetto di Aggregazione
• Demo 1: Creazione delle aggregazioni
Composite Models
• Demo 2: Weak Relationship
Precendenze
Demo 3: Utilizzo delle precedenze
Mantenimento
Demo 4: Problemi nell’aggiornamento dati
10. Import Mode vs Direct Query Mode
Direct Query mode
Trasformazione da DAX a SQL (solo per database relazionali)
Query sul motore SQL Server aumentando il workload
Molte limitazioni (solo connessione SQL, no colonne
calcolate, no gerarchie temporali)
No tempo di processing
Real-time queries
In Memory mode (vertipaq) (default)
I dati vengono copiati in memoria
Singolo accesso alla sorgente dati
Le query girano su uno «snapshot dei dati»
11. Import Mode vs Direct Query Mode
PROCESS = Lettura dalla sorgente dati in memoria
Vertipaq contiene il risultato del processing del database
12. Import Mode
• Vertipaq: motore colonnare in memoria
• Tutte le query sono elaborate in memoria
17. Aggregazioni in Power BI
• Come ogni altra tabella
• Sono automaticamente nascoste
• Sono accessibili dall’amministratore del dataset una
volta pubblicate sul servizio.
• Supportato in PBI desktop e services ( shared e
premium) con RLS
• Bisogna configurarle adeguatamente
18. Aggregazioni in Power BI
• Migliora le performance delle query
• Non solo per petabyte o trillioni di righe
• Per tutti i dataset che richiedono uno spreco di
cache (Time, CPU, Memory)
19. Come si crea una aggregazione
Configuratore delle proprietà dell’aggregazione
20. Demo 1: Creazione di una aggregazione
Pronti con le mani sulla
tastiera del telefonino?
www.menti.com
codice 31 92 96
22. Composite Model
• Possiamo scegliere la memorizzazione per ogni tabella
• Lasciamo le grandi tabelle nella sorgente dato e
carichiamo in memoria le tabelle piccole
• Le query sono elaborate o in memoria o nella sorgente
dato
23. Composite model e tabelle aggregate
• Le query sono
elaborate o in memoria
o nella sorgente dato.
• Come faccio ad
eseguire query su
tabelle che stanno su
engine separati? (weak
relationship)
25. Demo 2: Weak Relationship
Pronti con le mani sulla
tastiera del telefonino?
www.menti.com
codice 31 92 96
26. Precedenza nelle aggregazioni
• Livelli multipli di aggregazione
• L’aggregazione con il valore di precedence più alto vince
• L’ultima tabella di aggregazione aggiunta al modello
sembra vincere
• Tabella principale: 1 billione di righe
• Aggregazione 1: 1 millione di righe
• Aggregazione 2: 100000 righe
• Aggregazione 3: 100 righe
28. Mantenimento delle Tabelle aggregate
• Se una tabella importata o direct non è sincronizzata con
le tabelle aggregate si dice (out of sync)
• Quando una tabella di aggregazione è out of sync allora
la tabella dei dettagli e delle aggregazione ritornano
numeri differenti. PBI non è in grado di determinare e
redirezionare le query al sistema sorgente
• E’ responsabilità di chi gestisce il sistema conoscere il
pattern del caricamento dati e mantenere le
aggregazione aggiornate
30. Le aggregazioni e la RLS
• Le espressioni della row level security (RLS) filtreranno sia
le tabelle di aggregazione che quelle di dettaglio
• Non Possiamo interrogare le tabelle aggregate (anche
senza RLS) senza essere amministratori del dataset
RLS applicate alla
tabella di dettaglio
RLS applicate alla tabella
aggregata
Hit della aggregazione
Si Si Si
Si No No
No Yes (fallisce , PBI si stoppa) N/A
31. Recap
• Le aggregazioni sono un tool eccellente per le
ottimizzazioni delle performance
• Le aggregazione non sono solo per dataset delle
dimensioni di peta byte
• Le aggregazione lavorano con RLS
• Le aggregazione hanno un costo di mantenimento
quindi essere sicuri prima di usarle
• Richiedono una attenta configurazione