Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
La Data Virtualization a supporto della Data Science: "Da grandi poteri deriv...Denodo
Watch full webinar here: https://bit.ly/3awy5Tj
In questo webinar andremo a spiegare cosa si intende per Data Virtualization, come si integra nei sistemi aziendali e perché è una componente critica del data fabric di qualsiasi organizzazione.
La trasformazione digitale richiede che diamo potere a tutti i consumatori di dati all'interno dell'organizzazione, ma richiede anche agilità, e la Data Virtualization offre un accesso significativo alle informazioni che possono essere condivise da una miriade di consumatori.
Per questo motivo è così strettamente legata alla Data Science: le tecniche avanzate di data science, come il machine learning, sono estremamente utili per ricavare informazioni preziose dai dati, le piattaforme di Data Science sono sempre più accessibili, ma comunque il Data Scientist trascorre ancora la maggior parte del tempo a pulire e manipolare i dati per renderli utilizzabili a fini analitici. In questo senso la Data Virtualization è un ottimo strumento per rendere i dati aziendali più accessibili e promuovere una cultura della condivisione dei dati, quindi semplificare la fase di preprocessing e lasciare ai Data Scientist tutte le energie da dedicare agli aspetti più analitici ed avanzati.
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
La Data Virtualization a supporto della Data Science: "Da grandi poteri deriv...Denodo
Watch full webinar here: https://bit.ly/3awy5Tj
In questo webinar andremo a spiegare cosa si intende per Data Virtualization, come si integra nei sistemi aziendali e perché è una componente critica del data fabric di qualsiasi organizzazione.
La trasformazione digitale richiede che diamo potere a tutti i consumatori di dati all'interno dell'organizzazione, ma richiede anche agilità, e la Data Virtualization offre un accesso significativo alle informazioni che possono essere condivise da una miriade di consumatori.
Per questo motivo è così strettamente legata alla Data Science: le tecniche avanzate di data science, come il machine learning, sono estremamente utili per ricavare informazioni preziose dai dati, le piattaforme di Data Science sono sempre più accessibili, ma comunque il Data Scientist trascorre ancora la maggior parte del tempo a pulire e manipolare i dati per renderli utilizzabili a fini analitici. In questo senso la Data Virtualization è un ottimo strumento per rendere i dati aziendali più accessibili e promuovere una cultura della condivisione dei dati, quindi semplificare la fase di preprocessing e lasciare ai Data Scientist tutte le energie da dedicare agli aspetti più analitici ed avanzati.
Strategie d'Integrazione dei dati per un mondo ibrido e multicloudDenodo
Watch full webinar here: https://bit.ly/2FPwmfN
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Business Intelligence e Business Analytics sono termini che ricorrono ormai quotidianemente. Cosa significano? Che valore portano in una azienda? Come si crea una soluzione di Business Intelligece e di Business Analytics? Che strumenti mette a disposizione la piattaforma Microsoft? In questa sessione andremo ad introdurre tutti gli attori, gli strumenti e le tecnologie che concorrono a realizzare tali soluzioni, vendendone alcune "dal vivo" per capire come si usano ed il grande valore aggiunto che, in una società sempre più affamata di informazioni, ma ricca solo di dati, possono portare.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Data Virtualization per una Multi-Cloud Data Integration senza barriere né co...Denodo
Watch full webinar here: https://bit.ly/3vYHaNQ
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Power BI: Introduzione ai dataflow e alla preparazione dei dati self-serviceMarco Pozzan
Power BI Dataflow è il componente di trasformazione dei dati in Power BI. È un processo di Power Query che viene eseguito nel cloud. Bene, questa potrebbe non sembrare una funzionalità molto nuova, giusto? Quindi cosa c'è di nuovo con Dataflow? Le risposte alle vostre domande saranno nella mia sessione :-)
Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” -Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...Denodo
Watch full webinar here: https://buff.ly/3Fmc74I
Affinché i progetti di data science abbiano successo, i Data Scientist e i Business Analysts hanno bisogno di accedere a una molteplicità di dati. Tuttavia, consentire l'accesso a tutti i dati tramite un repository centrale integrato è un compito spesso arduo, che può richiedere fino all'80% del tempo del progetto in attività di acquisizione, esplorazione, comprensione e preparazione dei dati.
La Gestione Logica dei dati può aiutare i Data Scientist e i Business Analyst ad accelerare alcune delle attività più tediose e onerose, consentendo loro di concentrarsi sui loro obiettivi e su come i dati consentono di raggiungerli. Poiché la piattaforma di Gestione Logica dei dati dei dati si integra agilmente nell'ecosistema aziendale, i Data scientist o i Business Analyst possono continuare a utilizzare gli strumenti che conoscono, senza dover acquisire nuove competenze per sfruttare compiutamente i dati disponibili.
In questa sessione on-demand, scopriremo insieme come la Gestione Logica dei dati permetta di:
- fornire tutti i dati aziendali, in tempo reale e senza repliche;
- creare e condividere più modelli logici con un semplici operazioni di drag and drop;
- disporre di un catalogo attraverso il quale comprendere facilmente il significato dei dati, le loro relazioni reciproche e la loro origine.
Architettura, Know-How e considerazioni nati dall'esperienza di Datarace (www.datarace.eu) in cui IoT e Big Data vengono messi al servizio dello sport per creare una "reference architecture" alla quale le aziende possono far riferimento per costruire la propria soluzione Big Data ed Analytics
Gartner prevede che oltre il 70 % delle implementazioni di Hadoop non soddisferà gli obiettivi di generazione di business e di riduzione dei costi a causa della mancanza di competenze sul mercato oltre che alle difficoltà d’integrazione.
Business Intelligence e Business Analytics sono termini che ricorrono ormai quotidianemente. Cosa significano? Che valore portano in una azienda? Come si crea una soluzione di Business Intelligece e di Business Analytics? Che strumenti mette a disposizione la piattaforma Microsoft? In questa sessione andremo ad introdurre tutti gli attori, gli strumenti e le tecnologie che concorrono a realizzare tali soluzioni, vendendone alcune "dal vivo" per capire come si usano ed il grande valore aggiunto che, in una società sempre più affamata di informazioni, ma ricca solo di dati, possono portare.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Data Virtualization per una Multi-Cloud Data Integration senza barriere né co...Denodo
Watch full webinar here: https://bit.ly/3vYHaNQ
In questo contesto la virtualizzazione dei dati riveste un ruolo strategico nelle architetture multicloud, garantendo agli utenti aziendali un accesso controllato a tutti i dati, indipendentemente dalla loro localizzazione, in modo semplice e veloce. Al contempo aggiunge la semantica e la governance, necessaria nei moderni ambienti di dati e garantendo il controllo locale ai "proprietari dei dati"e il rispetto delle normative locali sulla privacy e la protezione dei dati.
Unisciti a noi per capire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud/Multi-Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione approfondiremo:
- Le sfide che le organizzazioni devono affrontare quando adottano strategie di dati multi-cloud
- Come la Piattaforma di virtualizzazione dei dati di Denodo fornisce un livello di accesso ai dati controllato per tutta l'organizzazione
- Le diverse architetture multi-location che possono massimizzare il controllo locale sui dati, rendendoli comunque facilmente disponibili
- Come le organizzazioni hanno beneficiato dell'utilizzo della piattaforma Denodo nelle architetture multi-cloud
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Power BI: Introduzione ai dataflow e alla preparazione dei dati self-serviceMarco Pozzan
Power BI Dataflow è il componente di trasformazione dei dati in Power BI. È un processo di Power Query che viene eseguito nel cloud. Bene, questa potrebbe non sembrare una funzionalità molto nuova, giusto? Quindi cosa c'è di nuovo con Dataflow? Le risposte alle vostre domande saranno nella mia sessione :-)
Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” -Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...Denodo
Watch full webinar here: https://buff.ly/3Fmc74I
Affinché i progetti di data science abbiano successo, i Data Scientist e i Business Analysts hanno bisogno di accedere a una molteplicità di dati. Tuttavia, consentire l'accesso a tutti i dati tramite un repository centrale integrato è un compito spesso arduo, che può richiedere fino all'80% del tempo del progetto in attività di acquisizione, esplorazione, comprensione e preparazione dei dati.
La Gestione Logica dei dati può aiutare i Data Scientist e i Business Analyst ad accelerare alcune delle attività più tediose e onerose, consentendo loro di concentrarsi sui loro obiettivi e su come i dati consentono di raggiungerli. Poiché la piattaforma di Gestione Logica dei dati dei dati si integra agilmente nell'ecosistema aziendale, i Data scientist o i Business Analyst possono continuare a utilizzare gli strumenti che conoscono, senza dover acquisire nuove competenze per sfruttare compiutamente i dati disponibili.
In questa sessione on-demand, scopriremo insieme come la Gestione Logica dei dati permetta di:
- fornire tutti i dati aziendali, in tempo reale e senza repliche;
- creare e condividere più modelli logici con un semplici operazioni di drag and drop;
- disporre di un catalogo attraverso il quale comprendere facilmente il significato dei dati, le loro relazioni reciproche e la loro origine.
Architettura, Know-How e considerazioni nati dall'esperienza di Datarace (www.datarace.eu) in cui IoT e Big Data vengono messi al servizio dello sport per creare una "reference architecture" alla quale le aziende possono far riferimento per costruire la propria soluzione Big Data ed Analytics
Gartner prevede che oltre il 70 % delle implementazioni di Hadoop non soddisferà gli obiettivi di generazione di business e di riduzione dei costi a causa della mancanza di competenze sul mercato oltre che alle difficoltà d’integrazione.
This set of design patterns are related to Enterprise Patterns. In it you can find, J2EE, Presentation, Business & Integration Patterns (such as: ApplicaCon Controller, Data Transfer Object (DTO), Business Object (BO) & Data Access Object (DAO) among others ...)
Power BI Streaming Data Flow e Azure IoT CentralMarco Parenzan
Dal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
PowerPivot and BISM Tabular share a columnar-based database engine called xVelocity. Understand some basic principles about how VertiPaq works, how data is compressed, and how you can design a data model for better optimization.
2. Speaker
• Consulente e formatore in ambito business intelligence, business analytics e data
mining per (www.methode.it)
• Dal 2002 le attività principali sono legate alla progettazione di data warehouse
relazionale e alla progettazione multidimensionale con strumenti Microsoft.
• Docente all'Università di Pordenone nel corso di analisi dei dati e Big Data
• Community Lead di 1nn0va (www.innovazionefvg.net)
• MCP,MCSA,MCSE,MCT e dal 2014 MVP per SQL Server e relatore in diverse
conferenze sul tema.
• Marco.Pozzan@methode.it
• @marcopozzan.it
• www.marcopozzan.it
• http://www.scoop.it/u/marco-pozzan
• http://paper.li/marcopozzan/1422524394
3. • Building blocks soluzione di BI
• Data Analysis e Power BI
• Demo
Agenda
4. Dati
Informazioni
Conoscenza
Visualizzazione - Azione
Collezionare: I dati necessari devono essere raccolti dalle applicazioni o
dalle sorgenti dati esterne nei diversi modi che conosciamo. Dove si
trovano i dati? Gap Informativo?
Integrare: I dati grezzi devono essere convertiti in informazioni chiare e
precise. Verifica delle regole di business. I dati devono essere integrati in
una struttura coerente usata per comprendere informazioni aziendali
(verificare il dato). Dati vengono normalizzati e puliti.
Analisi: generare informazione che sia accurata, disponibile sempre e
tempestiva ha poco valore se non ci sediamo con il business ad analizzare
che cosa significa realmente l’informazione estratta e la comprendiamo.
«L'informazione non è conoscenza Albert Einstein»
Presentare i dati e AGIRE!!!: Il motivo principale per cui le soluzioni di
business intelligence sono deludenti e che mettiamo a disposizione la
conoscenza attraverso dashboard, KPI ma le persone che possono decidere
per qualsiasi motivo non fanno nulla.
Building blocks business intelligence
5. Dati: Data Sources
• La posizione (location) o il repository dei
dati per la nostra soluzione di BI
• Sono usate tradizionalmente nei
processi di ETL, al momento abbiamo:
• On-premises
• In the cloud
• In files
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
6. Dati: Queries
Comandi che girano sui data source per
estrarre un dato specifico:
• Ritorna un intera tabella oppure viene
eseguita una query sulla sorgente
• Può essere una stored procedure su SQL
Server
• Ritorna solo I dati di cui necessitiamo
• Eseguire trasformazioni dei dati
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
7. Informazioni: Data Transformations
I dati devono essere trasformati dalla loro
forma originale (source system) in un
formato compatibile per la vostra
destinazione:
• Cleaning
• Formatting
• Key Lookups
• Aggregations
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
8. • Trovare, combinare e rimodellare Big Data, small data, e
qualsiasi Dato!
• Identificare e importare dati esterni
• Trovare dati rilevanti usando strumenti di ricerca
• Combinare e trasformare più sorgenti dati
• Power Query formula language: “M”
• Lo stesso linguaggio per la stessa query su sorgenti di dati
diverse
• Possibilità di condividere query e funzioni
• (free) add-in per Excel 2010 e Excel 2013, 2016
(integrated)
Power BI: Power Query?
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
9. Conoscenza: Data Models
• Creare una vista consistente degli
elementi dei dati e le loro relazioni in una
organizzazione
• Insieme di standard e naming
conventions
• Contiene il modello semantico dei dati
• L'idea di base è sempre la stessa:
abilitare l'utente a navigare i dati senza
riscrivere una nuova query ogni volta
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
10. Power BI: Power Pivot
• Soluzione In-memory per le
necessita di data modelling della
Self-Service BI.(free)add-in Excel
2010,Excel 2013 e 2016(i)
• Data Model (BISM) è
• E’ una lista di tabelle con delle frecce
che le collegano
• Tabella = indica un insieme di colonne
che contengono dati
• Relazione = si leggono come si
«riferisce a»
• Data model fisico: è il modo di
pensare del tecnico
• Data model logico: è il modo di
pensare dell’utente (mondo reale)
• Dove si creano le logiche di business o
calcoli
• Dove si utilizza DAX (Data Analysis
Expression)
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
11. Visualization
• L’occhio umano riconosce i patterns
• Facile da individuare le anomalie in un
charts o in una maps, rispetto alle tabelle
• Le visualizzazioni trovano patterns, clusters,
e outliers
• Aiutano a prendere facili decisioni sui nostri
dati
• Eliminare lo sforzo mentale nell’analizzare i
numeri sulle righe
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
12. Power BI: Power View?
• Tool con visual interattivi
• Ricerca dati: cross-filtering, Bing-
integration, play axis
• Già pronti per una eventuale
presentazione (es: PPT)
• Basato su Silverlight / Html 5
• Pensato per gli utenti di business
• Obbietivo: dare potenza alla
visualizzazione dei dati
• Minima curva di apprendimento
Dati
Informazioni
Conoscenza
Visualizzazione - Azione
14. Recap DAX prima della demo
• La colonna calcolata usa Nometabella[campo]
• La misura usa [nomemisura]
• Colonna calcolata occupa spazio in memoria
• Operazioni su riga IF( Sales[Discount] > 0 ; «si», «no»)
• Misura non occupa spazio ma CPU
• SUM(Sales[Discount])
• FILTER/ALL simili alla where di SQL filtra una tabella
• FILTER(sales; sales[discount] >0 ) o ALL(Sales)
15. Recap nozioni DAX prima della demo
• Funzioni di aggregazione SUM,AVERAGE,Ecc...
• SUM(Sales[Qtà])
• Non posso aggregare su due colonne
• SUMX(Sales,Sales[Qta] * Sales[Unit Price])
• CALCULATE Rimpiazza il filtro di valutazione di una
formula
• CALCULATE(SUM(Sales[Discount]);Product[color] =«red»)
• ALLSELECTED permette il visual total