Big Data Social Media
Valore dei Dati
Volume Varietà Velocità
Trends & Patterns
Numeri Vs Immagini
Dati Vs Istinto
Data Flow nel Business e nei Social Media
Big Data Value Chain
Analisi Predittive
Hadoop, Microsoft Big Data
Big Data landscape 2014
Convergenza: Social Media, Coding, Big Data, Apps, Cloud
Preparare una strategia di successo per il 2014.
- Social Media Marketing
- Content Marketing
- Native Advertising
- Social Customer Service
- Mobile Marketing
- Social Media Solutions, Tracking Tools, Metrics & Analytics
I social media sono un'importante fonte d'informazioni sui bisogni, le opinioni e le esigenze dei clienti: come analizzare il sentiment grazie ai Big Data?
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Preparare una strategia di successo per il 2014.
- Social Media Marketing
- Content Marketing
- Native Advertising
- Social Customer Service
- Mobile Marketing
- Social Media Solutions, Tracking Tools, Metrics & Analytics
I social media sono un'importante fonte d'informazioni sui bisogni, le opinioni e le esigenze dei clienti: come analizzare il sentiment grazie ai Big Data?
Business Intelligence & Big Data per il RetailRoberto Butinar
Innovazione e cambiamento stanno interessando in modo crescente tutte le forme di interazione sociale, e quindi economica.
L'industria del retail probabilmente è una di quelle maggiormente coinvolte. L'esplosione delle informazioni disponibili per i potenziali consumatori fanno il paio con il moltiplicarsi delle opzioni e canali di acquisto.
Nonostante la crisi economica, gli acquisti online continuano a crescere in tutto il mondo a doppia cifra, ed alcune aree in particolare, tra cui l'Italia, il potenziale di crescita per i prossimi anni è ancora più forte.
Il ruolo del governo dell'informazione, in questo processo di radicale trasformazione, risulta essenziale. Non solo per l'acquisto effettuato online, ma per l'acquisto più tradizionale effettuato in negozio.
Multicanalità significa che gli utenti utilizzano diversi dispositivi per informarsi, interagire fra di loro e con noi, ed eventualmente completare l'acquisto. Significa quindi maggiore complessità, più interazioni da monitorare, clienti più informati, più concorrenza e maggiore pressione sui prezzi.
Non è possibile affrontare questa complessità crescente senza un adeguato supporto informativo. E' qui che entrano in gioco la Business Intelligence e il Big Data Management.
In TARGIT abbiamo una lunga e consolidata esperienza in ambito Retail. Sappiamo inoltre quanto sia importante che le informazioni possano essere fruite in modo semplice ed immediato. Siano tradizionali, o Big Data.
Per questa ragione abbiamo voluto rivoluzionare l'interazione fra utenti ed informazioni. Con TARGIT è sufficiente chiedere ciò di cui si ha bisogno, e il sistema si preoccuperà di comprendere quali informazioni sono realmente quelle di nostro interesse, imparando dalle nostre abitudini e da quelle dei nostri colleghi. Maggiore sarà l'utilizzo di TARGIT, più precise e pertinenti saranno le risposte che il sistema sarà in grado di restituirci.
La presentazione offre una panoramica sul mercato Retail, sulle sue evoluzioni recenti e un approfondimento sulle soluzioni offerte da TARGIT.
Buona lettura.
Breve panoramica sui Big Data, per chi ne ha solo sentito parlare ma non sa bene cosa siano.
La presentazione non è pensata per un pubblico tecnico e segue questa agenda:
1. definizione di Big Data delle 3 V
2. esempi di progetti realmente effettuati
3. tecnologie
4. riflessioni varie
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
"One could be Prince Charles, the other Ozzy Osbourne." strikes back. L'anno scorso vi abbiamo portato un caso di studio di TIM, in cui grazie all'ascolto dei Social, alle ricerche fatte sulle tematiche e l'applicazione di tecniche di SEO per la ricerca stessa, abbiamo raccolto informazioni dirimenti per cominciare una progettazione per la User Experience di un prodotto. L'idea del laboratorio di quest'anno è mostrarvi i passaggi, le tecniche, gli insight e i tool che usiamo per arrivare a formulare delle Digital Personas che siano base per il processo di Human Centered Design che seguiamo. #datadriven2017
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Free Your Talent
Digital Transformation: Big Data, User Targeting ed Etica - Project Work a cura degli studenti del Master ISTUD in Marketing Management Alex Caruso, Federica Ferrara e Riccardo Pavesi
Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Google SEO 2014, come funziona il posizionamento nei motori di ricerca.
Il SEO diventa Social, le funzionalità di Authorship e la continua ricerca sulle migliori parole chiave.
Breve panoramica sui Big Data, per chi ne ha solo sentito parlare ma non sa bene cosa siano.
La presentazione non è pensata per un pubblico tecnico e segue questa agenda:
1. definizione di Big Data delle 3 V
2. esempi di progetti realmente effettuati
3. tecnologie
4. riflessioni varie
Offering - Business Intelligence: il nostro approccioXenesys
Non esiste una soluzione di Business Intelligence migliore in assoluto, non è neppure quella più costosa: scopri come gli specialisti di Datawarehouse, Corporate Performance Management, BI Analytics accompagnano le imprese in un percorso verso le nuove frontiere della Business Intelligence, per ottenere anche informazioni che scaturiscono dall'analisi stessa dei dati.
Big Data e Business Intelligence. Intervento del Prof. Pozzan nell'ambito dell'open day organizzato dalla Fondazione ITS Kennedy di Pordenone, evento del 13 settembre 2014 in cui sono stati presentati i temi per i corsi in partenza a novembre 2014.
"One could be Prince Charles, the other Ozzy Osbourne." strikes back. L'anno scorso vi abbiamo portato un caso di studio di TIM, in cui grazie all'ascolto dei Social, alle ricerche fatte sulle tematiche e l'applicazione di tecniche di SEO per la ricerca stessa, abbiamo raccolto informazioni dirimenti per cominciare una progettazione per la User Experience di un prodotto. L'idea del laboratorio di quest'anno è mostrarvi i passaggi, le tecniche, gli insight e i tool che usiamo per arrivare a formulare delle Digital Personas che siano base per il processo di Human Centered Design che seguiamo. #datadriven2017
Watch full webinar here: https://bit.ly/2MAlOED
In un’era sempre più dominata dal cloud computing, dall’AI e dall’analisi avanzata, può sembrare per lo meno anacronistico che molte organizzazioni facciano ancora affidamento ad architetture di dati costruite prima della fine del secolo.
Fortunatamente questo scenario sta subendo un cambiamento repentino con l’adozione di nuove tecnologie di integrazione dati, come la virtualizzazione dei dati, che forniscono un livello logico, in tempo reale e sicuro di accesso ai dati aziendali. Le diverse sorgenti dati non devono più essere trasferite fisicamente in un nuovo repositorio e trasformate, prima di essere utilizzate dall’azienda. E’ per questo che la virtualizzazione dei dati soddisfa le esigenze di trasformazione dell’architettura e permette la costruzione di un Data Fabric aziendale.
In questa sessione parleremo di:
-Cos'è la virtualizzazione dei dati;
- Come differisce da altre forme di integrazione a livello Enterprise;
- Casi d’uso della Virtualizzazione dei dati: Business Intelligence, Data Science, democratizzazione dei dati, Master Data Management, Dati distribuiti
- Perché la virtualizzazione dei dati si sta espandendo dentro le organizzazioni in Italia;
Digital Transformation: Big Data, User Targeting ed Etica - Project Work Mast...Free Your Talent
Digital Transformation: Big Data, User Targeting ed Etica - Project Work a cura degli studenti del Master ISTUD in Marketing Management Alex Caruso, Federica Ferrara e Riccardo Pavesi
Presentazione di Sergio Patano, Research & Consulting Manager di IDC Italia, tenuta all’IDC Big Data & Analytics Conference 2014 di Milano, il 18 Settembre 2014
Gestione dei big data: Web 3.0, motori semantici, soft computing Valerio Eletti
Intervento di Valerio Eletti al seminario "La personalizzazione scientifica delle cure" organizzato dal Dott. Christian Pristipino all'Ospedale San Filippo Neri di Roma, il 10 maggio 2014
Google SEO 2014, come funziona il posizionamento nei motori di ricerca.
Il SEO diventa Social, le funzionalità di Authorship e la continua ricerca sulle migliori parole chiave.
Il mondo da un oblò.
Business to business, business to customers?
C’è un’alternativa reale? Una prospettiva di vedere le cose che consideri - anche e soprattutto, i bisogni delle persone?
Il business to business sta diventando human to human. Le aziende sanno conversare con un linguaggio vicino a quello delle persone? Testimonianza sui Social Media per Bologna Fiere.
Quarto appuntamento del ciclo dei 5 incontri di APIWEB 2011, la serie di incontri organizzata da APINDUSTRIA MANTOVA dedicata alle aziende e al mondo di internet. Nel file sono presenti tutte le slide dell’incontro che si è svolto il 25/01/2012 in cui Rinaldo Zambello (NUR Srl) ha relazionato sul tema: "La vendita in un click; L'ABC dell'e-commerce dal sito alla logistica".
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven Innovation
Oggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
This is a template that MBA or undergraduate business students can use for case study presentations for class or case competitions. It's bare bones, meant to explain the flow of information and suggest some frameworks to use to discuss the problem in a case.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo
Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
La gestione logica dei dati come chiave del successo per Data Scientist e Bus...Denodo
Watch full webinar here: https://buff.ly/3Fmc74I
Affinché i progetti di data science abbiano successo, i Data Scientist e i Business Analysts hanno bisogno di accedere a una molteplicità di dati. Tuttavia, consentire l'accesso a tutti i dati tramite un repository centrale integrato è un compito spesso arduo, che può richiedere fino all'80% del tempo del progetto in attività di acquisizione, esplorazione, comprensione e preparazione dei dati.
La Gestione Logica dei dati può aiutare i Data Scientist e i Business Analyst ad accelerare alcune delle attività più tediose e onerose, consentendo loro di concentrarsi sui loro obiettivi e su come i dati consentono di raggiungerli. Poiché la piattaforma di Gestione Logica dei dati dei dati si integra agilmente nell'ecosistema aziendale, i Data scientist o i Business Analyst possono continuare a utilizzare gli strumenti che conoscono, senza dover acquisire nuove competenze per sfruttare compiutamente i dati disponibili.
In questa sessione on-demand, scopriremo insieme come la Gestione Logica dei dati permetta di:
- fornire tutti i dati aziendali, in tempo reale e senza repliche;
- creare e condividere più modelli logici con un semplici operazioni di drag and drop;
- disporre di un catalogo attraverso il quale comprendere facilmente il significato dei dati, le loro relazioni reciproche e la loro origine.
The Logical Data Fabric: un posto unico per la data integration (Italian)Denodo
Watch full webinar here: https://bit.ly/2GmNEAS
Integra i tuoi dati in un unico luogo e rendili velocemente disponibili per supportare le scelte di business. La capacità di fornire un unico luogo per l'accesso istantaneo ai dati può rappresentare un grande vantaggio competitivo per le aziende, in un mercato in continuo mutamento.
È compito delle tecnologie di virtualizzazione e di data integration creare un logical data fabric sempre più efficiente, rendendo disponibili tutti i dati in un unico posto senza doverli replicare, pronti per essere analizzati e consentire di prendere decisioni aziendali migliori e più rapide.
Assieme ai Data Virtualization Engineer di Denodo e di Miriade scopriremo come la Data Virtualization e il Logical Data Fabric consentano di integrare e rendere disponibili velocemente i dati, superando problemi quali:
- la posizione fisica dei dati
- la diversità di formato dei dati
- la latenza dei dati
Per riservare il tuo posto, registrati ora! Sentiti libero di invitare chi pensi possa trovare l'argomento utile per la propria carriera o per la propria attività.
La data science è una branca dell’informatica, basata sui dati, che si fonda su conoscenze relative all’integrazione dei dati (Big Data), allo sviluppo di algoritmi matematici (Analisi Predittiva/Machine Learning) e alle capacità tecnologiche: di fatto si concentra e pone il suo massimo vantaggio sulla risoluzione analitica di problemi complessi.
Presentazione CSI Piemonte - Fossano 11 dicembre 2014 - parte 1Giuly Bonello
Aspetti territoriali dell'uso di dati informativi nelle PA: esperienze e opportunità - presentazione di CSI Piemonte (G. Bonello e M. Cavagnoli) al Comune di Fossano (11 dicembre 2014)
Dati, contesto, revenue: come analizzare il dato per aumentare la profittabilitàGiorgio Suighi
Dati, informazioni, interazioni: il web 2.0 ha aperto l’utente a nuovi scenari d’azione, aumentando in maniera esponenziale i comportamenti misurabili e il volume dei dati a disposizione.
In un web sempre più tentacolare e dinamico, confrontarsi all’interno di un mercato competitivo, orientarsi e mettere a punto strategie efficaci rende imprescindibile per le aziende adottare un data driven approach: la capacità di individuare il dato, contestualizzarlo e analizzare il comportamento dell’utente diventa il punto focale per impostare strategie di marketing vincenti
2. Big Data & Social Media
BIG DATA è la sempre più grande e complessa crescita dei dati che sta sfidando
i tradizionali sistemi di database
video di YouTube
messaggi di Facebook
tweet di Twitter
transazioni con carta di credito
RFID (Radio Frequency Identification)
etc.
Google elabora ogni giorno petabyte di dati:
testi, blog, video, foto, nomi, indirizzi, …
Trilioni di informazioni vengono
raccolte, registrate e analizzate
quotidianamente in maniera
sempre più veloce
Big Data affronta uno dei problemi più critici nel business di oggi:
come ottenere valore dalle crescenti risme di dati complessi
4. Volume, Varietà, Velocità
IDC (International Data Corporation) stima che l’universo digitale arriverà
a livello gobale entro il 2020 fino a 35 zettabytes (35 trillioni di terabytes)
La varietà di dati è in aumento. Viene tutto sempre conservato e quasi
l’85% dei nuovi dati sono dati non strutturati
La velocità dei dati sta accelerando il ritmo del business. L'acquisizione
dei dati è diventata istantanea grazie a nuovi punti di interazione tra
cliente e tecnologie. L’analisi in tempo reale è più importante che mai
5. Un foto vale più di mille numeri
I software rendono la manipolazione di grandi quantitativi di dati relativamente
facile e poco costosa
Utenti che cercano insights nei big data hanno nuovi strumenti che consentono di
capire, esplorare, condividere e applicare i dati in modo efficiente e collaborativo,
spesso senza professionisti di analisi
Gli strumenti visivi possono quindi rappresentare concetti come fossero storie
L’osservazione di tendenze e modelli è più veloce
Migliore memorizzazione: per alcune persone la
visualizzazione rende più facile capire e ricordare i dati
I live feeds consentono agli utenti di sistemare
i dati e generare visualizzazioni personalizzate
da esplorare insieme in tempo reale
6.
7. Visualizzare Trends e Patterns
Bubble Chart
BoxPlot
Bar e Line
Chart
Area e Line
Chart
3D Bar Chart
Histogram
Gnatt Chart
Line Chart
Radar Chart
Waterfall Chart
8. Numeri Vs Immagini
Le Analytics visuali non sempre migliorano ogni decisione in quanto alcune
immagini non aggiungono chiarezza ai dati
A volte una storia complessa risulta troppo semplice, altre volte fatti semplici
sembrano troppo complessi
I computer non si preoccupano dell’analisi visiva, se le decisioni sono
automatizzate senza la supervisione umana o il suo intervento,
conviene non perdere tempo con lo sviluppo di immagini
Più Dati Vs Meno Cretività: per raggiungere il massimo potenziale l'analisi ha
bisogno di sostegno (Advocacy) e super-visione (Oversight).
9. Dati Vs Istinto
Le decisioni chiave per le migliorare le vendite derivano da un mix di dati
disponibili e di intuizioni maturate attraverso esperienze precedenti
I dati possono essere fuorvianti quando sono incompleti o presi fuori contesto
L’esperienza nella gestione dei dati continua a svolgere un ruolo significativo
quando i dati sono incompleti o imprecisi
Molti senior sales executive si affidano maggiormente alla situazione attuale
e ai dati storici rispetto a quelli previsionali
Il miglior risultato è una combinazione di informazioni tempestive, previsioni
perspicaci e dati di supporto
(TheEconomist)
10. Gestire virtualmente qualsiasi dato
Dati strutturati
Transactional Data, Machine Generated Data, RDBM
Dati non strutturati
Social, Video, Text, Customer Service, Imagery, Scientific data
Dati streaming
Web Searches, Network Traffic, Sensor Data, NoSQL
11. Data Flow nel Business
Supply Chain
Risorse
Umane
Sviluppo del Prodotto
IT
Servizio
Clienti
Vendite
Finanza e
Controllo
Marketing
12. Data Flow nei Social Media
Emergere
Convertire
Analizzare
13. Misurare i Social Media
Analisi Social e Web
Cosa dicono sulle marche, prodotti o servizi
Analisi Avanzate
Come si possono predire meglio i risultati futuri
Interest
Interaction
Advocacy
Feeds di dati in tempo reale
Ottimizzare la flotta in base a previsioni
e modelli di traffico
insights della visita
-Gestire, arricchire, e di ottenere - Durata da tutti i dati.
Numero utenti
- Frequenza delle visite
- Pagine visitate
- Interazione tra utenti
- Creare un sistema scoring
14. Big Data Value Chain
Analisi
Predittive
Valore
Analisi
Prescrittive
Analisi
Diagnostiche
Analisi
Descrittive
Difficoltà
16. Soluzione open
Il progetto Apache Hadoop è formato da tre componenti:
-
HDFS (Hadoop Distributed File System), per lo storage
MapReduce, l'infrastruttura di elaborazione distribuita che si occupa del lavoro
di analisi sui dati
Common, un gruppo di infrastrutture condivise necessario sia per HDFS sia per
MapReduce
Hadoop è sviluppato da una comunità globale di programmatori, è 100% open
source. Nessuna società ne ha la proprietà, viene sponsorizzato dalla Apache
Software Foundation ed è finalizzato alla memorizzazione e l'elaborazione dei dati
in nuovi modi rispetto al RDBMS
17. MICROSOFT & BIG DATA
Power Pivot di Microsoft Excel e Power View di SharePoint per una visione nei dati strutturati
Hive Add-in per Excel e Hive ODBC Driver permettono l’accesso ai dati non strutturati Hadoop
24. Per maggiori info visita il sito www.socialmediaexperience.it
Contatti:
Valerio Torriero
Twitter: @nicephore
Twitter: @SMEXPERIENCE
Email: info@socialmediaexperience.it
Cover Art: Sunflower Seeds by Ai Weiwei
References:
Oracle.com/social
Deloitte Analytics Trends 2014
Microsoft Big Data Booklet
Mike Olson: youtu.be/S9xnYBVqLws
TheEconomist Data Vs Instinct
bigdatalandscape.com
logianalytics.com/vision
slideshare.net/kevincody/3d-engagement-formula
practicalanalytics.wordpress.com/predictive-analytics-101