Nel corso degli ultimi anni, il mondo finanziario sta esplorando l’introduzione di modelli di intelligenza artificiale con l’obiettivo di estrapolare indicazioni di valore da grandi quantità di dati, con livelli di precisione e profondità impensabili per l’uomo. A differenza dei tradizionali modelli quantitativi, l’intelligenza artificiale introduce una maggiore flessibilità che permette di cogliere l’evoluzione del mercato, anche se è buona prassi non spingersi verso approcci eccessivamente “black box”. Nel rispetto del concetto appena espresso, il modello presentato ha come obiettivo quello di individuare le variabili macroeconomiche premiate in un determinato intervallo temporale ed i titoli che beneficiano della spinta derivante da questo trend di fondo.
Milano, 25 Giugno - AI Italia {3} Meetup @ Microsoft Home
Il modello presentato ha come obiettivo quello di individuare le variabili macroeconomiche premiate in un determinato intervallo temporale ed i titoli che beneficiano della spinta derivante da questo trend di fondo
Modelli predittivi e analytics per supportare le decisioniFluxedo
Le slide dell'intervento durante la X Edizione dell’Economic Packaging Conference, organizzata dall’Istituto Italiano Imballaggio e promossa da CONAI dove abbiamo presentato il lavoro svolto insieme a EY nella costruzione di un modello predittivo per il costo delle materie prime per il packaging
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Intervento di Paolo Neirotti al secondo incontro del corso di formazione per dirigenti sindacali "Le parole dell'innovazione e il lavoro", nato da una progettazione congiunta tra ISMEL e le segreterie CGIL, CISL e UIL di Torino e tenutosi tra marzo e maggio 2019.
Milano, 25 Giugno - AI Italia {3} Meetup @ Microsoft Home
Il modello presentato ha come obiettivo quello di individuare le variabili macroeconomiche premiate in un determinato intervallo temporale ed i titoli che beneficiano della spinta derivante da questo trend di fondo
Modelli predittivi e analytics per supportare le decisioniFluxedo
Le slide dell'intervento durante la X Edizione dell’Economic Packaging Conference, organizzata dall’Istituto Italiano Imballaggio e promossa da CONAI dove abbiamo presentato il lavoro svolto insieme a EY nella costruzione di un modello predittivo per il costo delle materie prime per il packaging
130 FN 90 Febbraio 2017 - Tavola Rotonda L'analisi tanto attesa - Fieldbus & ...Cristian Randieri PhD
VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS
Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.
Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.
Intervento di Paolo Neirotti al secondo incontro del corso di formazione per dirigenti sindacali "Le parole dell'innovazione e il lavoro", nato da una progettazione congiunta tra ISMEL e le segreterie CGIL, CISL e UIL di Torino e tenutosi tra marzo e maggio 2019.
Passato, presente e futuro del sistema bancario - progetto adotta un dottor...Alessandro Greppi
«Adotta un Dottorando» ed è la nuova iniziativa che mette in sinergia gli istituti superiori cittadini all’Università di Pavia. Lo scopo è quello di avvicinare i ragazzi al tema della ricerca in università fornendo loro risorse per migliorare l'apprendimento delle discipline attraverso nuove metodologie.
Cladag 2015 - Bayesian Networks for Financial Markets VolatilityAlessandro Greppi
This document describes using Bayesian networks to analyze volatility in the S&P 500 stock market index. It discusses using market, momentum, sentiment, and price variables as inputs to a Bayesian network model. The model was trained on weekly data from 2010-2015 to learn relationships between variables and predict volatility. Scenarios were introduced to observe how the probabilities change when evidence is added. The analysis found that relative strength index, index P/E ratio, and volatility were most impactful on predicting buy/sell signals, while earnings growth had the lowest impact.
CFA Research Challenge - Autogrill SpA - UniPV TeamAlessandro Greppi
Team Leader - Università degli Studi di Pavia
Objective of the competition: writing an initiation of coverage report on the listed Italian company
Autogrill S.p.A.
Introduzioni ai mercati finanziari - progetto "adotta un dottorando"Alessandro Greppi
«Adotta un Dottorando» ed è la nuova iniziativa che mette in sinergia gli istituti superiori cittadini all’Università di Pavia. Lo scopo è quello di avvicinare i ragazzi al tema della ricerca in università fornendo loro risorse per migliorare l'apprendimento delle discipline attraverso nuove metodologie.
Financial Markets Signal Detection with Bayesian Networks - Phd DREAMT - Work...Alessandro Greppi
In order to model and explain the dynamics and the signals of the market, financial operators should take into account different kind and source of information.
Unfortunately, standard tools are not always able to summarize in a signal the big amount of information available. We propose to use Bayesian Networks as a quantitative financial tool for this aim. By exploiting the network, we can combine
in the model, both market variables and sentiment ones. Bayesian Networks can be used to show the relationship among the variables belonging to different areas, and to identify in a mouse-click time the configuration that provide an operative signal. An application to the analysis of S&P 500 in the periods 1994-2003 and 2004-2015
is presented.
Passato, presente e futuro del sistema bancario - progetto adotta un dottor...Alessandro Greppi
«Adotta un Dottorando» ed è la nuova iniziativa che mette in sinergia gli istituti superiori cittadini all’Università di Pavia. Lo scopo è quello di avvicinare i ragazzi al tema della ricerca in università fornendo loro risorse per migliorare l'apprendimento delle discipline attraverso nuove metodologie.
Cladag 2015 - Bayesian Networks for Financial Markets VolatilityAlessandro Greppi
This document describes using Bayesian networks to analyze volatility in the S&P 500 stock market index. It discusses using market, momentum, sentiment, and price variables as inputs to a Bayesian network model. The model was trained on weekly data from 2010-2015 to learn relationships between variables and predict volatility. Scenarios were introduced to observe how the probabilities change when evidence is added. The analysis found that relative strength index, index P/E ratio, and volatility were most impactful on predicting buy/sell signals, while earnings growth had the lowest impact.
CFA Research Challenge - Autogrill SpA - UniPV TeamAlessandro Greppi
Team Leader - Università degli Studi di Pavia
Objective of the competition: writing an initiation of coverage report on the listed Italian company
Autogrill S.p.A.
Introduzioni ai mercati finanziari - progetto "adotta un dottorando"Alessandro Greppi
«Adotta un Dottorando» ed è la nuova iniziativa che mette in sinergia gli istituti superiori cittadini all’Università di Pavia. Lo scopo è quello di avvicinare i ragazzi al tema della ricerca in università fornendo loro risorse per migliorare l'apprendimento delle discipline attraverso nuove metodologie.
Financial Markets Signal Detection with Bayesian Networks - Phd DREAMT - Work...Alessandro Greppi
In order to model and explain the dynamics and the signals of the market, financial operators should take into account different kind and source of information.
Unfortunately, standard tools are not always able to summarize in a signal the big amount of information available. We propose to use Bayesian Networks as a quantitative financial tool for this aim. By exploiting the network, we can combine
in the model, both market variables and sentiment ones. Bayesian Networks can be used to show the relationship among the variables belonging to different areas, and to identify in a mouse-click time the configuration that provide an operative signal. An application to the analysis of S&P 500 in the periods 1994-2003 and 2004-2015
is presented.
Financial Markets Signal Detection with Bayesian Networks - Phd DREAMT - Work...
A.I. & Stock Selection: Quali sono i titoli caldi?
1. A.I. & Stock Selection:
Quali sono i titoli caldi?
Alessandro Greppi, PhD
2. “
I believe this artificial intelligence is
going to be our partner. If we misuse
it, it will be a risk. If we use it right, it
can be our partner.
Masayoshi Son
3. I mercati finanziari sono
sistemi in cui la complessità è
«in movimento»
Le dinamiche sono influenzate
dall’ interazione competitiva
tra i numerosi operatori
La Complessità dei Mercati
4. Disponibilità di una
grande quantità di
informazioni generata da
fonti non convenzionali
Necessaria la definizione
di nuove metodologie
per estrapolare, gestire e
processare i dati
I Big Data
6. L’intelligenza artificiale (A.I.)
è l’abilità di un sistema
tecnologico di risolvere
problemi o svolgere compiti e
attività tipici degli umani
Ideale per analizzare sistemi
complessi, come i mercati
finanziari
L’ Intelligenza Artificiale
7. Il problema della generazione di performance
o È sempre più complesso generare alpha
o Modelli quant tradizionali evidenziano alcune rigidità
o Intelligenza Artificiale (A.I.) consente maggiore flessibilità rispetto ai
modelli tradizionali
o A.I. permette di sfruttare anche dati “alternativi”
Nonostante il suo potenziale, A.I. in sé non è la soluzione a tutti i problemi
8. A.I. per individuare trend «di fondo»
Abbiamo applicato A.I. per identificare i titoli «sostenuti» da
dinamiche riconducibili ad una serie di grandezze
finanziarie
9. A.I. ma con moderazione
L’intelligenza artificiale a
supporto nel processo di
estrazione di indicazioni dai
mercati finanziari
A.I. : Attenzione! Usare con cautela
Perché non esagerare
L’adozione di modelli
eccessivamente sofisticati
necessita di una quantità
enormi di dati di cui
difficilmente si dispone:
Rischio overfit !
10. Le variabili in input sono derivate
dall'osservazione dell'ambiente;
quelle in output, identificano la
decisione da intraprendere
Ogni nodo verifica una condizione
su una particolare variabile
dell'ambiente e ha due o più
diramazioni
La decisione finale si trova nei
nodi terminali
Alberi Decisionali
11. La Metodologia
Dati
o Storico prezzi dei
titoli
o Storico dati macro
(prezzi petrolio, oro,
Dollar Index…)
o Storico financials dei
titoli
o Classificazione
settoriale dei titoli
Analisi
o Calcolo correlazione
tra variabili macro e i
settori
o Selezione di un
intervallo di tempo e
del livello di
complessità degli
alberi decisionali (da
1 a 3 variabili per
albero)
Output 1
o Il modello restituisce
un elenco di variabili
«premiate» dai
mercati finanziari
nell’intervallo
indicato
Output 2
o L’algoritmo propone
una serie di titoli
«caldi» in base al
trend individuato
nell’intervallo
selezionato
12. 100 titoliinseriti nel database appartenenti a SP500 e con mkt. cap. maggiore
180.000
alberi decisionali generati per simulazione
30 variabiliassociate a grandezze macro, di mercato o di bilancio
13. Come funziona il modello
Simulazione con modello a 3 variabili per albero decisionale
14. Si indica un intervallo
temporale da analizzare:
dal 1 Gennaio al 31 Marzo ‘18
E’ possibile selezionare il
numero di variabili per
albero: da 1 a 3
Step 1: Selezione dell’intervallo
15. Albero ad 1 variabile
o I titoli sono ordinati in base alla
variabile associata a quel ramo
o Permette di capire l'importanza
di una singola variabile
o Dalla lista si sceglie il primo 20%
dei titoli
Modello a 1 vs. Modello a 3 variabili per albero
Albero a 3 variabili
o Complessità non oltre 3 variabili
per albero
o Permette di capire come una
variabile si combina con altre
o Dalla lista si sceglie il primo 20%
dei titoli
16. Il modello elabora una
serie di combinazioni di
variabili
Variabile_High (Low): i
titoli si ordinano in senso
decrescente (crescente)
rispetto alla variabile in
questione
Step 2: Individuazione delle variabili
17. Le variabili selezionate nello
step 2 sono inserite nel box
«Variable for stocks
selection»
Questo passaggio innesca il
processo di selezione dei
titoli
Step 3: Processo di selezione