REDES NEURONALES : HERRAMIENTA DE TRADING                    Javier Oliver Muncharaz                    http://www.rankia....
• Aplicaciones de las redes neuronales• Historia de las redes neuronales•¿Qué son las redes neuronales y cómo funcionan?• ...
Problemas de Asociación y Reconocimiento– NETalk (Sejnowski & Rosemberg):• Reconocimiento de escritura, traducción,…– Trat...
Inspección visual:Seguimiento de pupila:
Airline Marketing Tactician (AMT):• Monitoriza y recomienda la reserva deplazas Control de robots:
ALVINN:• Conducción de vehículo
Problemas de Optimización– Optimización de rutas: Aplicaciones en Astronomía/Astrofísica – Reconocimiento de estrellas/gal...
Aplicaciones en Medicina:-Análisis de imágenes de resonancias magnéticas, ultrasonido- Clasificación de pacientes en grupo...
APLICACIONES EN FINANZAS• Ej: análisis datos financieros y contables, sistema antifraudeVISA,…• OPTIMIZACIÓN: Construcción...
• CLASIFICACIÓN: Estudio de la probabilidad de riesgoen la concesión de créditos y la probabilidad de quiebra deuna empres...
• PREDICCIÓN: Es el principal objetivo del uso de laredes neuronales en las finanzas.Ej: White (1988) (pionero) utiliza se...
Ej: Zhang, Jiang, & Li (2004) utilizan una red neuronalbackpropagation para obtener señales de compra/ventarealizando pred...
• Alan Turing (1936) estudia el cerebro como una forma de ver elmundo de la computación• Warren McCulloch ,Walter Pitts, D...
• Desde 1985 comenzarón a consolidarse los congresos másimportantes como Neuronal Networks for Computing, laNeural Informa...
• Las redes Neuronales Artificiales intentan simular elcomportamiento de las neuronas biológicas en el proceso deaprendiza...
Estructura neurona biológica y artificial
• Estructura de una red neuronal: Neuronas de entrada,intermedias y de salida.
• Cada neurona tiene un estado de activación asociado• Existe una función transferencia o de salida    que modificael esta...
• La función de activación estimará el nuevo estado de activaciónde una neurona en un momento posterior             tenien...
• Cuando la regla de propagación o      supera un cierto númeroumbral Φ entonces se activa la neurona y el resultado pasa ...
FUNCIÓN DE ACTIVACIÓN TIPO ESCALÓN
• Función de activación tipo lineal: puede obtener cualquiernúmero real. En este caso el estado de activación coincide con...
• Función de activación tipo lieal-mixta: variante de la lineal.Los valores del estado de activación de una neurona están ...
•Función de activación sigmoidal: función continua dentro delintervalo del eje real y con valor de salida continuo entre (...
• APRENDIZAJE•El proceso de aprendizaje viene determinado por la variación delos estados de activación y éstos van modific...
• Clasificación mecanismos aprendizaje:• Aprendizaje supervisado y no supervisado: El primero se basaen la existencia de u...
• Con carácter general la variación de los pesos se produce apartir del peso existente en un momento anterior.• Aprendizaj...
• Aprendizaje no supervisado: es autosupervisado. La red notiene referencia si las salidas que va generando son o nocorrec...
• La red neuronal Backpropagation propuesta por Rumelhart,Hinton y Williams en 1986.• Utiliza el aprendizaje supervisado (...
• Aprendizaje de la delta generalizada:•             variación del peso entre neurona i y j cuando seactiva• : es el facto...
• Esto implica que error de aprendizaje de una neurona será lasuma ponderada por los pesos de los errores de las neuronas ...
• Estructura red BP• Este tipo de red presenta una capa de entrada con n neuronas yuna capa de salida con m neuronas. Adem...
• Múltiples estudios sobre la volatilidad y su comparativa conRedes neuronales . Engle (1982 y 1987), French y Schwert(198...
• Ejemplo de estudio: cierres diarios Ibex-35 03/01/2000-14/07/2010 (2658 observaciones)• Se estudió y estimó tanto las re...
• Se entrenó la red neuronal Backpropagation con 2 capasocultas, 256 neuronas.• El ratio de aprendizaje se estableció para...
• Cuadro resumen resultados para la rentabilidad                                             RED NEURONAL    RED NEURONAL ...
• Cuadro resumen resultados para la volatilidad                                 RED NEURONAL     RED NEURONAL    RED NEURO...
ESTRATEGIA I : Se realiza una predicción de la apertura ycierre de la sesión siguiente. El precio de cierre estimado seaju...
02/05/2012           6822       8                6802       28                      TOTAL MES03/05/2012           6694    ...
• Definición de los datos de entrada  (Selección de variables ratios, indicadores,…)• Definición de la topología de la red...
NeuroShell Trader www.neuroshell.comNeuroSolutions      www.nd.comwww.alyuda.comwww.wave59.comwww.biocompsystems.com/www.n...
Presentación forinvest 2013
Presentación forinvest 2013
Upcoming SlideShare
Loading in...5
×

Presentación forinvest 2013

3,019

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
3,019
On Slideshare
0
From Embeds
0
Number of Embeds
9
Actions
Shares
0
Downloads
16
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Presentación forinvest 2013

  1. 1. REDES NEURONALES : HERRAMIENTA DE TRADING Javier Oliver Muncharaz http://www.rankia.com/blog/redes-neuronales Valencia, 7 Marzo 2013
  2. 2. • Aplicaciones de las redes neuronales• Historia de las redes neuronales•¿Qué son las redes neuronales y cómo funcionan?• Red Neuronal BackPropagation• Ejemplo 1: comparativa predicción de volatilidaddel índice IBEX-35 entre modelo econométricoversus red neuronal BackPropagation• Ejemplo 2: predicción índice DAX
  3. 3. Problemas de Asociación y Reconocimiento– NETalk (Sejnowski & Rosemberg):• Reconocimiento de escritura, traducción,…– Tratamiento de imágenes:• Ruido o niebla en placas matrículas
  4. 4. Inspección visual:Seguimiento de pupila:
  5. 5. Airline Marketing Tactician (AMT):• Monitoriza y recomienda la reserva deplazas Control de robots:
  6. 6. ALVINN:• Conducción de vehículo
  7. 7. Problemas de Optimización– Optimización de rutas: Aplicaciones en Astronomía/Astrofísica – Reconocimiento de estrellas/galaxias – Clasificación espectral y morfológica de estrellas/galaxias – Estudios de superficies planetarias – Estudio del campo magnético interplanetario – Determinación de parámetros en atmósferas estelares
  8. 8. Aplicaciones en Medicina:-Análisis de imágenes de resonancias magnéticas, ultrasonido- Clasificación de pacientes en grupos en función de variables-Procesamientos de señales, modelado y simulación defuncionamiento del cerebro.- Predicción de pronósticosEj: clasificación de pacientes con Alzheimer. 92% éxitofrente al análisis discriminante.Ej: enfermedades oculares. Un médico general detectacorrectamente un 79%, la red neuronal un 87% y seaproxima a un especialista con un 92%
  9. 9. APLICACIONES EN FINANZAS• Ej: análisis datos financieros y contables, sistema antifraudeVISA,…• OPTIMIZACIÓN: Construcción de carteras de diferentesactivos optimizando el binomio rentabilidad-riesgo utilizandoredes neuronales frente a modelos clásicos de construcción decarteras (Markowitz).Ej: Wong, Wang, Goh y Quek (1992) utilizan red neuronal(fuzzy) para la predicción de rentabilidades de las accionesmediante ratios financieros de las empresas.Ej: Azema-Barac, Trelaven (1993) utilizan como variablespara la red tanto ratios financieros del análisis fundamental comoindicadores del análisis técnicos.
  10. 10. • CLASIFICACIÓN: Estudio de la probabilidad de riesgoen la concesión de créditos y la probabilidad de quiebra deuna empresa.Ej: Marose (1990) es el primero en estudiar la clasificaciónde clientes para concesión de crédito para el Chase ManhattanBank.Ej: Martín del Brío y Serrano (1995) estudian el riesgo deinsolvencia de empresas españolas.
  11. 11. • PREDICCIÓN: Es el principal objetivo del uso de laredes neuronales en las finanzas.Ej: White (1988) (pionero) utiliza serie de precios yvolúmenes de IBM obteniendo mejores resultados respectomodelos estadísticos y econométricos.Ej: Hawley, Jhonson & Raina (1990) y Parisi, Parisi(2006) estudian mercados con mayor volatilidad (mercadosasiáticos)Ej: Parisi, Parisi & Guerrero (2003) predicción de lasvariaciones semanales del índice IPSA (Chile). Con unaestrategia activa mediante redes neuronales obtienen másganancias respecto a otras estrategias más pasivas.
  12. 12. Ej: Zhang, Jiang, & Li (2004) utilizan una red neuronalbackpropagation para obtener señales de compra/ventarealizando predicción de tendencias futuras en el mercadode valores.Ej: Lamothe y García (2004) Estudian la volatilidadimplícita de las opciones sobre el índice Ibex-35 llegando ala conclusión que el modelo de valoración de opcionesBlack-Scholes no es totalmente eficiente obteniéndosemejores resultados con la implementación de las redes.Ej: Hamid y Habid (2005) también estudian la valoraciónde opciones mediante redes. Conclusión: La aplicación delas redes presentan muy buenas perspectivas tanto en lavaloración del precio de las opciones como en lavolatilidad.
  13. 13. • Alan Turing (1936) estudia el cerebro como una forma de ver elmundo de la computación• Warren McCulloch ,Walter Pitts, Donald Hebb plantean lasprimeras teorías de la computación neuronal.• Frank Rosenblatt (1957) desarrolla la primera red neuronal, elPerceptrón• Widrow y Hoff desarrollan el modelo Adaline• Autores como Grossberg, Minsky, Kohonen,Hopfield,..también construyeron otro tipo de redes neuronales.
  14. 14. • Desde 1985 comenzarón a consolidarse los congresos másimportantes como Neuronal Networks for Computing, laNeural Information Processing Systems• Revistas especializadas como Neural Networks,Transactions on Neural Networks•El Departamento de Defensa de los Estados Unidos, laSociedad Europea de Redes Neuronales son algunos de lasinstituciones que han impulsado la investigación sobre redesneuronales.
  15. 15. • Las redes Neuronales Artificiales intentan simular elcomportamiento de las neuronas biológicas en el proceso deaprendizaje.• Un sistema de computacióncompuesto por elementos simples (neuronas) que se encuentran interconectadas queprocesan la información de formadinámica como respuesta a entradas externas
  16. 16. Estructura neurona biológica y artificial
  17. 17. • Estructura de una red neuronal: Neuronas de entrada,intermedias y de salida.
  18. 18. • Cada neurona tiene un estado de activación asociado• Existe una función transferencia o de salida que modificael estado de la neurona y lo transforma en una señal de salida• Las señales se transmiten mediante las conexiones sinápticasmediante ponderaciones• La agregación combinada de todas las entradas a una neuronaconstituyen la entrada total neta de información o regla depropagación , es decir, el cálculo del valor neto que realiza dichaneurona con las diferentes señales que han entrado en la misma.
  19. 19. • La función de activación estimará el nuevo estado de activaciónde una neurona en un momento posterior teniendo encuenta el estado de activación anterior que tenía y el valorde la entrada del valor neto calculado . N eurona 1 N eurona 2 w j1 w j2 F(a j(t),N et j) N et j = f j(a j(t+1 ) . a j(t+1 ) = yj . w jn yj N eurona n N eurona j
  20. 20. • Cuando la regla de propagación o supera un cierto númeroumbral Φ entonces se activa la neurona y el resultado pasa a lafunción de transferencia que dará una señal de salida .• Existen cuatro tipos básicos de funciones de transferencia oactivación: tipo escalón, lineal, lineal-mixta y sigmoidal.• tipo escalón:Se utiliza este tipo de función cuando el estado de activación dela neurona es binario (0,1).Por ejemplo para el caso de umbral fuera cero tendríamos lasiguiente función escalón:
  21. 21. FUNCIÓN DE ACTIVACIÓN TIPO ESCALÓN
  22. 22. • Función de activación tipo lineal: puede obtener cualquiernúmero real. En este caso el estado de activación coincide con elvalor neto de entrada menos el umbral.
  23. 23. • Función de activación tipo lieal-mixta: variante de la lineal.Los valores del estado de activación de una neurona están fijadosdentro de un intervalo de números reales.
  24. 24. •Función de activación sigmoidal: función continua dentro delintervalo del eje real y con valor de salida continuo entre (0,1).
  25. 25. • APRENDIZAJE•El proceso de aprendizaje viene determinado por la variación delos estados de activación y éstos van modificándose mediante lavariación de los pesos de las neuronas.• Durante el proceso de aprendizaje los cambios en los pesosprovocan creación, modificación o destrucción de conexionesentre neuronas. Se creará un conexión cuando el peso sea mayorque cero y se destruirá cuando sea cero.• El proceso de aprendizaje finaliza cuando los pesos de cadaconexión de cada neurona permanecen constantes sin variación.• Por tanto, una de las claves importantes en el aprendizaje es elcriterio elegido para la modificación de los pesos.
  26. 26. • Clasificación mecanismos aprendizaje:• Aprendizaje supervisado y no supervisado: El primero se basaen la existencia de un agente externo (supervisor) que controla elproceso de aprendizaje.• Aprendizaje online y offline: online si la red puede aprender deforma continua a medida que recibe nueva información. Lospesos se modifican constantemente de forma dinámica. No sedistingue fase entrenamiento y de operatividad. En la red offlinese distingue la fase entrenamiento de la red con su conjunto dedatos y la fase de operatividad que utilizará otro conjunto dedatos para realizar test o pruebas sobre el aprendizaje. En estecaso los pesos quedan fijados definitivamente en la fase deentrenamiento.
  27. 27. • Con carácter general la variación de los pesos se produce apartir del peso existente en un momento anterior.• Aprendizaje supervisado: el agente externo controla lasrespuestas que debe dar la RNA a partir de los datos de entradadados. Este tipo de entrenamiento puede realizarse de tres formasdiferentes.• El primero , aprendizaje por corrección de error, se basa en elajuste de los pesos en función de la diferencia entre los valoresobtenidos por la red y los que se deseaban obtener (error).• Aprendizaje por refuerzo: el supervisor indica a la RNA unaseñal de refuerzo +1 si la salida obtenida es satisfactoria o -1penalizándola en caso contrario.• Aprendizaje estocástico: cambios aleatorios en los pesos enfunción de una distribución determinada por el supervisor.
  28. 28. • Aprendizaje no supervisado: es autosupervisado. La red notiene referencia si las salidas que va generando son o nocorrectas. En este caso, la RNA trata de encontrar característicay correlaciones entre los datos de entrada. Se utilizan paradeterminar categorías (clustering) o mapeo de características(features mapping).• Existen dos tipos de aprendizaje autosupervisado:• Aprendizaje Hebbiano: el ajuste de las neuronas viene dado porla correlación entre los valores de activación (salidas) de las dosneuronas conectadas.• Aprendizaje competitivo y cooperativo: cuando las neuronascompiten tendrán conexiones recurrentes de activación y tendránconexiones de inhibición si son próximas. Cuando sean neuronascooperativas las conexiones serán sólo de activación.
  29. 29. • La red neuronal Backpropagation propuesta por Rumelhart,Hinton y Williams en 1986.• Utiliza el aprendizaje supervisado (por un agente externo) y sebasa en la regla delta generalizada (basado en la regla delta deWidrow en 1960) o propagación del error hacia atrás.• El algoritmo funciona en dos fases. En la primera, lainformación fluye por las neuronas por la capa de entradagenerando una asociación entre los inputs-outputs. En la segundafase, la información fluye por las neuronas por el resto de capascomparando la salida de cada neurona con la que se deseaobtener, calculando el error cometido. Posteriormente estoserrores se transmiten hacia atrás (capas anteriores) desde lasneuronas de la capa de salida de la red. Así se reajustan los pesosde cada neurona y se vuelve a presentar la informaciónreduciéndose el error.
  30. 30. • Aprendizaje de la delta generalizada:• variación del peso entre neurona i y j cuando seactiva• : es el factor de aprendizaje (0,1) velocidad de aprendizaje.• : salida neurona i bajo el patrón de aprendizaje p.• : delta. Diferencia entre la salida deseada y la obtenida. Parael caso de la red BP, la delta se define además en función de laentrada neta que recibe la neurona j.• Cuando la neurona no esté en la capa de salida el errorcometido será función de los errores cometidos por las neuronasque reciban como entradas a ésta (propagación del error haciaatrás).El parámetro k representa todas las neuronas conectadas a lasalida de la neurona j.
  31. 31. • Esto implica que error de aprendizaje de una neurona será lasuma ponderada por los pesos de los errores de las neuronas queestán conectadas a la salida de ésta.• El parámetro la velocidad de aprendizaje. A mayor tasamayores son los incrementos de los pesos para cada iteración ymás rápido es el aprendizaje. Esto puede provocar oscilaciones yempeorar los resultados.• Rumelhart, Hinton y Williams (1986) proponen incoporar unparámetro (momento o beta) en la variación de los pesos de lasneuronas.• siendo el momento una constante . Determina el efecto en t+1del cambio de pesos en t. Se consigue mayor convergencia conmenos iteraciones.
  32. 32. • Estructura red BP• Este tipo de red presenta una capa de entrada con n neuronas yuna capa de salida con m neuronas. Además requiere de, almenos, una capa intermedia(oculta).• Las conexiones son hacia adelante (feedforward).
  33. 33. • Múltiples estudios sobre la volatilidad y su comparativa conRedes neuronales . Engle (1982 y 1987), French y Schwert(1987), Bollerslev (1986), Peiró (1992), Aragó &Izquierdo(2004).• Modelización de la volatilidad mediante modeloseconométricos de la familia ARCH/GARCH. Los másextendidos son el GARCH y el EGARCH.• GARCH es adecuado si se espera una prima de riesgo talque el rendimiento esperado será mayor cuando aumente lavolatilidad.• EGARCH es apto para asimetrías en la distribución de lavolatilidad.
  34. 34. • Ejemplo de estudio: cierres diarios Ibex-35 03/01/2000-14/07/2010 (2658 observaciones)• Se estudió y estimó tanto las rentabilidades diarias como la volatilidad diaria del índice mediante modeloARMA(1,1)-GARCH(4,2)-M, incluyendo el volumen con unretardo. ( 4 residuos, 2 ret. Varianza)• Inputs de la red: rentabilidad índice con un retardo, con estola red ya aprende las relaciones entre rt y rt(-1). (en el modeloARMA(1,1), dos retardos de la varianza y el volumenretardado un periodo.
  35. 35. • Se entrenó la red neuronal Backpropagation con 2 capasocultas, 256 neuronas.• El ratio de aprendizaje se estableció para las capasocultas un rango (0,1;0,4). Para la capa de salida (0,1;0,2).• Para el momentum, las capas ocultas (0,1;0,3) y para la desalida (0,1;0,2).• Para medir la eficiencia y poder comparar entre los dosmodelos se calcularon 5 tipos de error de predicciónMAPE (Mean Absolute Percentage Error), MAE (MeanAbsolute Error), MSE (Mean Squared Error), MPE (MeanPercentage Error) y RMSE (Root Mean Squared Error)
  36. 36. • Cuadro resumen resultados para la rentabilidad RED NEURONAL RED NEURONAL RED NEURONAL CRIT. MEAN CRIT. ROOT MEAN ARMA(1,1)-GARCH- CRIT. AVERAGE SQUARED ERROR SQUARED ERROR M(4,2) ABSOLUTE ERROR MAPE 1,098356625 1,142042409 1,071136 1,148959 MAE 0,010810 0,010792093 0,010802 0,010844 MSE 0,000238249 0,000237482 0,000236805 0,000237048 MPE -0,971461761 -0,99147652 -0,99804707 -1,024735411 RMSE 0,015435317 0,015410446 0,015388459 0,015396354 • las RNA obtienen similares resultados • No hay mejora sustancial. • El tiempo de entrenamiento de las redes escaso (25-40 segundos)
  37. 37. • Cuadro resumen resultados para la volatilidad RED NEURONAL RED NEURONAL RED NEURONAL CRIT. AVERAGE CRIT. MEAN CRIT. ROOT MEAN ARMA(1,1)-GARCH-M(4,2) ABSOLUTE ERROR SQUARED ERROR SQUARED ERRORMAPE 2,046341064 0,188839984 0,148348765 0,175423745MAE 0,000234 0,0000379 0,000037 0,000038MSE 0,000000104 0,000000006 0,0000000196 0,0000000121MPE 1,890341047 0,104597277 -0,006030978 0,089807449RMSE 0,000323262 0,0000800898 0,000140036 0,000110112•En este caso sí existen algunas pequeñas diferencias para los3 criterios de selección para la red BP a favor del primercriterio (red con mayor entrenamiento).• Son claras las ventajas de cualquiera de las 3 RNA respecto almodelo econométrico.
  38. 38. ESTRATEGIA I : Se realiza una predicción de la apertura ycierre de la sesión siguiente. El precio de cierre estimado seajusta teniendo en cuenta el error que comete la red en laestimación de la apertura.Operativa: si este “precio de cierre estimado ycorregido” (Cec) > Apertura Venta a la apertura. Cierre deposición a Cec o precio de cierre.Si Apertura<Cec entonces compramos a la apertura ycerramos posición a Cec o al precio de cierre.ESTRATEGIA II : El ajuste se realiza teniendo en cuenta elerror que comete esta red en la predicción del cierre, centro yradio en la sesión anterior y el error en la predicción de laapertura de la sesión actual. Sumamos estos cuatro errores depredicción y dividimos entre cuatro, obteniendo así un “errormedio”, que es el que aplicaremos al precio de cierre estimadopor la red. La operativa es idéntica a la estrategia I
  39. 39. 02/05/2012 6822 8 6802 28 TOTAL MES03/05/2012 6694 53 6621.5 7404/05/2012 6669 2 6653.25 13.75 I II07/05/2012 6407 3 6432.25 28.25 may-12 48.5 31908/05/2012 6548 25.5 6580.75 7.2509/05/2012 6549 -1 6376.25 1 jun-12 -206 -335.7510/05/2012NO OPERA NO OPERA11/05/2012 6442 -67.5 6439.25 -67.5 jul-12 376 369.7514/05/2012 6536 -80.5 6565.5 -80.5 ago-12 446 386.7515/05/2012 6530 -89 6473.25 10.2516/05/2012 6361 34 6443.25 116.25 sep-12 181.5 336.7517/05/2012 6454 -139.5 6374.75 25.7518/05/2012 6294 69 6372.75 2 oct-12 285.5 147.7521/05/2012NO OPERA NO OPERA nov-12 -8.5 258.7522/05/2012 6406 31.5 6377.25 2.7523/05/2012NO OPERA NO OPERA TOTAL 1123 148324/05/2012 6346 4 6364.5 -52.525/05/2012 6259 55 6235 5528/05/2012 6418 18 6373.75 26.2529/05/201230/05/2012 6342 6267 30.5 112 6344.25 6258.75 28.25 120.25 127 Operaciones31/05/2012 6339 -19.5 6365.25 -19.501/06/2012 6315 -216 6346.25 -21604/06/2012 5997 17 5854.75 -1305/06/2012 6082 -13.5 6206.5 -13.506/06/2012 6018 10.5 5901 -10607/06/2012 6163 17 6024 1008/06/2012 6103 8.5 6163 68.5
  40. 40. • Definición de los datos de entrada (Selección de variables ratios, indicadores,…)• Definición de la topología de la red (estructura de la red, número neuronas, capas ,conexiones,..)• Definición de la función de activación(función sigmoidal y lineal principalmente. Función escalón sihay variables binarias)• Definición del criterio de aprendizaje (pesos, mecanismo de paro de aprendizaje EMA,…)• Definición de los datos de salida
  41. 41. NeuroShell Trader www.neuroshell.comNeuroSolutions www.nd.comwww.alyuda.comwww.wave59.comwww.biocompsystems.com/www.nnea.netwww.optimaltrader.netCortex.snoweron.com/forex_nn.htmwww.ozgrid.com/Services/neural-network-software.htmStuttgart Neural Network Simulatorwww.ra.cs.uni-tuebingen.de/SNNS/R-project
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×