Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Econofísica bartolo luque - curso introduccion sistemas complejos

Desde hace un par de décadas aparecen con regularidad artículos sobre finanzas y economía en revistas de física teórica. Al corpus científico que se está generando se le ha denominado Econofísica (Econophysics). Al igual que la biofísica o la geofísica estudian procesos propios
de la biología y la geología desde la perspectiva de la física, la econofísica trata de aplicar los métodos propios de esta ciencia a la teoría económica. En esta breve introducción veremos cómo los físicos con sus nuevos enfoques y técnicas están obteniendo resultados inesperados que, en muchos casos, no son acordes con las teorías financieras y económicas al uso.

  • Be the first to comment

  • Be the first to like this

Econofísica bartolo luque - curso introduccion sistemas complejos

  1. 1. ¿Qué es la Econofísica? En las últimas décadas aparecen con regularidad artículos sobre finanzas y economía en revistas de física teórica. Al corpus científico que se está generando se le ha denominado Econofísica (Econophysics). Los físicos con sus nuevos enfoques y técnicas están obteniendo resultados que, en muchos casos, no están acorde con las teorías financieras y económicas al uso.
  2. 2. Physics and Finance: a very short history  R. Brown (1827) -> Introduction of the concept of Brownian motion.  L. Bachelier (1900) -> The concept of Brownian walk is applied to the Paris Bourse.  A. Einstein (1905), P. Langevin (1908), N. Wiener (1923), K. Ito (1944) -> Development of stochastic calculus.  B.B. Mandelbrot (1963) -> Levy or other “fat-tailed” distributions seems to closer to empirical data that Gaussian distributions. The ’80s -> The availability of electronic data start increasing exponentially thanks to new technologies. 1997 -> “…the financial industry employs about the 48% of the new Ph.D. in mathematics and physics…”, Nature, Vol. 393, 496 (1998). 1997 -> M. Scholes and R. Merton win the Nobel prize for the Black&Scholes – Merton model for Option pricing (F. Black has passed away in the meantime).  1990 – Today -> Econophysics articles are published on different prestigious journals such as Nature, Physical Review Letters, Physical Review E, Physica A, European Physical Journal B etc…  1999 -> The European Physical Society recognizes Econophysics as a new area of research.
  3. 3. Textbooks in Econophysics J.P. Bouchaud and M. Potters – Theory of Financial Risk and Derivative Pricing: from Statistical Physics to Risk Management, Cambridge University Press (2003) R.N. Mantegna and H.E. Stanley – An Introduction to Econophysics: Correlations and Complexity in Finance, Cambridge University Press (2000) J. Voit – The Statistical Mechanics of Financial Markets, Springer (2005)
  4. 4. Los físicos se han acercado a la economía por dos vías: (1) (2) En finanzas, por ejemplo, se ha asumido que las fluctuaciones de precios siguen una distribución normal y que los mercados funcionan de forma eficiente. A partir de ahí se ha desarrollado una extensa teoría. ¿Cómo está contribuyendo la física a la economía? Los econofísicos están mostrando fehacientemente que muchas observaciones están en desacuerdo con estas hipótesis de trabajo. Por ejemplo, a corto término las fluctuaciones son no normales, el incremento de precios está correlacionado: los signos del incremento de precios están descorrelacionados en acuerdo con la hipótesis de mercado eficiente, sin embargo, la magnitud de las fluctuaciones de precios muestran correlaciones temporales de largo alcance.
  5. 5. Una de las tesis fundamentales en la que se ha basado el estudio técnico de la Economía en los últimos cien años es la llamada HME (Hipótesis de Mercado Eficiente), siendo a la vez la suposición más adoptada y menos creída. Asume, básicamente, que toda la información susceptible de ser conocida por el sistema (por ejemplo, los datos referentes a la Bolsa), está en cada paso de tiempo incorporada a los precios. Exige que el sistema, (recordemos que nuestro sistema es un enorme conjunto de individuos comprando y vendiendo acciones) sea una computadora perfecta, que integra en cada paso de tiempo toda la información relevante. Hipótesis de Mercado Eficiente
  6. 6. ¿Son o no aleatorios los precios de los mercados? Es decir, en otras palabras mucho más directas y jugosas: ¿existe forma segura de ganar en Bolsa? Las acciones se sobrevaluan los primeros días de Enero, suelen caer con frecuencia las primeras horas de los lunes... Son hechos empíricos, bien conocidos, en contra de la aleatoriedad. ¿Podemos predecir más y con rigor? La HME asigna como probabilidad a un crash como el de Octubre de 1987, una entre 1035 posibilidades: es decir, para la teoría clásica, semejante ocurrencia es imposible. Más aún, una pérdida en un día del 5% en el Dow Jones (hecho que sucede alrededor de cada dos años), debería tener una frecuencia de una cada miles de años, según HME. Caos débil Criticalidad Auto-organizada
  7. 7. ¿Es predecible o no la Bolsa? Al hilo de lo expuesto, los econofísicos A. Johansen y D. Sornette, conectaron la fenomenología dispar de los crashes bursátiles y la teoría de predicción de terremotos. Según muchos físicos los terremotos son un ejmplo de fenómeno crítico auto-organizado. Johansen y Sornette utilizaron las herramientas matemáticas que habían utilizado previamente a la predicción de terremotos, para explicar el comportamiento de los índices financieros antes de los crashes. Como resultado tienen en su haber una sorprendente predicción de la fecha en la que ocurrió el crash del NASDAQ del 14 de Abril del 2000.
  8. 8. Regularidades estadísticas empíricas en precios y vuelos de Levy truncados Una de las propiedades básicas del mercado es la fluctuación de precios. Existe un encendido debate sobre la forma funcional de la distribución de precios. Inicialmente se pensaba que la distribución acumulada de log- returns convergía a una distribución normal para intervalos temporales grandes. Sin embargo, las medidas reales muestran claramente la existencia de fat tails en las distribuciones (probabilidades para valores extremos mayores que las esperadas para una normal). The return over a single period is: = Final value, including dividends and interest. = Initial value. The logarithmic return:
  9. 9. Distribución empírica y teórica de las variaciones de precios del IPC durante todo el año 1999 en escala semilogarítmica (1.103.483 de registros). Distribución empírica (líneas y círculos) y teórica (líneas) de las diferencias de precio en el índice IPC durante en año 1999 en escala semilogaritmica. Si las variaciones de precios siguieran una caminata aleatoria, la curva teórica, que corresponde a una distribución gaussiana, y la empírica debían coincidir. Nótese que las colas de la distribución empírica son mucho más gruesas que las de la distribución teórica clásica. (Cortesía de Ricardo Mansilla, UNAM). El Índice de Precios y Cotizaciones (IPC) es el principal índice bursátil de la Bolsa Mexicana de Valores, aglutina las 35 empresas con mayor liquidez en este mercado
  10. 10. Si admitimos que las diferencias de precios siguen una ley normal entonces: De modo que en escala semilogarítmica deberíamos ver la gaussiana como una parábola. Como puede observarse en la imagen la diferencia entre esa “parábola gaussiana” que asume la teoría clásica y los datos de mercados no ajustan en absoluto.
  11. 11. Desde luego estas diferencias eran conocidas desde hace mucho tiempo. En los años 60, B. Mandelbrot y E. Fama sugirieron que la distribución ajustaba a una distribución estable de Levy como generalización del teorema del límite central. Pero posteriormente se encontraron más complicaciones. Si bien la distribución se acerca a una normal para intervalos grandes, el valor absoluto de los log-returns (tomado a veces como definición de volatilidad) decae como una ley de potencias para valores altos. Y esto es incompatible con una distribución de Levy. Hubo que esperar hasta 1994, para que dos econofísicos, R. Mantenga y E. Stanley, dieran con el marco adecuado para describir esta fenomenología. Usando “vuelos de Levy truncados” (VLT) describieron con éxito notable el comportamiento pseudo-gaussiano de la distribución de precios. Este trabajo, y posteriores, permiten estimar cuantitativamente la probabilidad de que una determinada diferencia de precios (o la fluctuación de un precio), ocurra de forma más exacta que la teoría clásica. R.N. Mantegna and H.E. Stanley – An Introduction to Econophysics: Correlations and Complexity in Finance, Cambridge University Press (2000)
  12. 12. Scaling laws in economics: Zipf-Plot •Rank N events X1,…,XN according to size: X1≥ X2≥ ....≥ XN Xr =X1 r − 1/ α •Plotting Xr versus rank r, one finds that for large N •For the size distribution of citiesα≈ 1
  13. 13. Distribution of incomes: Pareto/Zipf Chatterjee et al., 2007 Los econofísicos han descubierto que, por ejemplo, las fluctuaciones de las tasas de crecimiento de los tamaños de compañías decaen siguiendo leyes de potencias. Y han observado leyes semejantes en la distribución de salarios, el número de empleos, etc. En concreto la distribución del PIB por países sigue una la ley de potencias, un resultado inexplicable a partir de las teorías económicas estándar, que encaja perfectamente en las explicaciones alternativas que ofrece la econofísica.
  14. 14. Self-Similarity in Time Schematic representations of self-similar structures and self-similar fluctuations. The tree-like, spatial fractal (Left) has self-similar branching, such that the small-scale structure resembles the large-scale form. A fractal temporal process, such as healthy heart rate regulation (Right), may generate fluctuations on different time scales that are statistically self- similar. (From: Fractal dynamics in physiology: Alterations with disease and aging. Ary L. Goldberger, Luis A. N. Amaral, Jeffrey M. Hausdorff, Plamen Ch. Ivanov, C.-K. Peng, and H. Eugene Stanley)
  15. 15. •En 1905 Einstein explica este fenómeno (mecánica estadística). •Louis Bachelier en 1900 formula su modelo del Movimiento Browniano para estudiar el comportamiento de precios de los activos financieros Movimiento Browniano •Descubierto en 1827 por Robert Brown •Comportamiento aleatorio de precios y fluctuaciones de precios en el tiempo a) b) El Movimiento Browniano supone que: • El precio evoluciona como un proceso aleatorio de Markov y su distribución se ajusta a una distribución normal.
  16. 16. 2 STB ∝∆ Hurst Exponent       = a t BatB 2/1 )( Self-Similarity in Brownian motion (Self-Affine) Nonstationary in fractal time series means that the moments do not exist. (The moments do not reach finite limiting values.)
  17. 17. Incrementando el tiempo de observación en un factor k la amplitud de las fluctuaciones será, en promedio, un factor k α más grande. Si α = 1 hablamos de auto-similaridad. Si es diferente de 1 hablamos de auto-afinidad. Autosimilaridad y autoafinidad de una serie temporal
  18. 18. Fractional Brownian motion (fBm) 10 )( <<       = H a t BatB H Hurst Exponent d = 2 – HDimensión fractal d:
  19. 19. Enconomía Fractal Los mercados Financieros vistos como series temporales. Exponente de Hurst (H): Varía entre 0 y 1 Si H = 0,5 del exponente indica que la serie de tiempo es aleatoria. La predicción es imposible. No puedo decidir que hacer con mis acciones. Si 0 < H < 0,5 existe una correlación inversa (antipersistencia). Si la tendencia de la serie era decreciente, en intervalos posteriores será creciente (compro), y por el contrario, si su tendencia era creciente, en el futuro será decreciente (vendo). Si 0,5 < H < 1 existe una correlación directa (persistencia). Hay “memoria” o “correlaciones de larga distancia”. Ocurre por ejemplo con el tiempo. Si llueve hoy, es más probable que mañana también llueva. El sistema “persiste” en su comportamiento. Si en un intervalo de tiempo la serie es creciente, lo seguirá siendo en el futuro (compro), y viceversa (vendo).
  20. 20. Análisis Fractal de índices bursátiles Análisis del índice de valores de las acciones de la empresa Google (NASDAQ) Período: Desde el primer día de cotización hasta Setiembre de 2008 donde se produce el crash financiero. El índice tiene un piso de 100 U$S y llegó a cotizar 780 U$S. H= 0,58 El movimiento de precios tuvo una dinámica cercana a la aleatoriedad. Análisis del índice de valores de las acciones de la Bolsa de Comercio de Buenos Aires, MERVAL, del día 22 de Octubre de 2008. Las acciones han sufrido una caída del 10%. H=0,75 Dinámica alejada de la aleatoriedad, mucha correlación en la compra y venta de acciones a lo largo del día.
  21. 21. Estimation of H is not straightforward in finite series (open problem) Many Methods: Detrended Fluctuation Analysis, Wavelets, R/S,... H
  22. 22. Visibility algorithm Each data represents a node. Two nodes are connected if the corresponding data are 'visible' between each other... How can we extract a network from a time series? Lacasa, Luque, Ballesteros, Luque & Nuño, PNAS 105, 13 (2008)
  23. 23. DOES THE VISIBILITY GRAPH INHERIT THE SERIES STRUCTURE? PERIODIC SERIES  MOTIF-like GRAPHS (PATTERNS) Period 4Period 2
  24. 24. Random series of 1 million data from a uniform distribution U(x) with x ∈ [0, 1]. Degree distribution of the associated visibility graph: exponential distribution RANDOM SERIES  exponential GRAPHS Interpretation: hubs are extreme events of a Poisson process, exponentially distributed
  25. 25. FRACTAL SERIES  Stochastic fractals: Brownian motion Interpretation: hubs are extreme events of a self-similar process: returns are distributed following a power law. SCALE-FREE NETWORKS
  26. 26. VISIBILITY ALGORITHM FRACTAL SERIES SCALE-FREE VISIBILITY GRAPHS SERIES HURST EXPONENT H ENCODED IN THE GRAPH’S DEGREE DISTRIBUTION EXPONENT γ = 3 - 2Hγ
  27. 27. Books and papers Fractals and Chaos. Larry S. Liebovitch. Fractals, Chaos, Power Laws. Manfred Schroeder Chaos and Fractals. Heinz-Otto Peitgen, Hartmut Jürgens, and Dietmar Saupe. From time series to complex networks:The visibility graph. pdf Proceedings of the National Academy of Sciencies, 105, no. 13 (2008) 4972- 4975. Lucas Lacasa, Bartolo Luque, Fernando J. Ballesteros, Jordi Luque, and Juan Carlos Nuño. The visibility graph: A new method for estimating the Hurst exponent of fractional Brownian motion. pdf EPL, 86 (2009) 30001. Lucas Lacasa, Bartolo Luque, Jordi Luque and Juan Carlos Nuño. Horizontal visibility graphs: Exact results for random time series. pdf Physical Review E 80, 046103 (2009) 046103-1-11. Bartolo Luque, Lucas Lacasa, Fernando J. Ballesteros, and Jordi Luque. E-mail: bartolome.luque@upm.es
  28. 28. Why Is This Interesting? An EQUILIBRIUM price is set through the ASYNCHRONOUS interaction between producers and consumers who are RATIONAL and PERFECTLY INFORMED William Brian Arthur conceived the ’El Farol Bar’ Problem in his 1994 paper on Inductive Reasoning and Bounded Rationality. Frustrated by the premise of perfect rationality in modern economics, which states that agents are equipped with rational minds, know everything and understand it with implicitly infinite capacity for information, he posed a problem where the rationality of the agents was bounded.
  29. 29. El gran economista J. M. Keynes comparó la actuación de los agentes en los mercados con los participantes de un concurso que intentan adivinar a la mujer que será elegida como la más bella. La elegida finalmente no tiene por qué ser precisamente la más hermosa, sino aquella que la mayoría piensa que los demás van a elegir como la más hermosa.
  30. 30. El Farol es el nombre de un concurrido bar en Santa Fe, Nuevo Mexico. Allí todos los jueves por la noche se toca música irlandesa. Los aficionados a este tipo de música deben tomar cada semana la decisión de asistir o no a escuchar su música preferida. Lamentablemente el bar es pequeño y si los asistentes superan las sesenta personas, el ambiente se hace agobiante. Cada uno de los clientes debe tratar de inferir qué debe hacer esta semana, asistir o no, en función de sus experiencias anteriores. ¿Qué estrategia deben seguir los clientes? El Farol Problem
  31. 31. El problema tal y como lo planteó Brian Arthur es el siguiente: «N personas deciden independientemente cada semana si ir o no a un bar que ofrece animación una determinada noche. Para concretar, pongamos N = 100. El espacio es limitado y la noche es agradable si no hay demasiada gente —específicamente, si menos del 60% de los 100 posibles están presentes—. No hay manera de saber por adelantado el número de personas que van a venir, por lo tanto una persona o agente: va si espera que menos de 60 vayan, o se queda en casa si espera que vayan más de 60. Las decisiones no se ven afectadas por visitas anteriores; y la única información disponible son los datos de los que vinieron las semanas pasadas».
  32. 32. Brian Arthur elaboró un modelo computacional que simulaba la situación: los clientes o agentes debían decidir o no asistir al bar, a partir de un conocimiento limitado, una memoria de las asistencias anteriores y de unas estrategias de decisión. Si un cliente predecía que más de sesenta personas visitarían el bar, evitaría ir. Si predecía que la asistencia sería menor de sesenta personas, entonces decidiría asistir. Observemos que la decisión de asistir o no al bar es de carácter individual y la consecuencia de la asistencia de todos los clientes es de carácter colectivo. Eso puede generar situaciones paradójicas: si muchos clientes predicen “correctamente” que el bar estará poco concurrido ese jueves, entonces su decisión “acertada” los hace fracasar, porque asistirán más de 60. De manera similar, si la mayoría de clientes predicen de manera “acertada” que el bar estará lleno y deciden quedarse en casa, entonces habrán tomado una decisión “equivocada”. Bar attendance in the first 100 weeks. W. B. Arthur, Inductive reasoning and bounded rationality (The El Farol Problem), Amer. Econ. Review (Papers and Proceedings), 84, 406 (1994).
  33. 33. Why is this interesting? There is no long-term EQUILIBRIUM; the future state of the ‘system’ depends on its current state (PATH DEPENDENCE); individual behaviour is based on imperfectly informed expectations about the behaviour of other agents (INTERDEPENDENCE) The beauty of the model is that even with bounded rationality, no coordination among the agents, the bar attendance evolves to the optimal value, as is seen on figure. While almost any set of strategies will allow the equilibrium to be reached, fluctuations require more elaborate modelling. While one may think that the seemingly random fluctuations around the equilibrium are of no importance, they in fact hide such important information as whether markets are efficient or not.
  34. 34. Dialéctica entre el individuo y el colectivo Los econofísicos son capaces de modelizar sistemas con muchos componentes. En contraposición con las teorías neoclásicas de equilibrio, tan caras al razonamiento neoliberal, la econofísica propone una descripción del comportamiento adaptativo de los agentes económicos frente a situaciones cambiantes.
  35. 35. Juegos de minoría Para explicar el comportamiento de los precios necesitamos entender el comportamiento de los agentes de los que depende. Está claro, que los agentes económicos no se comportan de forma totalmente racional y que, sin duda, esto juega un papel crucial en los precios. Pero, ¿cómo podemos ir más allá de esta afirmación? El Farol fue el punto de partida de toda una serie de modelos de agentes. Entre ellos los más conocidos son los llamados “juegos de minoría” (Minority Games), propuestos inicialmente en 1997 por Damián Challet y Yi-Cheng Zhang. Básicamente un juego de minoría es un modelo donde un grupo de agentes toma decisiones sucesivas teniendo en cuenta los éxitos y fracasos de sus decisiones pasadas.
  36. 36. Para ser más precisos, consideremos un número impar N de agentes que toman decisiones sucesivamente dentro de un conjunto de dos posibles, que llamaremos 0 ó 1; comprar o vender; ir o no ir al bar, etc. Como en el juego de los chinos, estas decisiones se toman de manera simultánea por cada uno de los agentes participantes. Una vez que todos han hecho pública su decisión, ganarán aquellos que estén en el grupo de la minoría (de ahí el nombre del modelo). Se llama decisión ganadora en una iteración o repetición del juego a aquella que tomaron los agentes que quedaron en la minoría. Por ejemplo, supongamos N = 11, y que en una de las iteraciones 9 de ellos deciden comprar y 2 vender. Ganan entonces los vendedores.
  37. 37. Si muchos agentes quieren comprar y muy pocos quieren vender, entonces los precios subirán como consecuencia de la diferencia entre oferta y demanda, favoreciendo a los que están en la minoría, que son los vendedores. Y viceversa. La única información pública de que disponen los agentes en estos modelos es la lista de las decisiones ganadoras en los instantes de tiempo anteriores. Como solo son posibles dos acciones entonces el histórico del sistema es simplemente una cadena de ceros y unos tan larga como iteraciones del sistema se haya producido. Supongamos que los tres últimos dígitos del histórico fueron: 0, 1, 0. De izquierda a derecha representan la sucesión de las decisiones ganadoras en las tres últimas jugadas. Para ser más precisos, hace tres iteraciones quedaron en minoría los que eligieron 0, hace dos los que eligieron 1 y en la última jugada los que eligieron 0.
  38. 38. ¿Cómo usan los agentes la información que provee esta cadena binaria de decisiones exitosas anteriores? En primer lugar, como tienen racionalidad limitada, memoria no infinita, sólo recuerdan los últimos valores de la serie binaria, digamos, los últimos tres valores, como en nuestro ejemplo. A partir de esos valores anteriores deben los agentes inducir cuál es su actuación correcta en la próxima ronda del juego. Para ello hacen uso de estrategias. Una estrategia es un procedimiento que reconoce la situación actual y sugiere, a partir de esta, una actuación. En particular, si la memoria de nuestros agentes es de tres pasos de tiempo, debe ser capaza de decidir para 23 = 8 posibles historias. Así, una estrategia puede representarse por la siguiente tabla: 0 1 1 1 0 1 0 0 0 0 0 0 1 1 1 1 0 0 1 1 0 0 1 1 0 1 0 1 0 1 0 1 (1) (2) (3) (4) (5) (6) (7) (8) Que nos dice por ejemplo, que si las últimas tres decisiones ganadoras hubieran sido 0 0 1, la columna señalada como histórico (2), entonces esta estrategia le aconsejaría al agente elegir 1 en la próxima ronda del juego (el dígito con fondo amarillo).
  39. 39. ¿Cómo juegan los agentes en este universo-mercado simulado en el ordenador? Dada una historia, un conjunto de ceros y unos, cada uno de los agentes toma una decisión a partir de una de sus estrategias. Se decide cuál es el grupo que quedó en la minoría, los que están en 0 o los que escogieron 1. Con el símbolo correspondiente a la decisión se actualiza el histórico, poniendo como dígito binario más reciente la última decisión ganadora y eliminando el más antiguo. Y se vuelve a comenzar. Lo que obtenemos es una sucesión de ceros y unos, el resultado colectivo de decisiones individuales, del que los econofísicos extraen conclusiones muy interesantes. Por ejemplo, es sorprendente que, a pesar de la sencillez de estos modelos, exhiben una transición entre eficiencia (predicción imposible del mercado) e ineficiencia en función de la capacidad estratégica (memoria) de los agentes. Nota: Facilita los cálculos tomar -1 y 1, en vez de 0 y 1. N: the population size M: memory of the agents S: the number of strategies that each agent is allowed to hold.
  40. 40. Time evolution of attendance A(t) for the basic Minority Game with a linear payoff scheme. Parameters N = 301 and S = 2. Panels correspond to M = 2, 7, 15 from top to bottom. The collective sum of actions from all agents at time step t is defined as attendance A(t) (Observemos que el valor medio de A(t) es cero).
  41. 41. Simulation results of volatility σ2/N as a function of the control parameter α for games with S = 2 strategies for each agent averaged over 100 samples. A linear payoff scheme has been used. The solid line shows the critical value of α = αc 0.3374. Control parameter:
  42. 42. Simulation of σ2/N against a for games with S = 2, 3, 4 strategies for each agent averaged over 100 samples with a linear payoff scheme. Volatility increases with the number of strategies S per agent.
  43. 43. [6] C. H. Yeung, Y.-C. Zhang, Minority games, arXiv:0811.1479v2 [physics.soc-ph] (2008).
  44. 44. 45
  45. 45. La sobresimplificación extrema de este modelo y sus variantes los aleja mucho de la realidad. Es el precio a pagar por resolverlos y entender en profundidad su funcionamiento. Semejante estrategia de abordaje en sistemas complejos y mecánica estadística ha sido enormemente fructífera bajo técnicas de renormalización e hipótesis de universalidad, y los econofísicos esperan que reporte resultados semejantes en economía. Minority Game fue uno de los primeros pasos firmes para abordar situaciones más realistas donde las decisiones de los agentes afectan a los precios y los precios a las decisiones. A priori estos modelos pueden parecer juegos de salón, pero lo cierto es que son los primeros intentos de introducir comportamientos individuales en la teoría económica, que en muchos casos no son racionales y tan solo disponen de una información incompleta. Estos modelos han sido capaces ya de aportar las primeras explicaciones con marco matemático de fenómenos colectivos bien conocidos en la Bolsa como son el efecto manada o el pánico generalizado; fenómenos inabordables con las herramientas clásicas. Para saber más: *La dirección web http://www.unifr.ch/econophysics/ es un foro de discusión, opinión y artículos que intenta aglomerar a la comunidad econofísica. *Ricardo Mansilla, Introducción a la Econofísica, editorial Equipo Sirius, 2003.

×