• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Mc anal. riesgos en eval. de proyectos simulacion mc [1]
 

Mc anal. riesgos en eval. de proyectos simulacion mc [1]

on

  • 380 views

 

Statistics

Views

Total Views
380
Views on SlideShare
380
Embed Views
0

Actions

Likes
0
Downloads
8
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment
  • Si las probabilidades son subjetivas, entonces deben ser estimadas en última instancia preguntándoselas a alguien. En general la gente tiene dificultades para hacer juicios sobre probabilidades que se ajusten a la realidad. Sin embargo, en la práctica los datos históricos muchas veces son poco relevantes y es necesario recurrir a juicios para obtener probabilidades. El hecho que diferentes individuos asignan probabilidades muy diferentes a una misma expresión demuestra el peligro de usar palabras para comunicar la incertidumbre. Las probabilidades en cambio no son ambiguas. Usar un valor puntual para representar un evento incerto mezcla juicios acerca de incertidumbres con evaluaciones acerca de lo deseable de distintos resultados. Además, dar un valor único no provee información acerca de cuánta variabilidad es posible.
  • Muchas de estas respuestas al riesgo generan a su vez riesgos secundarios. Se aumenta el compromiso cuando el análisis muestra que se está siendo excesivamente cauteloso. Se busca más información cuando se quiere reducir la incertidumbre. Precauciones adicionales pueden ser medidas tales como un enfoque menos riesgoso o sobredimensionamiento. Se comparten los riesgos con quienes puedan manejar un posible impacto adverso. Los planes de contingencia debieran desarrollarse para manejar riesgos que se identifican pero no se eliminan, de modo de poder reaccionar en forma efectiva en caso que se presente la adversidad. No se hace nada cuando costaría demasiado hacer algo, o no hay nada que pueda razonablemente hacerse, se asume el riesgo.
  • El análisis de escenarios tiene las siguientes limitaciones: Las combinaciones crecen exponencialmente cuantas más variables aleatorias haya en juego. Definir la aleatoreidad de cada variable como valores con probabilidades discretas ignora la posibilidad que las variables sean de tipo continuo. No tiene en cuenta que los valores más probables tienen una probabilidad de ocurrencia mucho mayor que los extremos. Montecarlo genera una serie de escenarios posibles, pero tiene en cuenta todos los valores que una variable puede tomar y pondera cada escenario por su probabilidad de ocurrencia.
  • No importa cuántas iteraciones muestreemos, nunca sabremos el valor exacto de los parámetros de la población, pero cuantas más iteraciones corramos mayor va a ser la probabilidad que nuestros estimadores de los parámetros de la población estén dentro de un rango aceptable de los valores verdaderos.
  • Según el TCL, la suma de n variables aleatorias independientes con idénticas distribuciones de probabilidad se distribuye según una distribución Normal cuando n es suficientemente grande. Si las variables provienen de una distribución Normal (mu,sigma) entonces la suma dará: Normal (n*mu, ((n) 1/2* *sigma) El n necesario para lograr la convergencia a una normal dependerá en parte de la forma de la distribución de las variables intervinientes: Si son Normales, basta con n=1 Si son simétricas aunque no necesariamente normales, n > 10 Si son asimétricas, n > 20 o 30 Si son altamente sesgadas (sesgo > 2) , n > 50. La mayor parte de los modelos son combinaciones de sumas y productos de variables aleatorias que tienen diferentes distribuciones de probabilidad. Por lo tanto, no debiera sorprender que los resultados de los modelos den distribuciones que estén entre Normal y Lognormal. Muchas distribuciones paramétricas pueden ser conceptualizadas como la suma de otras distribuciones idénticas. En general, si la media es mucho mayor que el desvío de estas distribuciones, se pueden aproximar mediante una Normal.
  • Si se fija el valor semilla, se puede replicar la misma secuencia de números aleatorios en simulaciones sucesivas. Esto puede ser útil cuando se quiere hacer un análisis de sensibilidad: es una manera de asegurar que los cambios en el resultado de cada simulación se deben a cambios en los parámetros de alguna variable y no a la aleatoreidad del muestreo.
  • F(x) toma valores entre 0 y 1
  • El valor t(alfa,n) en Excel se puede hallar como: t(alfa,n) = TINV( 2 * alfa, n)
  • En Excel: z alfa = NORMINV (1-alfa)
  • Se usan para representar propiedades que son infinitamente divisibles (tiempo, distancia, masa) o variables discretas en las que el intervalo entre valores factibles es irrelevante en la práctica.
  • Una forma práctica de verificar si se ha logrado un suficiente nivel de desagregación consiste en hacer un análisis de sensibilidad del modelo y mirar si el gráfico Tornado está dominado por uno o dos inputs.
  • Uniform (0,l/2) se puede usar para estimar la distribución de la distancia entre una filtración y una junta en una cañería. Uniform (0,360) puede usarse para estimar la distribución de una posición angular de descanso de un mecanismo giratorio
  • Media : (a+b+c)/3 Desvío: ((a 2 +b 2 +c 2 - ab - ac - bc) / 18) 1/2 Por TCL, cuando se suman una cantidad de variables aleatorias, son la media y el desvío de las distribuciones las que tienten el mayor impacto por ser las que determinan la media y el desvío del resultado. La distribución triangular, al dar el mismo peso en la determinación de la media y el desvío de la distribución a los tres parámetros, puede llevar a distorsiones cuando alguno de los valores extremos no está bien definido o toma valores muy altos.
  • BetaPert (a,b,c) = Beta (alfa1,alfa2) * (c-a) + a mu = (a + 4b + c) / 6 alfa1 = ((mu - a) * (2b-a-c)) / (b-u) * (c-a) alfa2 = alfa1 * (c-mu) / (mu-a)
  • La distribución Beta es una distribución limitada (valor mínimo igual a 0) que no se basa en supuestos teóricos acerca del proceso de generación de los valores de la variable aleatoria. Los resultados de las distribuciones Binomial, Geométrica y Binomial Negativa modelan variabilidad. La probabilidad p es un parámetro fundamental del sistema Bernouilli y nunca puede ser observada, pero podemos estar progresivamente más seguros acerca de su verdadero valor a medida que contamos con más información. La distribución Beta puede usarse para cuantificar la incertidumbre respecto a este parámetro del sistema.
  • La distribución Bernouilli es un caso especial de la distribución Binomial cuando n=1. La distribución Binomial se relaciona con la distribución Beta: Binomial estima el número de ocurrencias s en n pruebas cuando hay una probabilidad de éxito p en cada prueba, Beta estima el valor de p dados n y s.
  • La distribución geométrica es un caso especial de Binomial Negativa, donde s=1. La distribución geométrica está muy sesgada hacia la derecha. p(0) = p, indicando que la probabilidad que no haya fallas es igual a p, lo que es la probabilidad que el primer intento resulte un éxito.
  • Cuando s=1, la distribución binomial negativa se vuelve una geométrica. A medida que s aumenta y p no asume valores extremos, la Binomial Negativa se aproxima a una Normal
  • En un proceso Poisson hay una oportunidad continua y constante de que ocurra un evento. En cualquier intervalo de tiempo durante una tormenta hay alguna probabilidad que caiga un rayo. La unidad continua de exposición en este caso es el tiempo. Al igual que en un Proceso Binomial, el Proceso Poisson no tiene memoria. En un proceso Poisson, a diferencia de un Proceso Binomial, como hay un continuo de oportunidad para que ocurra un evento puede haber cualquier valor entre cero e infinito para el número de eventos que ocurran dentro de un período de exposición, y hay una probabilidad de que ocurra el evento sin importar cuán pequeño sea el intervalo de exposición considerado.
  • Al igual que p para un Proceso Discreto, lambda (1/beta) no es una variable sino un parámetro del sistema. Se usa una distribución de probabilidad para expresar nuestro grado de incertidumbre acerca de su valor. Cuando no se conocen los valores de los intervalos t i sino solamente el número de eventos n que ocurrieron en un intervalo total T , beta se estima como: beta = T/n
  • A medida que p tiende a 0, un Proceso Binomial se vuelve un Proceso Poisson. Cuando p es baja y n es suficientemente grande (np<1), la distribución Binomial (n,p) puede ser aproximada por una distribución Poisson (lambda*t) (lambda=p, t=n) Binomial (100,2%) = Poisson (0.02*100)
  • A medida que p tiende a 0, un proceso Binomial se convierte en un proceso Poisson. Con bajos valores de p, se necesita un n elevado para observar el evento. Exponencial (beta) modela el “tiempo” hasta observar el evento por primera vez, Gamma (alfa,beta) el “tiempo” hasta observar alfa eventos. Entonces, cuando p es baja Geomet (p) se puede aproximar con Expon (1/p) Negbin (s,p) se puede aproximar con Gamma (s, 1/p)
  • Por ejemplo, la distribución del tiempo hasta la ocurrencia de 4 inundaciones cuando el tiempo medio entre inundaciones es de 6 años es Gamma (4,6) Los parámetros de una distribución Gamma se pueden estimar a partir de información histórica: parámetro de forma alfa: mu 2 / sigma 2 parámetro de escala beta: sigma 2 / mu La distribución Erlang es la distribución Gamma cuando alfa toma valores discretos. Gamma se relaciona con la distribución Exponencial: Gamma ( 1,beta ) = Exponencial ( beta ) Las distribuciones Exponencial y Gamma son las únicas que asumen independencia entre tiempo transcurrido y tiempo hasta el próximo evento (proceso sin memoria).
  • La distribución se usa en estudios de confiabilidad y control de calidad. Los datos a partir de los cuales se ajusta una distribución Weibull se obtienen de pruebas de fatiga y durabilidad.
  • El sesgo de una distribución Normal es igual a 0. Un valor de sesgo >0 indica una distribución volcada hacia la izquierda (modo < media). Un valor de sesgo media). Hay otras distribuciones que convergen a una Normal a medida que sus CV se acercan a 0: Lognormal, t de Student, Binomial, Poisson, Chi cuadrado, Binomial Negativa. Binomial (n,p) puede ser interpretada como la suma de n distribuciones independientes Binomial (1,p) por lo que razonando a partir de TCL se puede aproximar con Normal (np, (npq) 1/2 ) para n alto y p intermedio Poisson (lambda*t) es la suma de t distribuciones independientes Poisson (lambda) por lo que razonando a partir de TCL se puede aproximar con Normal [lambda*t ,(lambda * t) 1/2 ] para lambda * t > 20 Negbin (s,p) es la suma de s distribuciones independientes Negbin (1,p), por lo que razonando a partir de TCL se puede aproximar con Normal {s*(1-p)/p, [s*(1-p)] 1/2 /p} para s > 50 Gamma (alfa,beta) puede interpretarse como la suma de alfa distribuciones independientes Expon (beta), por lo que razonando a partir del TCL Gamma (alfa,beta) se puede aproximar con Normal (alfa * beta, (alfa) 1/2 * beta) La distribución Lognormal se puede aproximar con una Normal cuando mu > 6 * sigma La distribución Beta (alfa1, alfa2) se puede aproximar con una Normal cuando alfa1 y alfa2 son suficientemente grandes (cuando ambas son mayores que 10)
  • La distribución Normal Truncada muestrea de una distribución Normal con parámetros (mu,sigma) pero no registrará los valores que estén más allá del mínimo y el máximo indicados.
  • Los precios de las acciones tienen un sesgo positivo porque su valor mínimo no puede ser menor que 0 pero su valor máximo no tiene límite teórico.
  • Una aplicación podría relacionarse con reclamos de pólizas de seguros. Las pólizas se escriben de modo que no valga la pena reclamar por debajo de un cierto valor (a). Si se asume que la probabilidad de un reclamo mayor que a decrece como una función potencia del monto del reclamo entonces se puede modelar el evento con una distribución Pareto. Una distribución Pareto tiende a ajustar muy bien las colas de las distribuciones de ingreso, pero tiene un pobre ajuste con la distribución de ingresos en su totalidad (a la inversa de una distribución Lognormal).
  • Para cada distribución posible, se busca el conjunto de parámetros que logre el mayor ajuste entre la distribución de probabilidad y el conjunto de datos. La respuesta no se debe interpretar en términos absolutos, se identifica a la distribución que con mayor probabilidad puede haber generado el conjunto de datos observados. Máxima verosimilitud se usa más cuando se usa una muestra de datos. Mínimos cuadrados se usa con datos en forma de frecuencia acumulada o de frecuencia relativa. Para datos en forma de frecuencia relativa o acumulada, los ajustes se rankean por su valor de error mínimo cuadrado. Es una medida del error cuadrado promedio entre la curva de datos y la curva ajustada. Los valores P indican el nivel de significancia del test. Dan una idea de la probabilidad que un nuevo conjunto de N valores muestreados a partir de la distribución ajustada generen un valor mayor o igual al valor s del indicador en el test. A medida que el valor P se acerca a 1, no hay bases para rechazar la hipótesis que la distribución ajustada haya efectivamente generado el conjunto de datos observados. Otra manera de ver el asunto es mediante valores críticos. Para un determinado nivel de significancia, hay un valor crítico que indica cual es el mayor valor de s que permite considerar que el ajuste es aceptable.
  • Con el coeficiente de Spearman se pierde alguna información (p.ej. cuando hay valores similares el empate de rango se resuelve arbitrariamente). Los valores generados para cada variable no son cambiados en el muestreo , simplemente se reacomodan de modo de producir la correlación deseada. De esta manera se mantienen las distribuciones originales.
  • Sigue la lógica bajo la cual el valor de la variable independiente determina estadísticamente el valor de la variable dependiente. Como este método para establecer correlaciones es más trabajoso que hacerlo con el coeficiente de Spearman, se reserva para situaciones en las que una relación de dependencia puede provocar efectos significativos sobre los resultados del modelo.

Mc anal. riesgos en eval. de proyectos simulacion mc [1] Mc anal. riesgos en eval. de proyectos simulacion mc [1] Presentation Transcript