Upcoming SlideShare
×

03 Variable Aleatoria

15,146 views

Published on

Published in: Education, Technology
1 Comment
2 Likes
Statistics
Notes
• Full Name
Comment goes here.

Are you sure you want to Yes No
• Si quiere descargar la presentación, dirijase a:
http://probestunalmzl.wikispaces.com/temario

Le agradecería si me reporta los errores que encuentre en la diapositiva (daalvarez arroba unal punto edu punto co)

Are you sure you want to  Yes  No
Views
Total views
15,146
On SlideShare
0
From Embeds
0
Number of Embeds
2,169
Actions
Shares
0
246
1
Likes
2
Embeds 0
No embeds

No notes for slide
• subsection{Generalities on random variables} Let \$(Omega,sigma_Omega,P_Omega)\$ be a probability space and \$(X,sigma_X)\$ be a measurable space. A emph{random variable}index{random variable} \$X\$ is a \$(sigma_Omega-sigma_X)\$-measurable %footnote{A mapping \$x\$ is said to be \$sigma_Omega-sigma_X\$ emph{measurable} if and only if for all \$A in sigma_X\$, \$x^{-1}(A) in sigma_Omega\$} mapping egin{equation} X:Omega
ightarrow D; omega mapsto X(omega). label{eq:randomvar} end{equation} This mapping can be used to generate a probability measure on \$(X,sigma_X)\$ such that the probability space \$(X,sigma_X,P_X)\$ is the mathematical description of the experiment as well as of the original probability space \$(Omega,sigma_Omega,P_Omega)\$. This mapping is given by \$P_X = P_Omega circ X^{-1}\$. This means that an event \$F in sigma_X\$ has the probability egin{align} P_X(F) &amp; = P_Omega circ X^{-1}(F)\ &amp; = P_Omega left(X^{-1}(F)
ight)\ &amp; = P_Omega left{omega : X(omega) in F
ight} label{eq:PXA_PomeA} end{align} for \$omega in Omega\$. The benefit of mapping (1) arises when \$(X,sigma_X)\$ is a well characterized measurable space where mathematical tools such as Riemann integration are well defined. One of the most commonly used measurable spaces is \$(mathbbm{R},mathscr{B})\$, where \$mathscr{B}\$ is the Borel \$sigma\$-algebra on \$mathbbm{R}\$; in this case \$X\$ is called a emph{numerical random variable}. For example, according to the Kolmogorov axioms, the probability measure is additive, therefore, depending on whether we have a discrete or continuous random variables, it follows that, for \$F in sigma_X\$, egin{alignat}{2} P_X(F)&amp; := sum_{omega in X^{-1}(F)} P_Omega({omega}) &amp;&amp; qquad ext{(discrete case)} \ &amp; = int_{X^{-1}(F)} dd P_Omega(omega) &amp;&amp; qquad ext{(general case)} end{alignat} In the last case, \$P_X(F)\$ can also be written in terms of the expectation operation as egin{equation} P_X(F) = int_F dd P_X(x) = int_X Ileft[x in F
ight] dd P_X(x) = E_Xleft[Ileft[x in F
ight]
ight] end{equation} where \$xin X\$, and \$I\$ stands for the emph{indicator function}, defined by, egin{equation} I[cdot] = egin{cases} 1 &amp; ext{if } cdot ext{ is true} \ 0 &amp; ext{if } cdot ext{ is false} \ end{cases} end{equation}
• x = 20:180; fiq = normpdf(x,100,15); n = 1e5; iq = normrnd(100,15,n,1); figure; i = 0; for N = [10 25 40 60 100] [nn,xout] = hist(iq,N); nn = nn./sum((xout(2)-xout(1))*nn); i = i+1; subplot(2,3,i); bar(xout,nn,&apos;hist&apos;); hold on; plot(x,fiq,&apos;r&apos;,&apos;LineWidth&apos;,1); title(sprintf(&apos;clases = %d&apos;,N),&apos;FontSize&apos;,18); end; subplot(2,3,6); plot(x,fiq,&apos;r&apos;,&apos;LineWidth&apos;,3); title(&apos;Función de densidad de probabilidades&apos;);
• Propiedad de optimalidad The median is also the central point which minimizes the average of the absolute deviations; in the example above this would be (1 + 0 + 0 + 0 + 1 + 7) / 6 = 1.5 using the median, while it would be 1.944 using the mean. In the language of probability theory, the value of c that minimizes E(left|X-c
ight|), is the median of the probability distribution of the random variable X. Note, however, that c is not always unique, and therefore not well defined in general.  An inequality relating means and medians For continuous probability distributions, the difference between the median and the mean is less than or equal to one standard deviation. See an inequality on location and scale parameters. Ver: http://en.wikipedia.org/wiki/An_inequality_on_location_and_scale_parameters
• 03 Variable Aleatoria

1. 1. 03 – Variables aleatorias y distribuciones de probabilidad <ul><ul><li>Diego Andrés Alvarez Marín </li></ul></ul><ul><ul><li>Profesor Asistente </li></ul></ul><ul><ul><li>Universidad Nacional de Colombia </li></ul></ul><ul><ul><li>Sede Manizales </li></ul></ul>
2. 2. Contenido <ul><li>Variables aleatorias discretas: función de probabilidad y de distribución </li></ul><ul><li>Variables aleatorias continuas: función de densidad y de distribución </li></ul><ul><li>Características de las variables aleatorias: valor esperado, varianza </li></ul><ul><li>Aplicación práctica, representaciones </li></ul>
3. 3. Variable aleatoria <ul><li>Sea Ω un espacio muestral. Una función </li></ul><ul><li>se conoce como variable aleatoria (random variable en inglés) </li></ul><ul><li>Nota: la definición real es en verdad algo más complicada. Ver: http://en.wikipedia.org/wiki/Random_variable#Formal_definition </li></ul>
4. 4. <ul><li>La variable aleatoria transforma los resultados del espacio muestral en cantidades numéricas. </li></ul><ul><li>La letra mayúscula X denota la función (la variable aleatoria). </li></ul><ul><li>La letra minúscula x denota el valor que toma la variable aleatoria, es decir, x=X( ω ) </li></ul><ul><li>Observe que una “variable” aleatoria NO es una variable como tal sino que es una función </li></ul>
5. 5. Lanzamientos de dos dados X denota la suma de los resultados de las dos caras Valor de la variable aleatoria
6. 6. <ul><li>Una variable aleatoria X es discreta si D tiene una cardinalidad finita o infinita contable (es decir si los elementos de D se pueden poner en una correspondencia uno a uno con los números naturales) </li></ul><ul><li>Una variable aleatoria X es continua si D tiene una cardinalidad infinita no contable, es decir si D está formado por intervalos de la recta real </li></ul>
7. 9. Eventos definidos por la variable aleatoria X: Ω-> R
8. 10. Descripción probabilista de las variables aleatorias <ul><li>Las variables aleatorias discretas se describen mediante: </li></ul><ul><ul><li>Función de Masa de Probabilidades (FMP) </li></ul></ul><ul><ul><li>Función de Distribución de Acumulada (FDA) </li></ul></ul><ul><li>Las variables aleatorias continuas se describen mediante: </li></ul><ul><ul><li>Función de Densidad de Probabilidades (FDP) </li></ul></ul><ul><ul><li>Función de Distribución de Acumulada (FDA) </li></ul></ul>
9. 11. Función de Masa de Probabilidades Definición matemática
10. 12. Función de Masa de Probabilidades <ul><li>Una función de masa de probabilidades (FMP) es una funcion que dice la probabilidad que una variable aleatoria discreta tome exactamente un valor. </li></ul>Una FMP. Observe que todos los valores de esta función son no-negativos y suman 1. Una FMP de un dado equilibrado. Todos los números en el dado tienen igual probabilidad de aparecer.
11. 13. Graficando FMPs en MATLAB
12. 14. Propiedades de la FMP <ul><li>Las FMP deben satisfacer las siguientes propiedades: </li></ul>
13. 15. La función Delta de Dirac
14. 16. Representación de una FMP utilizando Deltas de Dirac
15. 17. Ejemplo <ul><li>Para verificar la calidad de un lote de cilindros de concreto, un ingeniero extrae al azar 3 muestras. Suponiendo que la probabilidad que el cilindro no cumpla las especificaciones es del 10%, cual es la probabilidad que: </li></ul><ul><li>a) los tres cilindros cumplan con las especificaciones </li></ul><ul><li>b) sólo dos cilindros cumplan con las espeficicaciones </li></ul><ul><li>c) sólo un cilindro cumpla con las espeficicaciones </li></ul><ul><li>d) ninguno de los cilindros cumpla con las especificaciones </li></ul>
16. 18. <ul><li>s – cilindro que cumple con las especificaciones </li></ul><ul><li>n – cilindro que NO las cumple </li></ul><ul><li>P( s ) = p P( n ) = 1- p </li></ul><ul><li>P[0 OK] = ( n,n,n ) = (1- p )(1- p )(1- p ) = (1- p ) 3 </li></ul><ul><li>P[1 OK] = ( n,n,s )+( n,s,n )+( s,n,n ) = 3(1- p ) 2 p </li></ul><ul><li>P[2 OK] = ( n,s,s )+( s,s,n )+( s,n,s ) = 3 p 2 (1- p ) </li></ul><ul><li>P[3 OK] = ( s,s,s ) = p 3 </li></ul>FMP binomial
17. 19. <ul><li>En el caso del ejemplo p = 0.90, siendo la FMP: </li></ul><ul><ul><li>P[0 OK] = (1- p ) 3 = (0.1) 3 = 0.001 </li></ul></ul><ul><ul><li>P[1 OK] = 3(1- p ) 2 p = 3 (0.1) 2 x 0.9 = 0.027 </li></ul></ul><ul><ul><li>P[2 OK] = 3 p 2 (1- p ) = 3 (0.9) 2 x 0.1 = 0.243 </li></ul></ul><ul><ul><li>P[3 OK] = p 3 = (0.9) 3 = 0.729 </li></ul></ul>
18. 20. <ul><li>En la práctica de control de calidad, el ingeniero debe tomar la decisión acerca de si el material se encuentra dentro de las especificaciones o no basado en una observación de dos muestras malas en una muestra de tamaño tres. Suponiendo que el material es satisfactorio, la probabilidad de tal suceso es muy pequeña (2,7%), y por lo tanto, el ingeniero decidirá usualmente que el material no cumple con las especificaciones. </li></ul>
19. 21. Ejemplo lanzamiento de una moneda <ul><li>¿Cuántas veces se debe lanzar una moneda para obtener caras? </li></ul><ul><li>1 – C P(C) = 0.5 </li></ul><ul><li>2 – SC P(SC) = 0.5 2 </li></ul><ul><li>3 – SSC P(SSC) = 0.5 3 </li></ul><ul><li>4 – SSSC P(SSSC) = 0.5 4 </li></ul><ul><li>... ... </li></ul><ul><li>n – S...SSC P(S...SSC) = 0.5 n </li></ul>se extiende hasta el infinito n-1 veces
20. 22. Ejemplo http://en.wikipedia.org/wiki/Geometric_series
22. 25. Intelligence quotient IQ μ =100, σ =15
23. 26. Motivación <ul><li>Las FDPs se pueden entender como el límite de un histograma cuando el ancho de cada subintervalo tiende a cero. </li></ul><ul><li>Cuando la altura de una persona es 172 cm, es lógico entender como [171.5 cm, 172.5 cm]; por lo tanto, en el caso continuo es más lógico visualizar las probabilidades de intervalos que de un punto en particular. </li></ul>
24. 27. Interpretación de la FDP <ul><li>La FDP f X del caso continuo se debe entender de forma diferente a la FMP p X del caso discreto: </li></ul><ul><ul><li>Con las FMPs, la probabilidad que x tome un valor específico puede ser diferente de cero. </li></ul></ul><ul><ul><li>Con las FDPs, la probabilidad que x tome un valor específico x es cero. </li></ul></ul><ul><li>Por lo tanto, la FDP no representa la probabilidad que X=x . Mas bien proporciona un medio para determinar la probabilidad de un intervalo a ≤ X ≤ b. </li></ul>
25. 28. Interpretación de la FDP <ul><li>El valor de f X ( x ) solo es una medida de la densidad o intensidad de la probabilidad en el punto x . </li></ul>
26. 29. Interpretación de la FDP <ul><li>El valor de f X ( x ) solo es una medida de la densidad o intensidad de la probabilidad en el punto x . </li></ul>Colas de la FDP menos frecuencia más frecuencia
27. 30. Función de Distribución Acumulada (FDA)
28. 31. FDA de una función de masa de probabilidades (FMP) FDA de una función de densidad de probabilidades continua FDA de una función de densidad de probabilidades que tiene un componente continuo y una parte discreta.
29. 32. Continuidad por la derecha y por la izquierda Función continua por la derecha Función continua por la izquierda
30. 33. Función de Distribución Acumulada (FDA)
31. 34. Función de Distribución Acumulada (FDA)
32. 35. FMP vs FDA
33. 36. Ejemplo: FMP y FDA uniforme discreta
34. 37. Ejemplo: FDA discreta (Poisson) P(X ≤ k) k λ>0 representa el número esperado de ocurrencias durante un intervalo dado de tiempo. Por la FDA del evento que lleguen k clientes a un banco dado que en promedio llegan λ=1, 4 y 10 clientes/minuto se muestra a continuación:
35. 38. FDP vs FDA
36. 39. FDP vs FDA
37. 41. Ejemplo
38. 42. Continuación ejemplo
39. 43. Función de distribución de probabilidades empírica
40. 44. Función de distribución de probabilidades empírica
41. 45. El comando disttool del toolbox de estadística de MATLAB Dicho comando es extremadamente útil para explorar la forma de las FDPs y FDAs
42. 46. Variables aleatorias mixtas <ul><li>La variable aleatoria puede ser a la vez discreta y continua, es decir asume valores puntuales con una probabilidad diferente de cero, al igual que valores por intervalos. Este es el caso de ensayo de equipos, donde X es el tiempo de funcionamiento del equipo, existe una probabilidad de que el artículo no funcione del todo, falla en el tiempo X = 0; ó también cuando Y es la variable aleatoria que representa la demora de un motorista al hacer un pare obligatorio, existe una probabilidad de que no haya tráfico y el motorista no tenga demora X = 0, sí tiene que esperar, lo debe hacer por un tiempo continuo. </li></ul>
43. 47. Variables aleatorias mixtas g(x)
44. 48. Variables aleatorias mixtas
45. 50. Ejemplo 2: variables aleatorias mixtas
46. 53. FDP truncada <ul><li>http://en.wikipedia.org/wiki/Truncated_distribution </li></ul>
47. 54. FDP condicional <ul><li>Suponga que estamos interesados en la distribución de la demanda o carga X dado que sea mayor que algún valor de umbral x 0 . </li></ul><ul><li>HACER GRAFICO FDP truncada </li></ul>
48. 55. FDP de una función g ( X )
49. 56. FDP a partir de observaciones <ul><li>Kernel smoothing methods (tambien llamado ventanas de Parzen (Parzen windows). El comando de MATLAB asociado es ksdensity . </li></ul>Ver: http://en.wikipedia.org/wiki/Kernel_density_estimation
50. 57. FDP a partir de observaciones <ul><ul><li>Existen otro métodos basados en la utilización de polinomios ortogonales de Legendre. Ver por ejemplo: </li></ul></ul><ul><ul><li>X.B. Li y F.Q. Gong ( 2009 ). A method for fitting probability distributions to engineering properties of rock masses using Legendre orthogonal polynomials . Structural Safety. Volume 31, Issue 4, July 2009, Pages 335-343 </li></ul></ul>Applying the Gram-Schmidt process to the functions 1, x, x^2, ... on the interval [-1,1] with the usual L^2 inner product gives the Legendre polynomials
51. 58. Valor esperado de una variable aleatoria <ul><li>El valor promedio de una variable aleatoria después de un número grande de experimentos es su valor esperado . </li></ul><ul><li>Se dice valor esperado ( expected value ) o también esperanza matemática ( mathematical expectation ) </li></ul>
52. 59. Valor esperado de una variable aleatoria
53. 60. Valor esperado de una variable aleatoria <ul><li>Ver: </li></ul><ul><ul><li>http://en.wikipedia.org/wiki/Riemann-Stieltjes_Integration </li></ul></ul><ul><ul><li>http://en.wikipedia.org/wiki/Cauchy_distribution </li></ul></ul>
54. 61. Ejemplo: valor esperado <ul><li>El valor esperado no necesariamente toma un valor que pudiera tomar la variable aleatoria. </li></ul>
57. 64. Valor esperado VA uniforme continua
58. 65. Valor esperado VA exponencial
61. 68. Interpretación del valor esperado <ul><li>El término “valor esperado” no debe entenderse como el valor más probable. </li></ul><ul><li>El valor esperado se debe entender como el valor promedio que toma la variable aleatoria después de efectuar muchos experimentos independientemente. </li></ul><ul><li>El valor esperado se puede asociar al centro de gravedad de la FDP. </li></ul>
62. 69. Importancia práctica del valor esperado <ul><li>En un problema físico, en que un fenómeno tiene como modelo una variable aleatoria, generalmente el número más significativo que el ingeniero puede obtener es el valor medio de esa variable; es una medida de la tendencia central de la variable y muchas veces, si se van a hacer observaciones repetidas del fenómeno, del valor alrededor del cual se pude esperar la dispersión. La media muestral de muchas de tales observaciones estará con alta probabilidad muy cerca a la media de la variables aleatoria fundamental. </li></ul>
63. 70. Valor esperado de una función g ( X )
64. 71. Valor esperado de una función g ( X ) <ul><li>Tenga en cuenta que </li></ul><ul><li>Otra propiedad del valor esperado es: </li></ul>
65. 72. Ejemplo: valor esperado de g ( X )
66. 73. Esperanza condicional
67. 74. Ejemplo 1 esperanza condicional
68. 75. Ejemplo 2 esperanza condicional
69. 76. Momentos de una variable aleatoria <ul><li>Los momentos de una variable aleatoria X son los valores esperados de ciertas funciones de X . Estas forman una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarla si todos los momentos de X son conocidos. A pesar de que los momentos de X pueden definirse alrededor de cualquier punto de referencia, generalmente se definen alrededor del cero ( momentos no centrales ) o del valor esperado de X ( momentos centrales ). </li></ul>
70. 77. Momentos no centrales
71. 78. Momentos centrales
72. 79. Algunos momentos centrales
73. 80. Media cuadrática VA uniforme continua
74. 81. Media cuadrática VA exponencial
75. 82. Notas sobre los momentos <ul><li>Tenga en cuenta que todas las proposiciones anteriores con respecto a los momentos se encuentra sujetas a la existencia de las sumas o integrales que las definan. </li></ul><ul><li>El uso de los momentos de una variable aleatoria para caracterizar a la FDA es útil especialmente en un medio en el que el experimentador conozca la FDA. </li></ul>
76. 83. Varianza <ul><li>La varianza es una medida de la dispersión de una variable aleatoria. </li></ul>
77. 84. Varianza <ul><li>La varianza es una medida de la dispersión de una variable aleatoria. </li></ul>
78. 85. Relacionando la varianza con la media y la media cuadrática
80. 87. Varianza FDP exponencial
81. 88. Varianzas <ul><li>Uniforme </li></ul><ul><li>Exponencial </li></ul>
82. 89. Propiedades de la varianza
83. 91. Notas sobre la varianza <ul><li>Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2. </li></ul>
84. 92. Ley de la esperanza total
85. 93. Ley de la varianza total
86. 94. Coeficiente de variación (C.O.V.) <ul><li>Es una medida normalizada de la dispersión, utilizada en control de calidad. Está definida por: </li></ul><ul><li>Está definida para valores positivos de μ. </li></ul><ul><li>Es útil porque la desviación estándar se debe entender siempre en contexto con la media. Como no tiene dimensión, sirve para comparar dispersiones de datos con medias diferentes </li></ul><ul><li>Es sensitiva a pequeños cambios en la media cuando esta se acerca a cero, limitando su utilidad. </li></ul><ul><li>NOTA: No confundir con la covarianza </li></ul>
87. 95. Coeficiente de asimetría (skewness) g1 < 0 distribución asimétrica negativamente g1 > 0 distribución asimétrica positivamente
88. 96. Coeficiente de apuntalamiento (curtosis)