Upcoming SlideShare
×

# 06 - Variables aleatorias conjuntas

25,583 views

Published on

Si quiere descargar la presentación, dirijase a:
http://probestunalmzl.wikispaces.com/temario

Le agradecería si me reporta los errores que encuentre en la diapositiva (daalvarez arroba unal punto edu punto co)

Published in: Education
5 Likes
Statistics
Notes
• Full Name
Comment goes here.

Are you sure you want to Yes No
• Be the first to comment

Views
Total views
25,583
On SlideShare
0
From Embeds
0
Number of Embeds
1,921
Actions
Shares
0
299
0
Likes
5
Embeds 0
No embeds

No notes for slide
• For \$Sigma=mathrm{E} left[ left( extbf{X} - mathrm{E}[ extbf{X}]
ight) left( extbf{X} - mathrm{E}[ extbf{X}]
ight)^ op
ight]\$ and \$mu = mathrm{E}( extbf{X})\$, where \$X\$ is a random \$p\$-dimensional variable and \$Y\$ a random &apos;&apos;q&apos;&apos;-dimensional variable, the following basic properties apply: egin{itemize} item \$ Sigma = mathrm{E}(mathbf{X X^ op}) - mathbf{mu}mathbf{mu^ op} \$ item \$ Sigma ,\$ is [[Positive-definite_matrixitemNegative-definite.2C_semidefinite_and_indefinite_matrices|positive semi-definite]] item \$ operatorname{var}(mathbf{A X} + mathbf{a}) = mathbf{A}, operatorname{var}(mathbf{X}), mathbf{A^ op} \$ item \$ operatorname{cov}(mathbf{X},mathbf{Y}) = operatorname{cov}(mathbf{Y},mathbf{X})^ op\$ egin{itemize} item \$ operatorname{cov}(mathbf{X}_1 + mathbf{X}_2,mathbf{Y}) = operatorname{cov}(mathbf{X}_1,mathbf{Y}) + operatorname{cov}(mathbf{X}_2, mathbf{Y})\$ item If \$p\$ = \$q\$, then \$operatorname{var}(mathbf{X} + mathbf{Y}) = operatorname{var}(mathbf{X}) + operatorname{cov}(mathbf{X},mathbf{Y}) + operatorname{cov}(mathbf{Y}, mathbf{X}) + operatorname{var}(mathbf{Y})\$ item \$operatorname{cov}(mathbf{AX}, mathbf{B}^ opmathbf{Y}) = mathbf{A}, operatorname{cov}(mathbf{X}, mathbf{Y}) ,mathbf{B}\$ item If \$mathbf{X}\$ and \$mathbf{Y}\$ are independent, then \$operatorname{cov}(mathbf{X}, mathbf{Y}) = 0\$ end{itemize} where \$mathbf{X}, mathbf{X}_1\$ and \$mathbf{X}_2\$ are random \$p imes 1\$ vectors, \$mathbf{Y}\$ is a random \$q imes 1\$ vector, \$mathbf{a}\$ is \$q imes1\$ vector, \$mathbf{A}\$ and \$mathbf{B}\$ are \$q imes p\$ matrices.
• fXY:3-x-y; ux:integrate(integrate(x*fXY,y,0,x),x,0,1); uy:integrate(integrate(y*fXY,y,0,x),x,0,1); covar:integrate(integrate((x-ux)*(y-uy)*fXY,y,0,x),x,0,1); sx:sqrt(integrate(integrate((x-ux)^2*fXY,y,0,x),x,0,1)); sy:sqrt(integrate(integrate((y-uy)^2*fXY,y,0,x),x,0,1)); corrcoef:covar/(sx*sy);
• Hablar que ese ½ es Cholesky
• N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; rxy = -0.9; mu = [mux muy]; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; [X1,X2] = meshgrid(linspace(-3,4,N)&apos;, linspace(6,10,N)&apos;); X = [X1(:) X2(:)]; figure p = mvnpdf(X, mu, Sigma); mesh(X1,X2,reshape(p,N,N)); axis tight xlabel(&apos;Eje X&apos;,&apos;FontSize&apos;,15) ylabel(&apos;Eje Y&apos;,&apos;FontSize&apos;,15) title(&apos;FDP normal bivariada con parámetros mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6,
ho_{XY} = -0.9&apos;,&apos;FontSize&apos;,15);
• N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; [X1,X2] = meshgrid(linspace(-3,4,N)&apos;, linspace(6,10,N)&apos;); X = [X1(:) X2(:)]; mu = [mux muy]; figure subplot(1,3,1); rxy = -0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel(&apos;Eje X,
ho_{XY} = -0.9&apos;,&apos;FontSize&apos;,15) ylabel(&apos;Eje Y&apos;,&apos;FontSize&apos;,15) axis tight subplot(1,3,2); rxy = 0.0; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel({&apos;
ho_{XY} = 0&apos;,&apos;Eje X&apos;},&apos;FontSize&apos;,15) axis tight title(&apos;FDP normal bivariada con parámetros mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6&apos;,&apos;FontSize&apos;,15); subplot(1,3,3); rxy = 0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel(&apos;
ho_{XY} = +0.9&apos;,&apos;FontSize&apos;,15) axis tight
• N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; [X1,X2] = meshgrid(linspace(-3,4,N)&apos;, linspace(6,10,N)&apos;); X = [X1(:) X2(:)]; mu = [mux muy]; rxy = -0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; figure p = mvncdf(X, mu, Sigma); mesh(X1,X2,reshape(p,N,N)); title({&apos;FDA normal bivariada con parámetros&apos;,&apos;mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6,
ho = -0.9&apos;},&apos;FontSize&apos;,15); xlabel(&apos;Eje X&apos;,&apos;FontSize&apos;,15) ylabel(&apos;Eje Y&apos;,&apos;FontSize&apos;,15) %view(90,0) % x1 %view(0,0) % x2
• ### 06 - Variables aleatorias conjuntas

1. 1. 06 – Variables aleatorias conjuntas <ul><ul><li>Diego Andrés Alvarez Marín </li></ul></ul><ul><ul><li>Profesor Asistente </li></ul></ul><ul><ul><li>Universidad Nacional de Colombia </li></ul></ul><ul><ul><li>Sede Manizales </li></ul></ul>
2. 2. Contenido <ul><li>Variables aleatorias conjuntas </li></ul><ul><li>Funciones de masa de probabilidad conjunta, marginal, condicional, independencia </li></ul><ul><li>Funciones de densidad de probabilidad conjunta, marginal, condicional, independencia </li></ul><ul><li>FMP multinomial, FDP normal multivariada </li></ul><ul><li>Funciones de distribución acumulada conjuntas </li></ul><ul><li>Covarianza, correlación </li></ul><ul><li>Introducción a la teoría de cópulas </li></ul>
3. 3. Objetivo <ul><li>Conocer el concepto de variable aleatoria conjunta y analizar el comportamiento probabilista conjunto e individualmente de las variables a través de su FMP/FDP e indentificar relaciones de dependencia entre dichas variables. </li></ul>
4. 4. Variables aleatorias conjuntas Ω = { 1 1, 1 2, 1 3, 1 4, 1 5, 1 6 2 1, 2 2, 2 3, 2 4, 2 5, 2 6 3 1, 3 2, 3 3, 3 4, 3 5, 3 6 4 1, 4 2, 4 3, 4 4, 4 5, 4 6 5 1, 5 2, 5 3, 5 4, 5 5, 5 6 6 1, 6 2, 6 3, 6 4, 6 5, 6 6 } Espacio muestral En muchos casos es necesario estudiar dos o más características de un experimento X 1 = Resultado del lanzamiento X 2 = La suma de los resultados del lanzamiento
5. 5. Variables aleatorias conjuntas Ω = { 1 1, 1 2, 1 3, 1 4, 1 5, 1 6 2 1, 2 2, 2 3, 2 4, 2 5, 2 6 3 1, 3 2, 3 3, 3 4, 3 5, 3 6 4 1, 4 2, 4 3, 4 4, 4 5, 4 6 5 1, 5 2, 5 3, 5 4, 5 5, 5 6 6 1, 6 2, 6 3, 6 4, 6 5, 6 6 } Espacio muestral X 1 = Resultado del lanzamiento X 2 = La suma de los resultados del lanzamiento
6. 6. Función de masa de probabilidad conjunta
7. 7. Función de masa de probabilidad conjunta
8. 8. Propiedades de la función de masa de probabilidad conjunta bidimensional
10. 10. Ejemplo 1: FMP conjunta
11. 11. Graficando FMP conjuntas en MATLAB <ul><li>stem3 </li></ul><ul><li>hist3 </li></ul>
12. 12. Función de masa de probabilidades marginal
13. 13. Función de masa de probabilidades marginal <ul><li>Si en un experimento aleatorio se define más de una variable aleatoria, entonces es importante distinguir entre la FMP conjunta de X y de Y y la FMP de cada una de las variables por separado. </li></ul><ul><li>En general, la FMP marginal de X puede hallase a partir de la FMP conjunta así: </li></ul>
14. 14. Propiedades de la FMP marginal <ul><li>La FMP marginal es una FMP común y corriente, por lo tanto cumple las siguientes propiedades: </li></ul>
15. 15. Función de masa de probabilidades marginal
16. 16. Ejemplo: FMP marginal
17. 17. Solución con MATLAB <ul><li>sum(p,1) </li></ul><ul><li>sum(p,2) </li></ul><ul><li>sum(p,3) </li></ul>
18. 18. Definición general de FMP marginal
19. 19. Ejemplo: FMP marginal
20. 20. Solución con MATLAB <ul><li>sum(sum(sum(p, 1), 2), 3) </li></ul>
21. 21. FMP condicional <ul><li>Cuando en un experimento aleatorio se definen dos o más variables aleatorias, el conocimiento de una puede cambiar las probabilidades que se asocian con los valores de la otra. </li></ul><ul><li>En el ejemplo del dado, cuando se sabe que X =6, se tiene que la suma de ambos dados tiene que ser un número entre 7 y 12. </li></ul><ul><li>Recuerde que la definición de probabilidad condicional para los eventos A y B es P ( B | A ) = P ( A ∩ B )/ P ( B ). Esta definición puede aplicarse a los eventos A y B definidos como X = x y Y = y respectivamente. </li></ul>
22. 22. FMP condicional
23. 23. Propiedades de la FMP condicional
24. 24. Ejemplo FMP condicional
25. 25. FDP condicional
26. 26. Ejemplo: FMP condicional
27. 27. Media y varianza condicional <ul><li>Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x , el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. </li></ul><ul><li>Por lo tanto, si se sabe que X = x 0 , el valor pronosticado para Y estará dado por la media condicional de Y dado X = x 0 </li></ul>
28. 28. Media y varianza condicional
29. 29. Ejemplo media y varianza condicional
30. 30. Independencia <ul><li>En algunos experimentos aleatorios, el conocimiento de valores de X no cambia ninguna de las probabilidades asociadas con los valores de Y . </li></ul><ul><li>Considere por ejemplo las variables aleatorias X y Y que denotan respectivamente el fy del acero y la velocidad del viento que afectan una estructura. </li></ul>
31. 31. Independencia
32. 32. Independencia
33. 33. Independencia
34. 34. Ejemplo independencia de FMPs
35. 35. FMP categórica
36. 36. Ejemplo FMP categórica
37. 37. FMP categórica
38. 38. Ejemplo FMP categórica
39. 39. FMP multinomial
40. 40. FMP multinomial
41. 41. FMP multinomial
42. 42. Ejemplo FMP multinomial
43. 43. FMP multinomial
44. 44. FMP multinomial en MATLAB <ul><li>mnpdf </li></ul>
45. 45. Propiedades de la FMP multinomial <ul><li>http://en.wikipedia.org/wiki/Multinomial_distribution </li></ul>
48. 48. Propiedades de la FDP conjunta
49. 49. Ejemplo FDP conjunta
50. 50. Ejemplo FDP conjunta
52. 52. Ejemplo: FDP marginal <ul><li>Suponiendo que la alimentación de los atletas que practican determinado deporte, esta dada por la función </li></ul><ul><li>Donde X representa la cantidad de proteínas y Y la cantidad de minerales que debe consumir un atleta. Determinar las funciones marginales de probabilidad </li></ul>
53. 53. Ejemplo: FDP marginal
54. 54. Definición general de FDP marginal
55. 55. Ejemplo FDP marginal
56. 56. FDP condicional
57. 57. Propiedades de la FDP condicional
58. 58. Ejemplo FDP condicional
59. 59. FDP condicional
60. 60. Media y varianza condicional <ul><li>Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x , el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. </li></ul><ul><li>Por lo tanto, si se sabe que X = x 0 , el valor pronosticado para Y estará dado por la media condicional de Y dado X = x 0 </li></ul>
61. 61. Media y varianza condicional
62. 62. Ejemplo media y varianza condicional
63. 65. Independencia
64. 66. Independencia
65. 67. Independencia
66. 68. Ejemplo independencia de FDPs
67. 72. Función de distribución acumulada conjunta
68. 73. Propiedades de las FDAs conjuntas
69. 74. Relación entre las FDAs y FDPs conjuntas <ul><li>En el caso continuo, la densidad de probabilidad f XY ( x , y ) se obtiene derivando la función de probabilidad con respecto a sus argumentos: </li></ul>
70. 75. El teorema de Bayes
72. 85. x
73. 87. La mediana en varias dimensiones: el punto central (centerpoint) <ul><ul><li>La mediana se puede generalizar a datos en dos o más dimensiones. Dado un conjunto de puntos, cualquier hiperplano que contiene el punto central, divide a los puntos en dos partes aproximadamente iguales: la parte más pequeña debe tener a lo más 100/(d+1) por ciento de los puntos. Al igual que la media, el punto central no necesita ser uno de los puntos. </li></ul></ul><ul><ul><li>Ver http://en.wikipedia.org/wiki/Centerpoint_(geometry) </li></ul></ul>
74. 88. Momentos para FDPs bivariadas
75. 89. Valor esperado e independencia
76. 90. Covarianza <ul><li>La covarianza es una medida de como dos variables aleatorias cambian juntas. </li></ul><ul><li>Se cumple que: </li></ul>
77. 91. <ul><li>Dado un conjunto de números, la covarianza se puede estimar como: </li></ul><ul><li>NOTA: en ocasiones se utiliza como denominador . En este caso se suele denominar la cuasi-covarianza . </li></ul>
78. 92. <ul><li>Otra manera de calcular la covarianza es </li></ul><ul><li>El cálculo a través de esta fórmula es mucho más rápido, ya que no se tiene que restar las medias de todos los datos. </li></ul>
79. 93. Ejemplo covarianza <ul><li>FALTA </li></ul><ul><li>PONER MUCHOS DATOS Y HACER GRAFICO. INTERPRETAR EL SIGNO DE LA COVARIANZA </li></ul><ul><li>Conclusión: La covarianza es positiva si existe una relación (lineal) creciente y negativa si existe una relación decreciente. </li></ul>
80. 94. Ejemplo 2 covarianza
81. 95. Notas sobre la covarianza <ul><li>La covarianza es una medida de la variabilidad conjunta de dos variables aleatorias X e Y . De esta forma, la covarianza es una medida de asociación entre los valores de X y de Y y sus respectivas dispersiones. Si por ejemplo, se tiene una alta probabilidad de que valores positivos de X se encuentren asociados con valores positivos de Y , la covarianza será positiva. Por otro lado, si exite una alta probabilidad de que valores postivos de X se encuentren asociados con valores negativos de Y o viceversa, la covarianza será negativa. </li></ul>
82. 96. Matriz de covarianza <ul><li>Si los elementos del vector columna </li></ul><ul><li>Son variables aleatorias, cada una con varianza finita, entonces, la matriz de covarianza Σ es la matriz cuyo elemento es la covarianza </li></ul><ul><li>Donde es el valor esperado de el elemento i del vector X </li></ul>
83. 97. Matriz de covarianza <ul><li>Es decir, </li></ul><ul><li>En otras palabras, </li></ul>
84. 98. Ejemplo matriz de covarianza
85. 99. Covarianza en MATLAB <ul><li>La matriz de covarianza se calcula con el comando cov </li></ul>
86. 100. Covarianza en MS EXCEL <ul><li>En MS EXCEL se calcula con el comando COVAR </li></ul>
87. 101. <ul><li>La covarianza es una medida de la asociación lineal entre las variables aleatorias </li></ul><ul><li>Si la relación entre las variables aleatorias no es lineal, la covarianza podría ser no sensible a la relación </li></ul><ul><li>Sus dimensiones son: </li></ul><ul><li>dimensión de X por dimensión de Y </li></ul>
88. 102. <ul><li>Si cov(X,Y) > 0 hay dependencia directa ( positiva ), es decir, a grandes valores de x corresponden grandes valores de y. </li></ul><ul><li>Si cov(X,Y) = 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas; en este caso se dice que las variables son no correlacionadas . </li></ul><ul><li>Si cov(X,Y) < 0 hay dependencia inversa o negativa , es decir, a grandes valores de x corresponden pequeños valores de y. </li></ul>
89. 103. Covarianza e independencia <ul><li>Si X y Y son variables aleatorias independientes, </li></ul><ul><li>Lo contrario no es en general verdadero. </li></ul>
90. 104. Propiedades de la covarianza <ul><li>Si X , Y , W y V son variables aleatorias reales y a , b , c y d son constantes, entonces: </li></ul>
91. 105. <ul><li>Para secuencias y de variables aleatorias, se tiene que: </li></ul><ul><li>Para una secuencia de variables aleatorias, y constantes se tiene que para su combinación lineal: </li></ul>
92. 108. Propiedades de la matriz de covarianza
93. 109. Coeficiente de correlación <ul><li>La correlación indica la fuerza y dirección de una relación lineal entre dos variables aleatorias. </li></ul><ul><li>Esto se debe contrastar con el uso coloquial en el lenguaje, que denota cualquier relación, no necesariamente lineal. </li></ul><ul><li>Existen varios coeficientes que miden el grado de correlación: Pearson, Spearman, Kendall. </li></ul>
94. 110. <ul><li>Observe que la correlación refleja la cantidad de ruido y dirección de una relación lineal (arriba), pero no la pendiente (medio) ni tampoco relaciones no lineales (abajo). </li></ul><ul><li>Nota: la figura en el centro tiene una correlación 0 porque var(Y)=0 (Y es constante) </li></ul>
95. 111. Coeficiente de correlación de Pearson <ul><li>Nota: a pesar de su nombre, fue introducida por Francis Galton en 1880 </li></ul>
96. 112. Coeficiente de correlación: motivación <ul><li>Si por ejemplo las unidades de la variable X son centimetros y las unidades de la variable Y son gramos, entonces las unidades de la covarianza son cm×g y si cambiamos la escala de las variables, cambia la covarianza. Esto hace que el valor de la covarianza sea difícil de interpretar. Una medida normalizada es la correlación. </li></ul>
97. 113. Propiedades de la correlación <ul><li>Si dos variables aleatorias X y Y son independientes, entonces su correlación es 0. Lo contrario no siempre es verdad. </li></ul><ul><li>El coeficiente de correlación es una cantidad adimensional que toma un valor entre -1 y 1. </li></ul><ul><li>Si no existe una relación lineal entre las variables, el coeficiente de correlación es aproximadamente cero. </li></ul>
98. 114. EJEMPLO COEF CORREL
99. 115. Correlación en MATLAB
100. 116. Correlación en MS EXCEL <ul><li>PEARSON Devuelve el coeficiente de correlación producto o momento r de Pearson, r, un índice adimensional acotado entre -1,0 y 1,0 que refleja el grado de dependencia lineal entre dos conjuntos de datos. </li></ul>
101. 117. Correlación en MS EXCEL <ul><li>COEFICIENTE.R2 Devuelve el cuadrado del coeficiente de correlación de momento del producto Pearson mediante los puntos de datos de X y Y . El valor R cuadrado puede interpretarse como la proporción de la varianza de Y que puede atribuirse a la varianza de X . </li></ul>
102. 118. Correlación en MS EXCEL <ul><li>COEF.DE.CORREL : devuelve el coeficiente de correlación entre dos rangos de celdas definidos por los argumentos matriz1 y matriz2. </li></ul>Observe que ambas funciones retornan los mismos valores
103. 119. <ul><li>Dada la FPD mostrada, calcule la correlación y el coeficiente de variación de las variables aleatorias X y Y: </li></ul><ul><li>El problema será solucionado en MAXIMA </li></ul>
104. 121. <ul><li>La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad </li></ul><ul><li>Se ha observado que en los últimos 300 años el número de piratas ha decrecido, sin embargo, ha habido un incremento en el calentamiento global. Conclusión (errónea): el calentamiento global es causado por la disminución de piratas. </li></ul>Cum hoc ergo propter hoc (&quot;juntamente con esto, luego a consecuencia de esto&quot;) http://xkcd.com/552/
105. 122. <ul><li>Los niños que duermen con la luz encendida son más propensos a desarrollar miopía en la edad adulta. </li></ul><ul><li>Ésta fue la conclusión de un estudio del centro médico de la Universidad de Pensilvania, publicada el 13 de mayo de 1999 en la revista Nature , y que tuvo gran repercusión en la prensa de la época. Sin embargo, un posterior estudio de la Universidad Estatal de Ohio no encontró ningún enlace entre el hecho de que niños durmiendo con la luz encendida y el desarrollo de miopía, pero sí que encontró una fuerte relación entre la miopía parental y el desarrollo en los niños de este defecto, y también observó que los padres miopes tenían una mayor tendencia a dejar las luces encendidas en las habitaciones de sus hijos </li></ul>