06 - Variables aleatorias conjuntas

25,583 views

Published on

Si quiere descargar la presentación, dirijase a:
http://probestunalmzl.wikispaces.com/temario

Le agradecería si me reporta los errores que encuentre en la diapositiva (daalvarez arroba unal punto edu punto co)

Published in: Education
0 Comments
5 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
25,583
On SlideShare
0
From Embeds
0
Number of Embeds
1,921
Actions
Shares
0
Downloads
299
Comments
0
Likes
5
Embeds 0
No embeds

No notes for slide
  • For $Sigma=mathrm{E} left[ left( extbf{X} - mathrm{E}[ extbf{X}]
    ight) left( extbf{X} - mathrm{E}[ extbf{X}]
    ight)^ op
    ight]$ and $mu = mathrm{E}( extbf{X})$, where $X$ is a random $p$-dimensional variable and $Y$ a random ''q''-dimensional variable, the following basic properties apply: egin{itemize} item $ Sigma = mathrm{E}(mathbf{X X^ op}) - mathbf{mu}mathbf{mu^ op} $ item $ Sigma ,$ is [[Positive-definite_matrixitemNegative-definite.2C_semidefinite_and_indefinite_matrices|positive semi-definite]] item $ operatorname{var}(mathbf{A X} + mathbf{a}) = mathbf{A}, operatorname{var}(mathbf{X}), mathbf{A^ op} $ item $ operatorname{cov}(mathbf{X},mathbf{Y}) = operatorname{cov}(mathbf{Y},mathbf{X})^ op$ egin{itemize} item $ operatorname{cov}(mathbf{X}_1 + mathbf{X}_2,mathbf{Y}) = operatorname{cov}(mathbf{X}_1,mathbf{Y}) + operatorname{cov}(mathbf{X}_2, mathbf{Y})$ item If $p$ = $q$, then $operatorname{var}(mathbf{X} + mathbf{Y}) = operatorname{var}(mathbf{X}) + operatorname{cov}(mathbf{X},mathbf{Y}) + operatorname{cov}(mathbf{Y}, mathbf{X}) + operatorname{var}(mathbf{Y})$ item $operatorname{cov}(mathbf{AX}, mathbf{B}^ opmathbf{Y}) = mathbf{A}, operatorname{cov}(mathbf{X}, mathbf{Y}) ,mathbf{B}$ item If $mathbf{X}$ and $mathbf{Y}$ are independent, then $operatorname{cov}(mathbf{X}, mathbf{Y}) = 0$ end{itemize} where $mathbf{X}, mathbf{X}_1$ and $mathbf{X}_2$ are random $p imes 1$ vectors, $mathbf{Y}$ is a random $q imes 1$ vector, $mathbf{a}$ is $q imes1$ vector, $mathbf{A}$ and $mathbf{B}$ are $q imes p$ matrices.
  • fXY:3-x-y; ux:integrate(integrate(x*fXY,y,0,x),x,0,1); uy:integrate(integrate(y*fXY,y,0,x),x,0,1); covar:integrate(integrate((x-ux)*(y-uy)*fXY,y,0,x),x,0,1); sx:sqrt(integrate(integrate((x-ux)^2*fXY,y,0,x),x,0,1)); sy:sqrt(integrate(integrate((y-uy)^2*fXY,y,0,x),x,0,1)); corrcoef:covar/(sx*sy);
  • Hablar que ese ½ es Cholesky
  • N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; rxy = -0.9; mu = [mux muy]; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; [X1,X2] = meshgrid(linspace(-3,4,N)', linspace(6,10,N)'); X = [X1(:) X2(:)]; figure p = mvnpdf(X, mu, Sigma); mesh(X1,X2,reshape(p,N,N)); axis tight xlabel('Eje X','FontSize',15) ylabel('Eje Y','FontSize',15) title('FDP normal bivariada con parámetros mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6,
    ho_{XY} = -0.9','FontSize',15);
  • N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; [X1,X2] = meshgrid(linspace(-3,4,N)', linspace(6,10,N)'); X = [X1(:) X2(:)]; mu = [mux muy]; figure subplot(1,3,1); rxy = -0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel('Eje X,
    ho_{XY} = -0.9','FontSize',15) ylabel('Eje Y','FontSize',15) axis tight subplot(1,3,2); rxy = 0.0; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel({'
    ho_{XY} = 0','Eje X'},'FontSize',15) axis tight title('FDP normal bivariada con parámetros mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6','FontSize',15); subplot(1,3,3); rxy = 0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; p = mvnpdf(X, mu, Sigma); contour(X1,X2,reshape(p,N,N),20); axis tight xlabel('
    ho_{XY} = +0.9','FontSize',15) axis tight
  • N = 50; mux = 1; muy = 8; sx = 1; sy = 0.6; [X1,X2] = meshgrid(linspace(-3,4,N)', linspace(6,10,N)'); X = [X1(:) X2(:)]; mu = [mux muy]; rxy = -0.9; Sigma = [sx^2 rxy*sx*sy; rxy*sx*sy sy^2]; figure p = mvncdf(X, mu, Sigma); mesh(X1,X2,reshape(p,N,N)); title({'FDA normal bivariada con parámetros','mu_X = 1, mu_Y = 8, sigma_X = 1, sigma_Y = 0.6,
    ho = -0.9'},'FontSize',15); xlabel('Eje X','FontSize',15) ylabel('Eje Y','FontSize',15) %view(90,0) % x1 %view(0,0) % x2
  • 06 - Variables aleatorias conjuntas

    1. 1. 06 – Variables aleatorias conjuntas <ul><ul><li>Diego Andrés Alvarez Marín </li></ul></ul><ul><ul><li>Profesor Asistente </li></ul></ul><ul><ul><li>Universidad Nacional de Colombia </li></ul></ul><ul><ul><li>Sede Manizales </li></ul></ul>
    2. 2. Contenido <ul><li>Variables aleatorias conjuntas </li></ul><ul><li>Funciones de masa de probabilidad conjunta, marginal, condicional, independencia </li></ul><ul><li>Funciones de densidad de probabilidad conjunta, marginal, condicional, independencia </li></ul><ul><li>FMP multinomial, FDP normal multivariada </li></ul><ul><li>Funciones de distribución acumulada conjuntas </li></ul><ul><li>Covarianza, correlación </li></ul><ul><li>Introducción a la teoría de cópulas </li></ul>
    3. 3. Objetivo <ul><li>Conocer el concepto de variable aleatoria conjunta y analizar el comportamiento probabilista conjunto e individualmente de las variables a través de su FMP/FDP e indentificar relaciones de dependencia entre dichas variables. </li></ul>
    4. 4. Variables aleatorias conjuntas Ω = { 1 1, 1 2, 1 3, 1 4, 1 5, 1 6 2 1, 2 2, 2 3, 2 4, 2 5, 2 6 3 1, 3 2, 3 3, 3 4, 3 5, 3 6 4 1, 4 2, 4 3, 4 4, 4 5, 4 6 5 1, 5 2, 5 3, 5 4, 5 5, 5 6 6 1, 6 2, 6 3, 6 4, 6 5, 6 6 } Espacio muestral En muchos casos es necesario estudiar dos o más características de un experimento X 1 = Resultado del lanzamiento X 2 = La suma de los resultados del lanzamiento
    5. 5. Variables aleatorias conjuntas Ω = { 1 1, 1 2, 1 3, 1 4, 1 5, 1 6 2 1, 2 2, 2 3, 2 4, 2 5, 2 6 3 1, 3 2, 3 3, 3 4, 3 5, 3 6 4 1, 4 2, 4 3, 4 4, 4 5, 4 6 5 1, 5 2, 5 3, 5 4, 5 5, 5 6 6 1, 6 2, 6 3, 6 4, 6 5, 6 6 } Espacio muestral X 1 = Resultado del lanzamiento X 2 = La suma de los resultados del lanzamiento
    6. 6. Función de masa de probabilidad conjunta
    7. 7. Función de masa de probabilidad conjunta
    8. 8. Propiedades de la función de masa de probabilidad conjunta bidimensional
    9. 9. Propiedades de la función de masa de probabilidad conjunta
    10. 10. Ejemplo 1: FMP conjunta
    11. 11. Graficando FMP conjuntas en MATLAB <ul><li>stem3 </li></ul><ul><li>hist3 </li></ul>
    12. 12. Función de masa de probabilidades marginal
    13. 13. Función de masa de probabilidades marginal <ul><li>Si en un experimento aleatorio se define más de una variable aleatoria, entonces es importante distinguir entre la FMP conjunta de X y de Y y la FMP de cada una de las variables por separado. </li></ul><ul><li>En general, la FMP marginal de X puede hallase a partir de la FMP conjunta así: </li></ul>
    14. 14. Propiedades de la FMP marginal <ul><li>La FMP marginal es una FMP común y corriente, por lo tanto cumple las siguientes propiedades: </li></ul>
    15. 15. Función de masa de probabilidades marginal
    16. 16. Ejemplo: FMP marginal
    17. 17. Solución con MATLAB <ul><li>sum(p,1) </li></ul><ul><li>sum(p,2) </li></ul><ul><li>sum(p,3) </li></ul>
    18. 18. Definición general de FMP marginal
    19. 19. Ejemplo: FMP marginal
    20. 20. Solución con MATLAB <ul><li>sum(sum(sum(p, 1), 2), 3) </li></ul>
    21. 21. FMP condicional <ul><li>Cuando en un experimento aleatorio se definen dos o más variables aleatorias, el conocimiento de una puede cambiar las probabilidades que se asocian con los valores de la otra. </li></ul><ul><li>En el ejemplo del dado, cuando se sabe que X =6, se tiene que la suma de ambos dados tiene que ser un número entre 7 y 12. </li></ul><ul><li>Recuerde que la definición de probabilidad condicional para los eventos A y B es P ( B | A ) = P ( A ∩ B )/ P ( B ). Esta definición puede aplicarse a los eventos A y B definidos como X = x y Y = y respectivamente. </li></ul>
    22. 22. FMP condicional
    23. 23. Propiedades de la FMP condicional
    24. 24. Ejemplo FMP condicional
    25. 25. FDP condicional
    26. 26. Ejemplo: FMP condicional
    27. 27. Media y varianza condicional <ul><li>Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x , el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. </li></ul><ul><li>Por lo tanto, si se sabe que X = x 0 , el valor pronosticado para Y estará dado por la media condicional de Y dado X = x 0 </li></ul>
    28. 28. Media y varianza condicional
    29. 29. Ejemplo media y varianza condicional
    30. 30. Independencia <ul><li>En algunos experimentos aleatorios, el conocimiento de valores de X no cambia ninguna de las probabilidades asociadas con los valores de Y . </li></ul><ul><li>Considere por ejemplo las variables aleatorias X y Y que denotan respectivamente el fy del acero y la velocidad del viento que afectan una estructura. </li></ul>
    31. 31. Independencia
    32. 32. Independencia
    33. 33. Independencia
    34. 34. Ejemplo independencia de FMPs
    35. 35. FMP categórica
    36. 36. Ejemplo FMP categórica
    37. 37. FMP categórica
    38. 38. Ejemplo FMP categórica
    39. 39. FMP multinomial
    40. 40. FMP multinomial
    41. 41. FMP multinomial
    42. 42. Ejemplo FMP multinomial
    43. 43. FMP multinomial
    44. 44. FMP multinomial en MATLAB <ul><li>mnpdf </li></ul>
    45. 45. Propiedades de la FMP multinomial <ul><li>http://en.wikipedia.org/wiki/Multinomial_distribution </li></ul>
    46. 46. Función de densidad de probabilidades conjunta
    47. 47. Propiedades de la FDP conjunta bivariada
    48. 48. Propiedades de la FDP conjunta
    49. 49. Ejemplo FDP conjunta
    50. 50. Ejemplo FDP conjunta
    51. 51. Función de densidad de probabilidades marginal
    52. 52. Ejemplo: FDP marginal <ul><li>Suponiendo que la alimentación de los atletas que practican determinado deporte, esta dada por la función </li></ul><ul><li>Donde X representa la cantidad de proteínas y Y la cantidad de minerales que debe consumir un atleta. Determinar las funciones marginales de probabilidad </li></ul>
    53. 53. Ejemplo: FDP marginal
    54. 54. Definición general de FDP marginal
    55. 55. Ejemplo FDP marginal
    56. 56. FDP condicional
    57. 57. Propiedades de la FDP condicional
    58. 58. Ejemplo FDP condicional
    59. 59. FDP condicional
    60. 60. Media y varianza condicional <ul><li>Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x , el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. </li></ul><ul><li>Por lo tanto, si se sabe que X = x 0 , el valor pronosticado para Y estará dado por la media condicional de Y dado X = x 0 </li></ul>
    61. 61. Media y varianza condicional
    62. 62. Ejemplo media y varianza condicional
    63. 65. Independencia
    64. 66. Independencia
    65. 67. Independencia
    66. 68. Ejemplo independencia de FDPs
    67. 72. Función de distribución acumulada conjunta
    68. 73. Propiedades de las FDAs conjuntas
    69. 74. Relación entre las FDAs y FDPs conjuntas <ul><li>En el caso continuo, la densidad de probabilidad f XY ( x , y ) se obtiene derivando la función de probabilidad con respecto a sus argumentos: </li></ul>
    70. 75. El teorema de Bayes
    71. 76. Valor esperado
    72. 85. x
    73. 87. La mediana en varias dimensiones: el punto central (centerpoint) <ul><ul><li>La mediana se puede generalizar a datos en dos o más dimensiones. Dado un conjunto de puntos, cualquier hiperplano que contiene el punto central, divide a los puntos en dos partes aproximadamente iguales: la parte más pequeña debe tener a lo más 100/(d+1) por ciento de los puntos. Al igual que la media, el punto central no necesita ser uno de los puntos. </li></ul></ul><ul><ul><li>Ver http://en.wikipedia.org/wiki/Centerpoint_(geometry) </li></ul></ul>
    74. 88. Momentos para FDPs bivariadas
    75. 89. Valor esperado e independencia
    76. 90. Covarianza <ul><li>La covarianza es una medida de como dos variables aleatorias cambian juntas. </li></ul><ul><li>Se cumple que: </li></ul>
    77. 91. <ul><li>Dado un conjunto de números, la covarianza se puede estimar como: </li></ul><ul><li>NOTA: en ocasiones se utiliza como denominador . En este caso se suele denominar la cuasi-covarianza . </li></ul>
    78. 92. <ul><li>Otra manera de calcular la covarianza es </li></ul><ul><li>El cálculo a través de esta fórmula es mucho más rápido, ya que no se tiene que restar las medias de todos los datos. </li></ul>
    79. 93. Ejemplo covarianza <ul><li>FALTA </li></ul><ul><li>PONER MUCHOS DATOS Y HACER GRAFICO. INTERPRETAR EL SIGNO DE LA COVARIANZA </li></ul><ul><li>Conclusión: La covarianza es positiva si existe una relación (lineal) creciente y negativa si existe una relación decreciente. </li></ul>
    80. 94. Ejemplo 2 covarianza
    81. 95. Notas sobre la covarianza <ul><li>La covarianza es una medida de la variabilidad conjunta de dos variables aleatorias X e Y . De esta forma, la covarianza es una medida de asociación entre los valores de X y de Y y sus respectivas dispersiones. Si por ejemplo, se tiene una alta probabilidad de que valores positivos de X se encuentren asociados con valores positivos de Y , la covarianza será positiva. Por otro lado, si exite una alta probabilidad de que valores postivos de X se encuentren asociados con valores negativos de Y o viceversa, la covarianza será negativa. </li></ul>
    82. 96. Matriz de covarianza <ul><li>Si los elementos del vector columna </li></ul><ul><li>Son variables aleatorias, cada una con varianza finita, entonces, la matriz de covarianza Σ es la matriz cuyo elemento es la covarianza </li></ul><ul><li>Donde es el valor esperado de el elemento i del vector X </li></ul>
    83. 97. Matriz de covarianza <ul><li>Es decir, </li></ul><ul><li>En otras palabras, </li></ul>
    84. 98. Ejemplo matriz de covarianza
    85. 99. Covarianza en MATLAB <ul><li>La matriz de covarianza se calcula con el comando cov </li></ul>
    86. 100. Covarianza en MS EXCEL <ul><li>En MS EXCEL se calcula con el comando COVAR </li></ul>
    87. 101. <ul><li>La covarianza es una medida de la asociación lineal entre las variables aleatorias </li></ul><ul><li>Si la relación entre las variables aleatorias no es lineal, la covarianza podría ser no sensible a la relación </li></ul><ul><li>Sus dimensiones son: </li></ul><ul><li>dimensión de X por dimensión de Y </li></ul>
    88. 102. <ul><li>Si cov(X,Y) > 0 hay dependencia directa ( positiva ), es decir, a grandes valores de x corresponden grandes valores de y. </li></ul><ul><li>Si cov(X,Y) = 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas; en este caso se dice que las variables son no correlacionadas . </li></ul><ul><li>Si cov(X,Y) < 0 hay dependencia inversa o negativa , es decir, a grandes valores de x corresponden pequeños valores de y. </li></ul>
    89. 103. Covarianza e independencia <ul><li>Si X y Y son variables aleatorias independientes, </li></ul><ul><li>Lo contrario no es en general verdadero. </li></ul>
    90. 104. Propiedades de la covarianza <ul><li>Si X , Y , W y V son variables aleatorias reales y a , b , c y d son constantes, entonces: </li></ul>
    91. 105. <ul><li>Para secuencias y de variables aleatorias, se tiene que: </li></ul><ul><li>Para una secuencia de variables aleatorias, y constantes se tiene que para su combinación lineal: </li></ul>
    92. 108. Propiedades de la matriz de covarianza
    93. 109. Coeficiente de correlación <ul><li>La correlación indica la fuerza y dirección de una relación lineal entre dos variables aleatorias. </li></ul><ul><li>Esto se debe contrastar con el uso coloquial en el lenguaje, que denota cualquier relación, no necesariamente lineal. </li></ul><ul><li>Existen varios coeficientes que miden el grado de correlación: Pearson, Spearman, Kendall. </li></ul>
    94. 110. <ul><li>Observe que la correlación refleja la cantidad de ruido y dirección de una relación lineal (arriba), pero no la pendiente (medio) ni tampoco relaciones no lineales (abajo). </li></ul><ul><li>Nota: la figura en el centro tiene una correlación 0 porque var(Y)=0 (Y es constante) </li></ul>
    95. 111. Coeficiente de correlación de Pearson <ul><li>Nota: a pesar de su nombre, fue introducida por Francis Galton en 1880 </li></ul>
    96. 112. Coeficiente de correlación: motivación <ul><li>Si por ejemplo las unidades de la variable X son centimetros y las unidades de la variable Y son gramos, entonces las unidades de la covarianza son cm×g y si cambiamos la escala de las variables, cambia la covarianza. Esto hace que el valor de la covarianza sea difícil de interpretar. Una medida normalizada es la correlación. </li></ul>
    97. 113. Propiedades de la correlación <ul><li>Si dos variables aleatorias X y Y son independientes, entonces su correlación es 0. Lo contrario no siempre es verdad. </li></ul><ul><li>El coeficiente de correlación es una cantidad adimensional que toma un valor entre -1 y 1. </li></ul><ul><li>Si no existe una relación lineal entre las variables, el coeficiente de correlación es aproximadamente cero. </li></ul>
    98. 114. EJEMPLO COEF CORREL
    99. 115. Correlación en MATLAB
    100. 116. Correlación en MS EXCEL <ul><li>PEARSON Devuelve el coeficiente de correlación producto o momento r de Pearson, r, un índice adimensional acotado entre -1,0 y 1,0 que refleja el grado de dependencia lineal entre dos conjuntos de datos. </li></ul>
    101. 117. Correlación en MS EXCEL <ul><li>COEFICIENTE.R2 Devuelve el cuadrado del coeficiente de correlación de momento del producto Pearson mediante los puntos de datos de X y Y . El valor R cuadrado puede interpretarse como la proporción de la varianza de Y que puede atribuirse a la varianza de X . </li></ul>
    102. 118. Correlación en MS EXCEL <ul><li>COEF.DE.CORREL : devuelve el coeficiente de correlación entre dos rangos de celdas definidos por los argumentos matriz1 y matriz2. </li></ul>Observe que ambas funciones retornan los mismos valores
    103. 119. <ul><li>Dada la FPD mostrada, calcule la correlación y el coeficiente de variación de las variables aleatorias X y Y: </li></ul><ul><li>El problema será solucionado en MAXIMA </li></ul>
    104. 121. <ul><li>La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad </li></ul><ul><li>Se ha observado que en los últimos 300 años el número de piratas ha decrecido, sin embargo, ha habido un incremento en el calentamiento global. Conclusión (errónea): el calentamiento global es causado por la disminución de piratas. </li></ul>Cum hoc ergo propter hoc (&quot;juntamente con esto, luego a consecuencia de esto&quot;) http://xkcd.com/552/
    105. 122. <ul><li>Los niños que duermen con la luz encendida son más propensos a desarrollar miopía en la edad adulta. </li></ul><ul><li>Ésta fue la conclusión de un estudio del centro médico de la Universidad de Pensilvania, publicada el 13 de mayo de 1999 en la revista Nature , y que tuvo gran repercusión en la prensa de la época. Sin embargo, un posterior estudio de la Universidad Estatal de Ohio no encontró ningún enlace entre el hecho de que niños durmiendo con la luz encendida y el desarrollo de miopía, pero sí que encontró una fuerte relación entre la miopía parental y el desarrollo en los niños de este defecto, y también observó que los padres miopes tenían una mayor tendencia a dejar las luces encendidas en las habitaciones de sus hijos </li></ul>
    106. 123. <ul><li>Una investigación científica concluye que la gente que usa cannabis (A) tiene un mayor riesgo de desarrollar una enfermedad psiquiátrica. (B) </li></ul><ul><li>Esta correlación es a veces empleada para apoyar la teoría de que el uso de cannabis causa una enfermedad psiquiátrica (A es la causa de B). A pesar de que esto podría ser verdad, no podemos automáticamente percibir una relación causa-efecto de un estudio que sólo ha mostrado que aquellos que usan cannabis son más propensos a tener enfermedades psiquiátricas. De este mismo estudio se puede concluir que </li></ul><ul><ul><li>tener una predisposición a una enfermedad psiquiátrica causa el uso de cannabis (B causa A), o </li></ul></ul><ul><ul><li>que un tercer factor (por ejemplo, la pobreza) es la verdadera causa de haber encontrado un gran número de gente (comparado con el público en general) que usa cannabis y sufre un desorden mental. </li></ul></ul><ul><li>Asumir que A causa B es tentador, pero se necesita otra investigación científica que pueda aislar extrañas variables cuando la actual sólo ha determinado una correlación estadística. </li></ul>
    107. 124. FPD normal multivariada
    108. 125. FDP normal bivariada
    109. 127. FDP normal bivariada. Influencia del parámetro ρ XY
    110. 128. FDA normal bivariada
    111. 129. <ul><li>Insertar los programas de MATLAB con los que se hicieron los gráficos anteriores. </li></ul>
    112. 130. EJEMPLO FDP NORMAL <ul><li>FALTA </li></ul><ul><li>USAR MATLAB MVNPDF y MVNCDF </li></ul>
    113. 131. EJEMPLO 2
    114. 132. Notas con respecto a la FDP normal multivariada
    115. 133. <ul><li>Una cópula es una FDA multivariada, </li></ul><ul><li>Tal que todas sus funciones de distribución marginal son uniformes en el intervalo [0,1]. </li></ul>COPULAS
    116. 134. Teorema de Sklar
    117. 135. Funciones relaciones con cópulas en MATLAB <ul><li>copulacdf </li></ul><ul><li>copulapdf </li></ul><ul><li>copularnd </li></ul><ul><li>copulastat </li></ul><ul><li>copulaparam </li></ul><ul><li>copulademo </li></ul>
    118. 136. EJEMPLO <ul><li>http://en.wikipedia.org/wiki/Joint_probability_distribution </li></ul><ul><li>http://en.wikipedia.org/wiki/Marginal_distribution </li></ul><ul><li>http://en.wikipedia.org/wiki/Conditional_distribution </li></ul>

    ×