Your SlideShare is downloading. ×
0
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
03   Variable Aleatoria
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

03 Variable Aleatoria

13,134

Published on

Published in: Education, Technology
1 Comment
1 Like
Statistics
Notes
No Downloads
Views
Total Views
13,134
On Slideshare
0
From Embeds
0
Number of Embeds
6
Actions
Shares
0
Downloads
190
Comments
1
Likes
1
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide
  • subsection{Generalities on random variables} Let $(Omega,sigma_Omega,P_Omega)$ be a probability space and $(X,sigma_X)$ be a measurable space. A emph{random variable}index{random variable} $X$ is a $(sigma_Omega-sigma_X)$-measurable %footnote{A mapping $x$ is said to be $sigma_Omega-sigma_X$ emph{measurable} if and only if for all $A in sigma_X$, $x^{-1}(A) in sigma_Omega$} mapping egin{equation} X:Omega
    ightarrow D; omega mapsto X(omega). label{eq:randomvar} end{equation} This mapping can be used to generate a probability measure on $(X,sigma_X)$ such that the probability space $(X,sigma_X,P_X)$ is the mathematical description of the experiment as well as of the original probability space $(Omega,sigma_Omega,P_Omega)$. This mapping is given by $P_X = P_Omega circ X^{-1}$. This means that an event $F in sigma_X$ has the probability egin{align} P_X(F) & = P_Omega circ X^{-1}(F)\ & = P_Omega left(X^{-1}(F)
    ight)\ & = P_Omega left{omega : X(omega) in F
    ight} label{eq:PXA_PomeA} end{align} for $omega in Omega$. The benefit of mapping (1) arises when $(X,sigma_X)$ is a well characterized measurable space where mathematical tools such as Riemann integration are well defined. One of the most commonly used measurable spaces is $(mathbbm{R},mathscr{B})$, where $mathscr{B}$ is the Borel $sigma$-algebra on $mathbbm{R}$; in this case $X$ is called a emph{numerical random variable}. For example, according to the Kolmogorov axioms, the probability measure is additive, therefore, depending on whether we have a discrete or continuous random variables, it follows that, for $F in sigma_X$, egin{alignat}{2} P_X(F)& := sum_{omega in X^{-1}(F)} P_Omega({omega}) && qquad ext{(discrete case)} \ & = int_{X^{-1}(F)} dd P_Omega(omega) && qquad ext{(general case)} end{alignat} In the last case, $P_X(F)$ can also be written in terms of the expectation operation as egin{equation} P_X(F) = int_F dd P_X(x) = int_X Ileft[x in F
    ight] dd P_X(x) = E_Xleft[Ileft[x in F
    ight]
    ight] end{equation} where $xin X$, and $I$ stands for the emph{indicator function}, defined by, egin{equation} I[cdot] = egin{cases} 1 & ext{if } cdot ext{ is true} \ 0 & ext{if } cdot ext{ is false} \ end{cases} end{equation}
  • x = 20:180; fiq = normpdf(x,100,15); n = 1e5; iq = normrnd(100,15,n,1); figure; i = 0; for N = [10 25 40 60 100] [nn,xout] = hist(iq,N); nn = nn./sum((xout(2)-xout(1))*nn); i = i+1; subplot(2,3,i); bar(xout,nn,'hist'); hold on; plot(x,fiq,'r','LineWidth',1); title(sprintf('clases = %d',N),'FontSize',18); end; subplot(2,3,6); plot(x,fiq,'r','LineWidth',3); title('Función de densidad de probabilidades');
  • Propiedad de optimalidad The median is also the central point which minimizes the average of the absolute deviations; in the example above this would be (1 + 0 + 0 + 0 + 1 + 7) / 6 = 1.5 using the median, while it would be 1.944 using the mean. In the language of probability theory, the value of c that minimizes E(left|X-c
    ight|), is the median of the probability distribution of the random variable X. Note, however, that c is not always unique, and therefore not well defined in general. [edit] An inequality relating means and medians For continuous probability distributions, the difference between the median and the mean is less than or equal to one standard deviation. See an inequality on location and scale parameters. Ver: http://en.wikipedia.org/wiki/An_inequality_on_location_and_scale_parameters
  • Transcript

    • 1. 03 – Variables aleatorias y distribuciones de probabilidad <ul><ul><li>Diego Andrés Alvarez Marín </li></ul></ul><ul><ul><li>Profesor Asistente </li></ul></ul><ul><ul><li>Universidad Nacional de Colombia </li></ul></ul><ul><ul><li>Sede Manizales </li></ul></ul>
    • 2. Contenido <ul><li>Variables aleatorias discretas: función de probabilidad y de distribución </li></ul><ul><li>Variables aleatorias continuas: función de densidad y de distribución </li></ul><ul><li>Características de las variables aleatorias: valor esperado, varianza </li></ul><ul><li>Aplicación práctica, representaciones </li></ul>
    • 3. Variable aleatoria <ul><li>Sea Ω un espacio muestral. Una función </li></ul><ul><li>se conoce como variable aleatoria (random variable en inglés) </li></ul><ul><li>Nota: la definición real es en verdad algo más complicada. Ver: http://en.wikipedia.org/wiki/Random_variable#Formal_definition </li></ul>
    • 4. <ul><li>La variable aleatoria transforma los resultados del espacio muestral en cantidades numéricas. </li></ul><ul><li>La letra mayúscula X denota la función (la variable aleatoria). </li></ul><ul><li>La letra minúscula x denota el valor que toma la variable aleatoria, es decir, x=X( ω ) </li></ul><ul><li>Observe que una “variable” aleatoria NO es una variable como tal sino que es una función </li></ul>
    • 5. Lanzamientos de dos dados X denota la suma de los resultados de las dos caras Valor de la variable aleatoria
    • 6. <ul><li>Una variable aleatoria X es discreta si D tiene una cardinalidad finita o infinita contable (es decir si los elementos de D se pueden poner en una correspondencia uno a uno con los números naturales) </li></ul><ul><li>Una variable aleatoria X es continua si D tiene una cardinalidad infinita no contable, es decir si D está formado por intervalos de la recta real </li></ul>
    • 7.  
    • 8.  
    • 9. Eventos definidos por la variable aleatoria X: Ω-> R
    • 10. Descripción probabilista de las variables aleatorias <ul><li>Las variables aleatorias discretas se describen mediante: </li></ul><ul><ul><li>Función de Masa de Probabilidades (FMP) </li></ul></ul><ul><ul><li>Función de Distribución de Acumulada (FDA) </li></ul></ul><ul><li>Las variables aleatorias continuas se describen mediante: </li></ul><ul><ul><li>Función de Densidad de Probabilidades (FDP) </li></ul></ul><ul><ul><li>Función de Distribución de Acumulada (FDA) </li></ul></ul>
    • 11. Función de Masa de Probabilidades Definición matemática
    • 12. Función de Masa de Probabilidades <ul><li>Una función de masa de probabilidades (FMP) es una funcion que dice la probabilidad que una variable aleatoria discreta tome exactamente un valor. </li></ul>Una FMP. Observe que todos los valores de esta función son no-negativos y suman 1. Una FMP de un dado equilibrado. Todos los números en el dado tienen igual probabilidad de aparecer.
    • 13. Graficando FMPs en MATLAB
    • 14. Propiedades de la FMP <ul><li>Las FMP deben satisfacer las siguientes propiedades: </li></ul>
    • 15. La función Delta de Dirac
    • 16. Representación de una FMP utilizando Deltas de Dirac
    • 17. Ejemplo <ul><li>Para verificar la calidad de un lote de cilindros de concreto, un ingeniero extrae al azar 3 muestras. Suponiendo que la probabilidad que el cilindro no cumpla las especificaciones es del 10%, cual es la probabilidad que: </li></ul><ul><li>a) los tres cilindros cumplan con las especificaciones </li></ul><ul><li>b) sólo dos cilindros cumplan con las espeficicaciones </li></ul><ul><li>c) sólo un cilindro cumpla con las espeficicaciones </li></ul><ul><li>d) ninguno de los cilindros cumpla con las especificaciones </li></ul>
    • 18. <ul><li>s – cilindro que cumple con las especificaciones </li></ul><ul><li>n – cilindro que NO las cumple </li></ul><ul><li>P( s ) = p P( n ) = 1- p </li></ul><ul><li>P[0 OK] = ( n,n,n ) = (1- p )(1- p )(1- p ) = (1- p ) 3 </li></ul><ul><li>P[1 OK] = ( n,n,s )+( n,s,n )+( s,n,n ) = 3(1- p ) 2 p </li></ul><ul><li>P[2 OK] = ( n,s,s )+( s,s,n )+( s,n,s ) = 3 p 2 (1- p ) </li></ul><ul><li>P[3 OK] = ( s,s,s ) = p 3 </li></ul>FMP binomial
    • 19. <ul><li>En el caso del ejemplo p = 0.90, siendo la FMP: </li></ul><ul><ul><li>P[0 OK] = (1- p ) 3 = (0.1) 3 = 0.001 </li></ul></ul><ul><ul><li>P[1 OK] = 3(1- p ) 2 p = 3 (0.1) 2 x 0.9 = 0.027 </li></ul></ul><ul><ul><li>P[2 OK] = 3 p 2 (1- p ) = 3 (0.9) 2 x 0.1 = 0.243 </li></ul></ul><ul><ul><li>P[3 OK] = p 3 = (0.9) 3 = 0.729 </li></ul></ul>
    • 20. <ul><li>En la práctica de control de calidad, el ingeniero debe tomar la decisión acerca de si el material se encuentra dentro de las especificaciones o no basado en una observación de dos muestras malas en una muestra de tamaño tres. Suponiendo que el material es satisfactorio, la probabilidad de tal suceso es muy pequeña (2,7%), y por lo tanto, el ingeniero decidirá usualmente que el material no cumple con las especificaciones. </li></ul>
    • 21. Ejemplo lanzamiento de una moneda <ul><li>¿Cuántas veces se debe lanzar una moneda para obtener caras? </li></ul><ul><li>1 – C P(C) = 0.5 </li></ul><ul><li>2 – SC P(SC) = 0.5 2 </li></ul><ul><li>3 – SSC P(SSC) = 0.5 3 </li></ul><ul><li>4 – SSSC P(SSSC) = 0.5 4 </li></ul><ul><li>... ... </li></ul><ul><li>n – S...SSC P(S...SSC) = 0.5 n </li></ul>se extiende hasta el infinito n-1 veces
    • 22. Ejemplo http://en.wikipedia.org/wiki/Geometric_series
    • 23.  
    • 24. Función de Densidad de Probabilidades (FDP)
    • 25. Intelligence quotient IQ μ =100, σ =15
    • 26. Motivación <ul><li>Las FDPs se pueden entender como el límite de un histograma cuando el ancho de cada subintervalo tiende a cero. </li></ul><ul><li>Cuando la altura de una persona es 172 cm, es lógico entender como [171.5 cm, 172.5 cm]; por lo tanto, en el caso continuo es más lógico visualizar las probabilidades de intervalos que de un punto en particular. </li></ul>
    • 27. Interpretación de la FDP <ul><li>La FDP f X del caso continuo se debe entender de forma diferente a la FMP p X del caso discreto: </li></ul><ul><ul><li>Con las FMPs, la probabilidad que x tome un valor específico puede ser diferente de cero. </li></ul></ul><ul><ul><li>Con las FDPs, la probabilidad que x tome un valor específico x es cero. </li></ul></ul><ul><li>Por lo tanto, la FDP no representa la probabilidad que X=x . Mas bien proporciona un medio para determinar la probabilidad de un intervalo a ≤ X ≤ b. </li></ul>
    • 28. Interpretación de la FDP <ul><li>El valor de f X ( x ) solo es una medida de la densidad o intensidad de la probabilidad en el punto x . </li></ul>
    • 29. Interpretación de la FDP <ul><li>El valor de f X ( x ) solo es una medida de la densidad o intensidad de la probabilidad en el punto x . </li></ul>Colas de la FDP menos frecuencia más frecuencia
    • 30. Función de Distribución Acumulada (FDA)
    • 31. FDA de una función de masa de probabilidades (FMP) FDA de una función de densidad de probabilidades continua FDA de una función de densidad de probabilidades que tiene un componente continuo y una parte discreta.
    • 32. Continuidad por la derecha y por la izquierda Función continua por la derecha Función continua por la izquierda
    • 33. Función de Distribución Acumulada (FDA)
    • 34. Función de Distribución Acumulada (FDA)
    • 35. FMP vs FDA
    • 36. Ejemplo: FMP y FDA uniforme discreta
    • 37. Ejemplo: FDA discreta (Poisson) P(X ≤ k) k λ>0 representa el número esperado de ocurrencias durante un intervalo dado de tiempo. Por la FDA del evento que lleguen k clientes a un banco dado que en promedio llegan λ=1, 4 y 10 clientes/minuto se muestra a continuación:
    • 38. FDP vs FDA
    • 39. FDP vs FDA
    • 40.  
    • 41. Ejemplo
    • 42. Continuación ejemplo
    • 43. Función de distribución de probabilidades empírica
    • 44. Función de distribución de probabilidades empírica
    • 45. El comando disttool del toolbox de estadística de MATLAB Dicho comando es extremadamente útil para explorar la forma de las FDPs y FDAs
    • 46. Variables aleatorias mixtas <ul><li>La variable aleatoria puede ser a la vez discreta y continua, es decir asume valores puntuales con una probabilidad diferente de cero, al igual que valores por intervalos. Este es el caso de ensayo de equipos, donde X es el tiempo de funcionamiento del equipo, existe una probabilidad de que el artículo no funcione del todo, falla en el tiempo X = 0; ó también cuando Y es la variable aleatoria que representa la demora de un motorista al hacer un pare obligatorio, existe una probabilidad de que no haya tráfico y el motorista no tenga demora X = 0, sí tiene que esperar, lo debe hacer por un tiempo continuo. </li></ul>
    • 47. Variables aleatorias mixtas g(x)
    • 48. Variables aleatorias mixtas
    • 49.  
    • 50. Ejemplo 2: variables aleatorias mixtas
    • 51.  
    • 52.  
    • 53. FDP truncada <ul><li>http://en.wikipedia.org/wiki/Truncated_distribution </li></ul>
    • 54. FDP condicional <ul><li>Suponga que estamos interesados en la distribución de la demanda o carga X dado que sea mayor que algún valor de umbral x 0 . </li></ul><ul><li>HACER GRAFICO FDP truncada </li></ul>
    • 55. FDP de una función g ( X )
    • 56. FDP a partir de observaciones <ul><li>Kernel smoothing methods (tambien llamado ventanas de Parzen (Parzen windows). El comando de MATLAB asociado es ksdensity . </li></ul>Ver: http://en.wikipedia.org/wiki/Kernel_density_estimation
    • 57. FDP a partir de observaciones <ul><ul><li>Existen otro métodos basados en la utilización de polinomios ortogonales de Legendre. Ver por ejemplo: </li></ul></ul><ul><ul><li>X.B. Li y F.Q. Gong ( 2009 ). A method for fitting probability distributions to engineering properties of rock masses using Legendre orthogonal polynomials . Structural Safety. Volume 31, Issue 4, July 2009, Pages 335-343 </li></ul></ul>Applying the Gram-Schmidt process to the functions 1, x, x^2, ... on the interval [-1,1] with the usual L^2 inner product gives the Legendre polynomials
    • 58. Valor esperado de una variable aleatoria <ul><li>El valor promedio de una variable aleatoria después de un número grande de experimentos es su valor esperado . </li></ul><ul><li>Se dice valor esperado ( expected value ) o también esperanza matemática ( mathematical expectation ) </li></ul>
    • 59. Valor esperado de una variable aleatoria
    • 60. Valor esperado de una variable aleatoria <ul><li>Ver: </li></ul><ul><ul><li>http://en.wikipedia.org/wiki/Riemann-Stieltjes_Integration </li></ul></ul><ul><ul><li>http://en.wikipedia.org/wiki/Cauchy_distribution </li></ul></ul>
    • 61. Ejemplo: valor esperado <ul><li>El valor esperado no necesariamente toma un valor que pudiera tomar la variable aleatoria. </li></ul>
    • 62. Paradoja de San Petersburgo http://en.wikipedia.org/wiki/St._Petersburg_paradox
    • 63. Paradoja de San Petersburgo http://en.wikipedia.org/wiki/St._Petersburg_paradox
    • 64. Valor esperado VA uniforme continua
    • 65. Valor esperado VA exponencial
    • 66. Propiedades del valor esperado
    • 67. Propiedades del valor esperado <ul><li>Valor esperado de una constante: </li></ul><ul><li>Desigualdades: </li></ul>
    • 68. Interpretación del valor esperado <ul><li>El término “valor esperado” no debe entenderse como el valor más probable. </li></ul><ul><li>El valor esperado se debe entender como el valor promedio que toma la variable aleatoria después de efectuar muchos experimentos independientemente. </li></ul><ul><li>El valor esperado se puede asociar al centro de gravedad de la FDP. </li></ul>
    • 69. Importancia práctica del valor esperado <ul><li>En un problema físico, en que un fenómeno tiene como modelo una variable aleatoria, generalmente el número más significativo que el ingeniero puede obtener es el valor medio de esa variable; es una medida de la tendencia central de la variable y muchas veces, si se van a hacer observaciones repetidas del fenómeno, del valor alrededor del cual se pude esperar la dispersión. La media muestral de muchas de tales observaciones estará con alta probabilidad muy cerca a la media de la variables aleatoria fundamental. </li></ul>
    • 70. Valor esperado de una función g ( X )
    • 71. Valor esperado de una función g ( X ) <ul><li>Tenga en cuenta que </li></ul><ul><li>Otra propiedad del valor esperado es: </li></ul>
    • 72. Ejemplo: valor esperado de g ( X )
    • 73. Esperanza condicional
    • 74. Ejemplo 1 esperanza condicional
    • 75. Ejemplo 2 esperanza condicional
    • 76. Momentos de una variable aleatoria <ul><li>Los momentos de una variable aleatoria X son los valores esperados de ciertas funciones de X . Estas forman una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarla si todos los momentos de X son conocidos. A pesar de que los momentos de X pueden definirse alrededor de cualquier punto de referencia, generalmente se definen alrededor del cero ( momentos no centrales ) o del valor esperado de X ( momentos centrales ). </li></ul>
    • 77. Momentos no centrales
    • 78. Momentos centrales
    • 79. Algunos momentos centrales
    • 80. Media cuadrática VA uniforme continua
    • 81. Media cuadrática VA exponencial
    • 82. Notas sobre los momentos <ul><li>Tenga en cuenta que todas las proposiciones anteriores con respecto a los momentos se encuentra sujetas a la existencia de las sumas o integrales que las definan. </li></ul><ul><li>El uso de los momentos de una variable aleatoria para caracterizar a la FDA es útil especialmente en un medio en el que el experimentador conozca la FDA. </li></ul>
    • 83. Varianza <ul><li>La varianza es una medida de la dispersión de una variable aleatoria. </li></ul>
    • 84. Varianza <ul><li>La varianza es una medida de la dispersión de una variable aleatoria. </li></ul>
    • 85. Relacionando la varianza con la media y la media cuadrática
    • 86. Un dado perfecto
    • 87. Varianza FDP exponencial
    • 88. Varianzas <ul><li>Uniforme </li></ul><ul><li>Exponencial </li></ul>
    • 89. Propiedades de la varianza
    • 90.  
    • 91. Notas sobre la varianza <ul><li>Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2. </li></ul>
    • 92. Ley de la esperanza total
    • 93. Ley de la varianza total
    • 94. Coeficiente de variación (C.O.V.) <ul><li>Es una medida normalizada de la dispersión, utilizada en control de calidad. Está definida por: </li></ul><ul><li>Está definida para valores positivos de μ. </li></ul><ul><li>Es útil porque la desviación estándar se debe entender siempre en contexto con la media. Como no tiene dimensión, sirve para comparar dispersiones de datos con medias diferentes </li></ul><ul><li>Es sensitiva a pequeños cambios en la media cuando esta se acerca a cero, limitando su utilidad. </li></ul><ul><li>NOTA: No confundir con la covarianza </li></ul>
    • 95. Coeficiente de asimetría (skewness) g1 < 0 distribución asimétrica negativamente g1 > 0 distribución asimétrica positivamente
    • 96. Coeficiente de apuntalamiento (curtosis)
    • 97. Desigualdad de Chebyshev
    • 98. Otras medidas de tendencia central y dispersión <ul><li>La media de una variable aleatoria es generalmente la medida preferida de tendencia central. Sin embargo, en algunas situaciones la mediana y en menor grado la moda, pueden ser mediadas de tendencia central mucho más apropiadas. Por ejemplo, en distribuciones unimodales cuya asimetría es grande, el valor esperado de la variable aleatoria puede verse afectado por los valores extremos de la distribución, mientras que la mediana no lo estará. </li></ul>
    • 99. Relación entre la media, la mediana y la moda en distribuciones unimodales
    • 100. Mediana de una FMP/FDP
    • 101. Cuantil de una FMP/FDP <ul><li>Algunos cuartiles: </li></ul><ul><ul><li>- Percentil q = 0.01 </li></ul></ul><ul><ul><li>- Decil q = 0.10 </li></ul></ul><ul><ul><li>- Cuartil q = 0.25 </li></ul></ul><ul><ul><li>- Mediana q = 0.50 </li></ul></ul>
    • 102. Moda de una FMP/FDP
    • 103. Otras medidas de dispersión

    ×