Your SlideShare is downloading. ×
0
INTRODUCCIÓN A LA PROBABILIDAD
                   Y EL CONTEO


Los métodos estadísticos se utilizan para tomar decisiones...
evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el

evento, si la probabilidad es cercana ...
Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento

impide la presencia del otro.

PERMUTAC...
El principio de multiplicación es la primera opción que deberíamos tomar cuando se

tenga un problema que incluye un orden...
La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y

el clásico, permiten la asignación ...
ALGUNAS LEYES DE PROBABILIDAD



AXIOMAS DE PROBABILIDAD



Las definiciones son los términos técnicos del sistema y los a...
Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que

hace la probabilidad.




La regla general...
Definición (probabilidad condicional). Sean A1 y A2 eventos
                             [        ]
                  tale...
En este caso recibir la información de que ocurrió el evento A1 no tiene efecto

alguno en la probabilidad asignada al eve...
LA REGLA DE LA MULTIPLICACIÓN



La regla de la multiplicación es otra forma de calcular la probabilidad de que

ocurran s...
a) Que llueva: probabilidad del 50%.

b) Que nieve: probabilidad del 30%

c) Que haya niebla: probabilidad del 20%.

Según...
La probabilidad de que efectivamente estuviera lloviendo el día del accidente

(probabilidad a posteriori) es del 71,4%.

...
DISTRIBUCIONES DISCRETAS

Las distribuciones discretas son aquellas en las que la variable puede pude

tomar un número det...
Una variable aleatoria no es discreta cuando se pregunta              “¿Cuáles son los

valores posibles de la variable?” ...
DISTRIBUCIÓN ACUMULATIVA



Esta función suma o acumula las probabilidades calculadas por medio de la

densidad.




     ...
En el caso especial de que H(X)=X, el valor esperado de X se obtiene por:




                                 Valor esper...
VARIANZA Y DESVIACIÓN ESTÁNDAR



∗ La media es una medición del centro de localización de la distribución.



∗ La varian...
∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la

  varianza



  La desviación estándar es una m...
La distribución de probabilidad de este tipo de distribución sigue el siguiente

modelo:


                               ...
DISTRIBUCIÓN BINOMIAL NEGATIVA



La distribución binomial negativa es una distribución de probabilidad discreta.

La dist...
Reemplazo y sin considerar su orden, e un conjunto de N objetos.

   -   De los N objetos, solo r posee el rasgo que inter...
Donde explicándolo con el experimento dado:


N: es el número total de bolas en la urna


N1=>r: es el número total de bol...
DISTRIBUCIÓN DE POISSON



La distribución de Poisson parte de la distribución binomial:

Cuando en una distribución binom...
Como la probabilidad quot; p quot; es menor que 0,1, y el producto quot; n * p quot; es menor

que 10, entonces aplicamos ...
DISTRIBUCIONES CONTINUAS




Las distribuciones continuas son aquellas que presentan un número infinito de

posibles soluc...
valor central que coincide con el valor medio de la

distribución:




Un 50% de los valores están a la derecha de este va...
DISTRIBUCIÓN NORMAL ESTÁNDAR


Hay un número ilimitado de distribuciones de probabilidad normal, aunque

afortunadamente  ...
Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una

distribución de frecuencias sesgadas. Las p...
0 < c < d <α


                 donde


                                d   y α −1 e − y / β
                            ∫...
−y/β
                                     1
                          f ( y) =       e
                                   ...
DESIGUALDADES DE CHEBYSHEV



Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de

una distribució...
Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de

Weibull.   Esta distribución se aplica e...
DISTRIBUCIONES CONJUNTAS


Para resolver problemas en los que intervienen simultáneamente 2 variables es
necesario estudia...
El propósito de la densidad es el cálculo de la probabilidad de que la variable
aleatoria (X,Y) asuma valores específicos....
A través de la distribución conjunta, podremos encontrar la función de
probabilidad condicional de la otra variable, condi...
Cov(X,Y) = E[(X - µX)(Y - µY)]

                              Cov(X,Y) = E[XY]-E[X]E[Y]

Si la Cov(x,y) es positiva si los...
Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más
altas suelen pesar más que las más bajas, ...
explica la “nota de examen” y no al contrario, pues el alumno primero estudia un
tiempo que puede decidir libremente, y lu...
ESTADISTICA DESCRIPTIVA


La estadística descriptiva es el conjunto de técnicas diseñadas para recoger,

organizar, resumi...
Cualitativas o atributos. Son las que expresan cualidades de los individuos y no
toman valores numéricos (color de ojos, a...
Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias

relativas.

Se puede dar que el porcenta...
♣ Seleccionar  los límites de clase, que definirán los intervalos y la longitud de
  los mismos. Las observaciones se debe...
Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable
x. A la media aritmética de estos valores se ...
Puesto que la varianza muestral no tiene las mismas unidades que los datos, se
define la desviación típica muestral.

Desv...
Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy
afectadas por los datos atípicos.
El rango interc...
Histogramas

Un histograma es una representación gráfica de los datos contenidos en una
tabla de frecuencias de variables ...
Diagrama de tallo y hojas

                 1   02409211435
                 2   02723411
                 3   310
       ...
La línea central indica la simetría de la distribución. Si la línea no está
centrada la distribución será asimétrica en la...
ESTIMACIÓN


ESTIMACIÓN DE PARÁMETROS


La teoría de muestreo puede emplearse para obtener información acerca de
muestras ...
La estimación es un proceso por el que se trata de averiguar un parámetro de

la población representado por una muestra, a...
INTERVALO DE CONFIANZA


Se llama así a un intervalo en el que sabemos que está un parámetro, con un

nivel de confianza e...
Una propiedad importante de un estimador es su varianza (o su raíz cuadrada,

la desviación estándar).

La importancia de ...
Ejemplo:

Un fabricante indica que una resistencia de 1 K Ω tiene una precisión de ± 0.5,

el fabricante esta dando una es...
Upcoming SlideShare
Loading in...5
×

Estadistica Diana

7,833

Published on

Introducción a la estadistica y
probabilidad

Published in: Travel, Business
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
7,833
On Slideshare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
295
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Transcript of "Estadistica Diana"

  1. 1. INTRODUCCIÓN A LA PROBABILIDAD Y EL CONTEO Los métodos estadísticos se utilizan para tomar decisiones basadas en el análisis de datos recopilados en experimentos de diseño minucioso. Puesto que la ciencia experimental no puede tener en cuenta toda posible contingencia, siempre habrá algo de incertidumbre, los métodos estadísticos sirven para evaluar el grado de incertidumbre de los resultados. Se los ha clasificado en tres categorías: ∗ Estadística descriptiva_ mediante técnicas analíticas y graficas ésta describe o representa visualmente un conjunto de datos. ∗ Estadística inferencial_ los métodos de la estadística inferencial permiten establecer conclusiones acerca de un gran grupo de objetos, observando solo una porción de objetos del grupo. De lo anterior, se denomina población al grupo total de objetos de los que se obtiene conclusiones; y muestra a una parte o subconjunto de la población que se obtiene y se usa para extraer las conclusiones de dicha población. ∗ Construcción de modelos_ desarrolla ecuaciones predictivas a partir de datos experimentales. INTERPRETACIÓN DE LAS PROBABILIDADES La probabilidad es un número entre 0 y 1 que indica cuan factible es que ocurra un
  2. 2. evento, si la probabilidad es cercana a 1 indica que es muy factible que ocurra el evento, si la probabilidad es cercana a 0 indica que poco factible que el evento ocurra, en ambos casos no signifique que el evento ocurrirá o no ocurrirá sino que se trata de un evento común en el primer caso y un evento poco usual en el segundo caso. Si la probabilidad es cercana a 1/2 indica que es igualmente factible que el evento ocurra o no. Para interpretar las probabilidades una vez que se conocen, se utilizan tres métodos: ∗ El enfoque personal_ asigna una probabilidad al evento en base a la opinión personal informada, la desventaja es que la precisión de la asignación depende de la exactitud de la información disponible y la capacidad de evaluar de manera correcta esa información ∗ El de frecuencia relativa_ se basa en la experimentación y observación repetidas, la desventaja es que el evento debe ser susceptible de repetirse, toda probabilidad obtenida de esta forma es una aproximación ∗ El clásico_ éste método puede usarse solamente cuando los posibles resultados del experimento son igualmente probables ESPACIOS MUESTRALES Y EVENTOS El primer paso en el análisis de muchos experimentos es elaborar una lista de todos los posibles resultados del experimento, llamada espacio muestral, Uno de los sistemas para desarrollar el espacio muestral a medida que aumenta el número de posibilidades es el diagrama de árbol. Evento_ (en sentido matemático) se denomina así a todo subconjunto de un espacio muestral.
  3. 3. Eventos mutuamente excluyentes_ se denominan así porque la presencia de un evento impide la presencia del otro. PERMUTACIONES Y COMBINACIONES A medida que el experimento se torna más complejo las listas y árboles se vuelven inmanejables, por esto se requiere métodos de conteo alternos. Dos tipos comunes de problemas de conteo son el de permutaciones y el de combinaciones. Una permutación es un arreglo de objetos en un orden determinado. Una combinación es una selección de objetos sin orden alguno. Conteo de permutaciones Si se tiene un problema cuyo orden es de total importancia, se pregunta cuántas permutaciones o arreglos de los objetos dados son posibles, es usual que la respuesta se la obtenga con el principio de multiplicación. El principio de multiplicación_ mediante este principio se obtiene el número total de las formas en que puede ocurrir un evento, se usa en la resolución de problemas de permutación. La fórmula para calcular el número de permutaciones de n objetos distintos, de los cuales se toman r objetos en un momento dado, se expresa en el siguiente teorema: Teorema. El numero de permutaciones de n objetos distintos, de los cuales se toman r a la vez, denotados con n Pr n! Pr = (n − r )! n
  4. 4. El principio de multiplicación es la primera opción que deberíamos tomar cuando se tenga un problema que incluye un orden, natural o impuesto. Conteo de combinaciones Los problemas de conteo en que la atención se centra en situaciones en las que el orden es irrelevante, son problemas de combinaciones Teorema. El numero de combinaciones de n objetos distintos, de los cuales se seleccionan r a la vez, denotados con n C r o  n  , esta dado por:   r   n n! n Cr =   =  r  r!(n − r )!   Para distinguirse entre combinaciones y permutaciones y permutaciones debe buscarse las palabras claves “seleccionar” y “ordenar”, la primera indica que es un problema de combinaciones, y la segunda que se busca una permutación. Permutaciones de objetos que no se diferencian Las permutaciones de objetos que no se diferencian analizan problemas de permutaciones en las que es inevitable la repetición, y responde a la pregunta de cuántos ordenamientos distintos de n objetos son posibles si algunos de los objetos son idénticos y por lo tanto no se puede diferenciarlos La formula general del número total de ordenamientos distintos de estos objetos esta dada por: Permutaciones de objetos que no se diferencian n! n = n1 + n2 + ... + nk n1!n2 !..n K !
  5. 5. La estadística mediante sus métodos: el enfoque personal, el de frecuencia relativa y el clásico, permiten la asignación de una probabilidad frente a una situación en la que haya incertidumbre en la respuesta que se desea obtener. Se puede interpretar el comportamiento de sucesos que se estén estudiando mediante el análisis de los métodos estadísticos. Se puede construir modelos en base a los resultados obtenidos. Para obtener las probabilidades que puede tener un problema expuesto es necesario, dadas las características del problema, determinar que enfoque probabilístico se va a utilizar para responder esta pregunta. La probabilidad del enfoque de la frecuencia relativa es una aproximación, con un número de ensayos altos pude llegar a ser muy precisa la probabilidad aproximada. Las permutaciones y combinaciones son métodos de conteo alternos cuando no se puede calcular la probabilidad con los métodos anteriores. Con el conteo de permutaciones es posible responder cuantos arreglos de los objetos dados son posibles. Con el conteo de combinaciones es posible responder cuantas selecciones de los objetos dados son posibles con no importa el orden en que se den. Con las permutaciones de objetos que no se diferencian es posible responder cuantos ordenamientos distintos de n objetos son posibles si algunos de los objetos no se pueden diferenciar.
  6. 6. ALGUNAS LEYES DE PROBABILIDAD AXIOMAS DE PROBABILIDAD Las definiciones son los términos técnicos del sistema y los axiomas son afirmaciones que se suponen verdaderas y que por lo tanto no necesitan comprobación. Axiomas de probabilidad 1. Sea S el espacio muestral de un experimento P[S ] = 1 2. P[ A] ≥ 0 con cualquier evento A 3. Sean A1, A2, A3,... es una colección finita o infinita de eventos mutuamente excluyentes. Entonces, P[A1 ∪ A2 ∪ A3 ⋅ ⋅ ⋅] = P[ A1 ] + P[ A2 ] − P[ A3 ] + ⋅ ⋅ ⋅ El axioma 1 expresa que la probabilidad asignada a un evento cierto es S es 1 El axioma 2 expresa que la probabilidades solo valores positivos El axioma 3 afirma que cuando hay eventos mutuamente excluyentes, la probabilidad de que ocurra por lo menos uno de ellos es la suma de las probabilidades de esos eventos.
  7. 7. Por lo tanto una base hecha sobre axiomas y teoremas define lo que es y lo que hace la probabilidad. La regla general de la adición La regla de adición permite calcular la probabilidad de que al menos uno de los dos eventos tenga lugar cuando no sean por necesidad mutuamente excluyentes. La regla de adición relaciona a las operaciones de unión e intersección. Regla general de la adición P[A1 ∪ A2 ] = P[ A1 ] + P[ A2 ] − P[A1 ∩ A2 ] Si se conoce P[A1 ∩ A2 ] , es posible usar la regla de adición para calcular P[A1 ∪ A2 ] PROBABILIDAD CONDICIONAL La probabilidad condicional sirve para determinar la probabilidad de que ocurra el evento A2 “condicionado” al supuesto de que ha tenido lugar otro evento, A1. “si” y “dado que” son palabras claves que identifican una pregunta condicional.
  8. 8. Definición (probabilidad condicional). Sean A1 y A2 eventos [ ] tales que P A2 A1 y se define con la fórmula siguiente P[ A1 ∩ A2 ] P[A2 A1 ] = P[ A1 ] Donde P[ A1 ] es la probabilidad de que ocurra el evento dado y P[ A1 ∩ A2 ] la probabilidad de que tengan lugar tanto el evento dado como el evento en cuestión Ejemplo: se tira un dado y sabemos que la probabilidad de que salga un 2 es 1/6. Si incorporamos nueva información (por ejemplo, alguien nos dice que el resultado anterior ha sido un número par) entonces la probabilidad de que el resultado sea el 2 ya no es 1/6 sino un 1/3 aplicando la definición de probabilidad condicional INDEPENDENCIA Y LA REGLA DE LA MULTIPLICACIÓN Definición (eventos independientes). Los eventos A1 y A2 son independientes si y sólo si P[A1 ∩ A2 ] = P[A1 ]P[A2 ] Esta definición es útil para calcular la probabilidad de que ocurran dos eventos cuando son claramente independientes.
  9. 9. En este caso recibir la información de que ocurrió el evento A1 no tiene efecto alguno en la probabilidad asignada al evento A2 Este teorema sirve para comprobar la independencia entre dos eventos Teorema. Sean A1 y A2 eventos tales que por lo menos P[ A1 ] o P[A2 ] difieren de cero. A1 y A2 son independientes si y sólo si: P[A2 A1 ] = P[ A2 ] si P[A1 ] ≠ 0 y P[A2 A1 ] = P[ A1 ] si P[ A2 ] ≠ 0 Esta definición tiene el propósito de servir como forma de cálculo de la probabilidad de que ocurra una serie de eventos supuestamente independientes Definición. Sea C = {Ai : i = 1,2,⋅ ⋅ ⋅, n} un conjunto finito de eventos. Estos eventos son independientes si y sólo si dado cualquier subconjunto A(1) , A(2 ) ,⋅ ⋅ ⋅, A(m ) de elementos de C: [ ] [ ][ ] [ ] P A(1) ∩ A(2 ) ∩ ⋅ ⋅ ⋅ ∩ A(m ) = P A(1) P A(2 ) ⋅ ⋅ ⋅ P A(m ) Para usar la definición anterior hay que tener la certeza de que es razonable suponer que los eventos son independientes antes de aplicarla al calculo de la probabilidad de que ocurra una serie de eventos. Ejemplo: la probabilidad de que al tirar una moneda salga cara (suceso B), condicionada a la probabilidad de que haga buen tiempo (suceso A), es igual a la propia probabilidad del suceso B.
  10. 10. LA REGLA DE LA MULTIPLICACIÓN La regla de la multiplicación es otra forma de calcular la probabilidad de que ocurran simultáneamente dos eventos si no son independientes. Regla de la multiplicación P[A1 ∩ A2 ] = P[A2 A1 ]P[ A1 ] TEOREMA DE BAYES Teorema (teorema de Bayes). Sean A1 , A2 , A3 , ... , An un conjunto de eventos mutuamente excluyentes, cuya union es S Sea B eventos tal que P[B ] ≠ 0 Entonces, para cualquier evento Aj,con j = 1,2,3,...,n, se tiene que: [ P Aj B =] [ ][ ] P B Aj P Aj ∑ P[B A ]P[A ] n i i i =1 El Teorema de Bayes resuelve lo que se conoce como probabilidad inversa. Esto significa que, contrario a la probabilidad clásica, donde lo que se busca es conocer la probabilidad que se dé un evento de un total de casos conocidos, la probabilidad inversa busca saber la probabilidad de lo contrario. Ejemplo: El parte meteorológico ha anunciado tres posibilidades para el fin de semana:
  11. 11. a) Que llueva: probabilidad del 50%. b) Que nieve: probabilidad del 30% c) Que haya niebla: probabilidad del 20%. Según estos posibles estados meteorológicos, la posibilidad de que ocurra un accidente es la siguiente: a) Si llueve: probabilidad de accidente del 10%. b) Si nieva: probabilidad de accidente del 20% c) Si hay niebla: probabilidad de accidente del 5%. Resulta que efectivamente ocurre un accidente y como no estábamos en la ciudad no sabemos que tiempo hizo (nevó, llovió o hubo niebla). El teorema de Bayes nos permite calcular estas probabilidades: Las probabilidades que manejamos antes de conocer que ha ocurrido un accidente se denominan quot;probabilidades a prioriquot; (lluvia con el 60%, nieve con el 30% y niebla con el 10%). Una vez que incorporamos la información de que ha ocurrido un accidente, las probabilidades del suceso A cambian: son probabilidades condicionadas P (A/B), que se denominan quot;probabilidades a posterioriquot;. Vamos a aplicar la fórmula: [ ] P Aj B = [ ][ ] P B Aj P Aj ∑ P[B A ]P[A ] n i i i =1 a) Probabilidad de que estuviera lloviendo:
  12. 12. La probabilidad de que efectivamente estuviera lloviendo el día del accidente (probabilidad a posteriori) es del 71,4%. b) Probabilidad de que estuviera nevando: La probabilidad de que estuviera nevando es del 21,4%. c) Probabilidad de que hubiera niebla: La probabilidad de que hubiera niebla es del 7,1%.
  13. 13. DISTRIBUCIONES DISCRETAS Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores: Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32. Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones: Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234 años). ∗ Variable es una magnitud que puede tener un valor cualquiera de los comprendidos en un conjunto. VARIABLES ALEATORIAS Definición (variable aleatoria discreta). Una variable aleatoria es discreta si puede asumir cuando mucho un número finito o uno infinito contable de valores posibles.
  14. 14. Una variable aleatoria no es discreta cuando se pregunta “¿Cuáles son los valores posibles de la variable?” Esto indica que el conjunto de posibilidades abarca un intervalo o un conjunto continuo de números reales DENSIDADES DE PROBABILIDAD DISCRETAS La función de distribución discreta y función de distribución acumulativa se usan para lograr en algún sentido predecir los valores que probablemente asumirá la variable en un momento dado La densidad indica la probabilidad de que X asuma el valor específico de x Definición (densidad discreta). Sea X una variable aleatoria discreta. La función f esta dada por: f ( x ) = P[ X = x ] para el número real x se llama función de densidad de X Las dos condiciones siguientes afirman que una función f sea de densidad discreta Condiciones necesarias y suficientes para que una función sea una densidad discreta. 1. f ( x ) = P 2. ∑ f ( x ) = 1 ∀x
  15. 15. DISTRIBUCIÓN ACUMULATIVA Esta función suma o acumula las probabilidades calculadas por medio de la densidad. Definición (distribución acumulativa: discreta). Sea X una variable aleatoria discreta con densidad f. La función de distribución acumulativa de X, denotada con F, se define con la fórmula siguiente: F ( x) = P[X ≤ x ] para todo número real x La distribución acumulativa indica la probabilidad de que X tenga un valor menor o igual a x ESPERANZA Y PARÁMETROS DE UNA DISTRIBUCIÓN Definición (valor esperado). Sea X una variable aleatoria discreta con densidad f. Sea H(X) una variable aleatoria. El valor esperado de H(X), que se denota con E [H ( X )] , esta dado por E [H ( X )] = ∑ H ( x) f ( x) ∀x Siempre y cuando ∑ H ( x) f ( x) sea finita. La suma abarca ∀x todos los valores de X que ocurran con probabilidad distinta de cero.
  16. 16. En el caso especial de que H(X)=X, el valor esperado de X se obtiene por: Valor esperado de X E [X ] = ∑ xf ( x ) ∀x Teorema (reglas de la esperanza). Sean X y Y variables aleatorias y sea c cualquier número real. 1. E[c]= c (El valor esperado de toda constante es esa constante.) 2. E[cX]= cE[X] (Las constantes se pueden factorizar a partir de las esperanzas.) 3. E[X+Y] = E[X]+ E[Y] (El valor esperado de una suma es igual a la suma de los valores esperados.) ∗ Ejemplo: Sean X y Y variables aleatorias, con E[X] = 3 y E[Y] = 4. E[5X-3Y+8] = E5[X]+E[-3Y]+E[8] = 5E[X]+(-3)E[Y]+E[8] = 5E[X]-3E[Y]+8 = 5(3)-3(4)+8 = 11
  17. 17. VARIANZA Y DESVIACIÓN ESTÁNDAR ∗ La media es una medición del centro de localización de la distribución. ∗ La varianza y la desviación estándar miden la variabilidad de la variable aleatoria en torno a su media Definición (varianza). Sean X una variable aleatoria con media µ . La varianza de X, denotada como Var X o σ 2 , esta dada por [( VarX = σ 2 = E X − µ 2 )] Teorema (fórmula de cálculo de σ2) σ 2 = VarX = E [X 2 ]− (E [X ])2 ∗ Varianza es la media de las desviaciones cuadráticas de una variable aleatoria, referidas al valor medio de esta. Definición (desviación estándar). Sean X una variable aleatoria con varianza σ . La desviación estándar de X, denotada con 2 σ , esta dada por: σ = VarX = σ 2
  18. 18. ∗ La desviación estándar esta dada por la raíz cuadrada no negativa de la varianza La desviación estándar es una medición de variabilidad DISTRIBUCIÓN BINOMIAL La distribución binomial parte de la distribución de Bernoulli: La distribución de Bernoulli se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0 La distribución binomial se aplica cuando se realizan un número quot;nquot; de veces el experimento de Bernoulli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre: 0: si todos los experimentos han sido fracaso n: si todos los experimentos han sido éxitos Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10
  19. 19. La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo: Distribución binomial   k  k!(n − k )!  p (1 − p ) n! n−k P( x = k ) =     Ejemplo: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces? quot; k quot; es el número de aciertos. En este ejemplo quot; k quot; igual a 6 quot; nquot; es el número de ensayos. En este ejemplo son 10 quot; p quot; es la probabilidad de éxito, es decir, que salga quot;caraquot; al lanzar la moneda. Por lo tanto p = 0,5 La fórmula quedaría:   k 0.5 (1 − 0.5) 10! 10 −6 P ( x = 6) =   6!(10 − 6)!    P (x = 6 ) = 0 ,205 Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda
  20. 20. DISTRIBUCIÓN BINOMIAL NEGATIVA La distribución binomial negativa es una distribución de probabilidad discreta. La distribución binomial negativa es lo inverso de la distribución binomial En esta distribución la variable aleatoria el número de ensayos es fijo y el número de ensayos cambia de un experimento a otro ∗ Un experimento consiste en una serie de ensayos, cuando al resultado de cada ensayo lo podemos clasificar como éxito o fracaso el ensayo se denomina ensayo de Bernoulli Las siguientes propiedades caracterizan las situaciones en las que surge la variable aleatoria binomial negativa - El experimento consiste en una serie de ensayos de Bernoulli independientes e idénticos con probabilidad p de éxito - Los ensayos se observan hasta obtener exactamente r éxitos, el valor de r lo fija el que realiza el experimento - La variable aleatoria X es el número de ensayos que se necesitan para lograr los r éxitos. DISTRIBUCIÓN HIPERGEOMÉTRICA Propiedades que caracterizan a la distribución hipergeométrica - El experimento consiste en extraer una muestra aleatoria de tamaño n sin
  21. 21. Reemplazo y sin considerar su orden, e un conjunto de N objetos. - De los N objetos, solo r posee el rasgo que interesa - La variable aleatoria X es el número de objetos de la muestra que posee el rasgo La distribución hipergeométrica es el modelo que se aplica en experimentos del siguiente tipo: En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la probabilidad de que al sacar 2 bolas las dos sean blancas? Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la distribución binomial en que los distintos ensayos son dependientes entre sí: Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay dependencia entre los distintos ensayos). La distribución hipergeométrica sigue el siguiente modelo: Definición (definición hipergeométrica). Una variable aleatoria X tiene distribución hipergeométrica con parámetros N, n y r si su densidad está dada por:  r  N − r     x  n − x   f ( x) =    N   n   Donde N, r y n son enteros positivos.
  22. 22. Donde explicándolo con el experimento dado: N: es el número total de bolas en la urna N1=>r: es el número total de bolas blancas N2=>N-r: es el número total de bolas negras x: es el número de bolas blancas cuya probabilidad se está calculando n: es el número de ensayos que se realiza Ejemplo: en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas? Entonces: N = 12; N1 = 7; N2 = 5; k = 3; n = 4 Si aplicamos el modelo: 7 5    3 1 P ( x = 3) =      12    4   Tenemos que, P (x = 3) = 0,3535. Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.
  23. 23. DISTRIBUCIÓN DE POISSON La distribución de Poisson parte de la distribución binomial: Cuando en una distribución binomial se realiza el experimento un número quot;nquot; muy elevado de veces y la probabilidad de éxito quot;pquot; en cada ensayo es reducida, entonces se aplica el modelo de distribución de Poisson. Se tiene que cumplir que: quot; p quot; < 0,10 quot; p * n quot; < 10 La distribución de Poisson sigue el siguiente modelo: Definición (distribución de Poisson). Una variable aleatoria X tiene distribución de Poisson con parámetros k si su densidad f está dada por: e −k k x f ( x) = x = 0,1,2,... x! k >0 Donde: e = 2,71828 k = n * p (es decir, el número de veces quot; n quot; que se realiza el experimento multiplicado por la probabilidad quot; p quot; de éxito en cada ensayo) x => es el número de éxito cuya probabilidad se está calculando Ejemplo: La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes?
  24. 24. Como la probabilidad quot; p quot; es menor que 0,1, y el producto quot; n * p quot; es menor que 10, entonces aplicamos el modelo de distribución de Poisson. e −6 6 3 P ( x = 3) = 3! P (x = 3) = 0,0892 Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9%
  25. 25. DISTRIBUCIONES CONTINUAS Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones. LA DISTRIBUCIÓN UNIFORME Es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos con la misma probabilidad. Es una distribución continua porque puede tomar cualquier valor y no únicamente un número determinado, como ocurre en las distribuciones discretas. DISTRIBUCIÓN NORMAL Es el modelo de distribución más utilizado en la práctica, ya que multitud de fenómenos se comportan según una distribución normal. Esta distribución de caracteriza porque los valores se distribuyen formando una campana de Gauss, en torno a un
  26. 26. valor central que coincide con el valor medio de la distribución: Un 50% de los valores están a la derecha de este valor central y otro 50% a la izquierda Esta distribución viene definida por dos parámetros: -> El valor medio de la distribución y es precisamente donde se sitúa el centro de la urva (de la campana de Gauss). -> La varianza. Indica si los valores están más o menos alejados del valor central: si la varianza es baja los valores están próximos a la media; si es alta, entonces los valores están muy dispersos. Cuando la media de la distribución es 0 y la varianza es 1se denomina quot;normal tipificadaquot;, y su ventaja reside en que hay tablas donde se recoge la probabilidad acumulada para cada punto de la curva de esta distribución.
  27. 27. DISTRIBUCIÓN NORMAL ESTÁNDAR Hay un número ilimitado de distribuciones de probabilidad normal, aunque afortunadamente todas están relacionadas con una distribución, la distribución normal Estándar. Propiedades de la Distribución Normal Standard • El área total bajo la curva normal es igual a 1. • La distribución tiene forma de campana y es simétrica; se extiende en ambas direcciones y el eje x es su asíntota. • Tiene media igual a 0 y desviación estándar igual a 1. • La media divide el área en dos mitades. DISTRIBUCION PROBABILIDAD GAMA. Esta distribución se emplea de manera extensa en una gran variedad de áreas; por ejemplo, para representar el tiempo aleatorio de falla de un sistema que falla sólo si de manera exacta los componentes fallan y la falla de cada componente ocurre con una frecuencia constante λ=1/β por unidad de tiempo. La distribución Gamma es versátil puesto que exhibe varios perfiles que dependen del valor del parámetro α, para α ≤1 la distribución Gamma tiene un perfil en forma de J transpuesta. Para α>1, presenta un pico que ocurre en x =β (α-1).
  28. 28. Los tiempos que tardan en revisar un motor de un automóvil ó avión tienen una distribución de frecuencias sesgadas. Las poblaciones asociadas a estas variables aleatorias frecuentemente tienen distribuciones que se pueden modelar adecuadamente por la función de densidad tipo gamma. Función de densidad de probabilidad para una variable aleatoria tipo gamma: α , β > 0;0 ≤ y ≤ α yα −1e − y / β f ( y) = β ατ (α ) En donde: α −y τ (α ) = ∫ y α −1 e dy 0 La cantidad de la de la función alfa se conoce como la función gamma. La integración directa nos da que la función uno igual a uno. La integración por partes nos da que la función de alfa menos uno alfa menos uno por la función alfa menos uno para cualquier intervalo de alfa mayor o igual a uno y que la función de n sea igual a n menos uno factorial, para un número entero n. En el caso especial cuando alfa es un número entero, se puede expresar la función de distribución de una variable aleatoria tipo gamma como una suma de ciertas variables aleatorias de Poisson. Si alfa no es un número entero, es imposible encontrar la antiderivada del integrando de la expresión:
  29. 29. 0 < c < d <α donde d y α −1 e − y / β ∫ c β α τ (α ) dy Y por lo tanto es importante obtener las áreas bajo la función de densidad tipo gamma mediante integración directa. DISTRIBUCIÓN EXPONENCIAL Devuelve la probabilidad de una variable aleatoria continua siguiendo una distribución exponencial. Se usa para la planeación del tiempo entre dos sucesos. Esta distribución se puede usar en diversos casos tales como: el tiempo que tardara una maquina de cajero automático en entregar efectivo. Esta función puede usarse para determinar la probabilidad de que el proceso tarde como máximo un minuto. La función de densidad gamma para el caso especial siguiente, se denomina función de densidad exponencial. β > 0;0 ≤ y < ∞
  30. 30. −y/β 1 f ( y) = e β En cualquier punto. La función de densidad exponencial muchas veces es útil en los modelos de duración de componentes eléctricos. Un fusible es un ejemplo de un componente para el cual este supuesto suele cumplirse. La ecuación de la distribución exponencial es: f ( x; λ ) = λe − λx La distribución exponencial puede modelar el lapso entre dos eventos consecutivos de Poisson que ocurren de manera independiente y a una frecuencia constante. Esta distribución se emplea con bastante frecuencia con el objeto de modelar problemas del tipo tiempo-falla y como modelo para el intervalo en problemas de líneas de espera. La distribución exponencial es conocida por no tener memoria, es decir, la probabilidad de ocurrencia de eventos presentes o futuros no depende de los que hayan ocurrido en el pasado. De esta forma, la probabilidad de que una unidad falle en un lapso específico depende nada más de la duración de éste, no del tiempo en que la unidad ha estado en operación.
  31. 31. DESIGUALDADES DE CHEBYSHEV Esta desigualdad nos sirve para estimar probabilidades cuando disponemos de una distribución de probabilidad de una variable aleatoria cuyos valores estén ordenados de forma creciente. La desigualdad de Chebyshev es un resultado estadístico que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática o de su media; equivalentemente, el teorema proporciona una cota superior a la probabilidad de que los valores caigan fuera de esa distancia respecto de la media. El teorema es aplicable incluso en distribuciones que no tienen forma de quot;curva de campanaquot; y acota la cantidad de datos que están o no quot;en medioquot;. DISTRIBUCIÓN WEIBULL La distribución Weibull fue establecida por el físico del mismo nombre, quien demostró, con base en una evidencia empírica, que el esfuerzo al que se someten los materiales puede modelarse de manera adecuada mediante el empleo de esta distribución. Esta distribución se empleo como modelo para situaciones del tipo tiempo-falla y con el objetivo de lograr una amplia variedad componentes mecánicos y eléctricos.
  32. 32. Devuelve la probabilidad de una variable aleatoria siguiendo una distribución de Weibull. Esta distribución se aplica en los análisis de fiabilidad, para establecer, por ejemplo, el periodo de vida de un componente hasta que presenta una falla.
  33. 33. DISTRIBUCIONES CONJUNTAS Para resolver problemas en los que intervienen simultáneamente 2 variables es necesario estudiar las variables aleatorias bidimensionales o variables aleatorias divariadas de tipo discreto y continuo. Una variable aleatoria asocia un número con cada resultado del experimento aleatorio. Es aleatoria porque al no conocer el resultado del experimento antes de realizarlo, tampoco conocemos el valor que va a tomar la variable. Una variable aleatoria es discreta si puede asumir cuando mucho un Número finito o uno infinito contable de valores posibles Ejemplo: número de piezas defectuosas Una variable aleatoria es continua si en su rango contiene un intervalo. Ejemplo: duración batería. DENSIDAD DISCRETA CONJUNTA. Definición.- Sean X y Y variables aleatorias discretas. El par ordenado (X;Y) se denomina variable aleatoria discreta bidimensional. La función fXY se denomina variable aleatoria discreta bidimensional. La función fXY : f XY ( x, y ) = P[X = x Λ Y = y ] se llama densidad conjunta de (X,Y)
  34. 34. El propósito de la densidad es el cálculo de la probabilidad de que la variable aleatoria (X,Y) asuma valores específicos. La densidad conjunta de (X,Y) es no negativa, puesto que representa una probabilidad La distribución de probabilidad conjunta de (X, Y), mide la probabilidad de que los dos resultados, x e y, ocurran al mismo tiempo. Condiciones necesarias y suficientes para que una función sea una densidad discreta conjunta f XY (x, y) ≥ 0. ∑ ∑ x y f XY (x, y) = 1 DISTRIBUCIONES MARGINALES Cuando se trabaja con más de una variable y se quiere calcular las distribuciones de frecuencias de cada una de manera independiente, tenemos las distribuciones marginales. Podemos encontrar la densidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y: f X (x) = ∑ f XY ( x, y ) y Igualmente podemos encontrar la densidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria X: f Y (y) = ∑ f XY ( x, y ) x
  35. 35. A través de la distribución conjunta, podremos encontrar la función de probabilidad condicional de la otra variable, condicional al valor que tomó la variable. INDEPENDENCIA Dos variables son independientes cuando la información de que ha ocurrido uno de ellos no aporta indicios sobre las probabilidades de que ocurra el otro. Se dirá que las variables aleatorias X e Y son independientes si y sólo si se verifica que la función de distribución conjunta fXY es igual al producto de sus distribuciones marginales Variables aleatorias independientes.- Sean X y Y variables aleatorias con densidad conjunta fXY y densidades marginales fX y fY, respectivamente. X y Y son independientes si y solo si: f XY ( x, y ) = f X ( x) f Y ( y ) para todos los valores de x y y. ESPERANZA Y COVARIANZA La esperanza condicional proporciona el valor esperado de una variable cuando conocemos los valores que han tomado las otras variables de las cuales depende. La covarianza es útil para describir el comportamiento de una variable en relación a otra La covarianza describe y mide la relación lineal entre dos variables aleatorias, se define como
  36. 36. Cov(X,Y) = E[(X - µX)(Y - µY)] Cov(X,Y) = E[XY]-E[X]E[Y] Si la Cov(x,y) es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa. Si la Cov(x,y) es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa. Si X e Y son variables aleatorias independientes Cov(x,y) = 0 . La independencia es condición suficiente pero no necesaria para que la Cov(x,y) sea nula. CORRELACIÓN • La correlación es una técnica estadística usada para determinar la relación entre dos o más variables • El coeficiente de correlación nos permite valorar si ésta es fuerte o débil, positiva o negativa. • La correlación puede ir de -1 a 1. Las correlaciones de signo negativo indican relación inversa; las de signo positivo, relación directa. Si el coeficiente es positivo, significa que cuando una variable aumenta, la otra también. Si el coeficiente es negativo, significa que cuando una variable aumenta, la otra disminuye (esto se suele denominar correlación quot;inversaquot;). • Una correlación igual a 0 indica que no existe relación entre las variables. El grado de relación lo da el valor absoluto de la correlación. • El coeficiente de correlación es igual a la covarianza dividida por la raíz cuadrada del producto de la varianzas de X y Y Coeficiente de correlación de Pearson. Cov( X , Y ) ρ XY = (Var X )(Var Y )
  37. 37. Por ejemplo, la estatura y el peso se encuentran relacionados: las personas más altas suelen pesar más que las más bajas, pero la relación no es perfecta, es decir personas de igual altura que no pesan lo mismo y, a veces, una persona más baja pesa más que una más alta Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística. Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de “regresión”, y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación. REGRESIÓN Cuando se estudian dos características simultáneamente sobre una muestra, se puede considerar que una de ellas influye sobre la otra de alguna manera. El objetivo principal de la regresión es descubrir el modo en que se relacionan. Por ejemplo, en una tabla de pesos y alturas de 10 personas se puede suponer que la variable “Altura” influye sobre la variable “Peso” en el sentido de que pesos grandes vienen explicados por valores grandes de altura. De las dos variables a estudiar, se denomina a X VARIABLE INDEPENDIENTE o EXPLICATIVA, y a Y como VARIABLE DEPENDIENTE o EXPLICADA. Por ejemplo, se anota el tiempo de estudio (en horas) y la nota de examen de cada alumno de una clase. En este caso un pequeño tiempo de estudio tenderá a obtener una nota más baja, y una nota buena indicará que tal vez el alumno ha estudiado mucho. Para determinar qué variable explica a la otra, está claro que el “tiempo de estudio”
  38. 38. explica la “nota de examen” y no al contrario, pues el alumno primero estudia un tiempo que puede decidir libremente, y luego obtiene una nota en la que ya no puede decidir arbitrariamente. Por tanto, X = Tiempo de estudio (variable explicativa o independiente) Y = Nota de examen (variable explicada o dependiente)
  39. 39. ESTADISTICA DESCRIPTIVA La estadística descriptiva es el conjunto de técnicas diseñadas para recoger, organizar, resumir y analizar los datos obtenidos para poder extraer conclusiones sobre el comportamiento de las variables que se esta estudiando, para tener un mayor conocimiento y poder tomar decisiones futuras, en las que tener un conocimiento de su comportamiento pasado es de mucha utilidad. El conjunto de todos los elementos que aportan información sobre la investigación que se quiera realizar se denomina población, cuando estos elementos son demasiado extensos, y la recolección de todos los datos no es posible por el gran costo que represente en recursos (tiempo,dinero), lo que se hace es tomar un subconjunto representativo del conjunto total para poder obtener información, que refleje las características de la población, a este subconjunto se lo denomina muestra. Individuo es cada uno de los elementos objeto de estudio, que componen la población y Variable es cada una de las características que se quieren estudiar sobre la población. Así, si se estudia la preferencia por una marca de cualquier producto, se recoge información de un subgrupo (muestra) que sea suficientemente representativo para poder sacar conclusiones sobre cual es la marca preferida por los consumidores(población) cada consumidor se denomina individuo y la característica de conocer cual es preferencia es la variable que se quiere estudiar. Tipos de variables estadísticas
  40. 40. Cualitativas o atributos. Son las que expresan cualidades de los individuos y no toman valores numéricos (color de ojos, aceptable o defectuoso…). Cuantitativas. Son las que expresan cantidades de los individuos, toman valores numéricos. Cuantitativas discretas. Pueden tomar puntos aislados como valor, el conjunto de valores es finito o infinito numerable (número de compras en un mes). Cuantitativas continuas. Pueden tomar cualquier valor en algún intervalo o entre dos números reales (tiempo transcurrido entre la llegada de dos autobuses). TABLA DE DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta (ni) de una variable estadística es el número de veces que cada valor de la variable se repite. Cuando los atributos no se corresponden con una escala ordinal es conveniente ordenarlos por su frecuencia de aparición. Si se trata de una variable cuantitativa se ordenará por el orden de los valores que toma. La frecuencia absoluta por sí sola no da una idea de la importancia o relevancia de los datos obtenidos. Frecuencia relativa (fr(xi)). La frecuencia relativa del valor xi es el cociente entre la frecuencia absoluta y el número total de datos. n º veces que se observa x i f r ( xi ) = n º total de datos Se pueden multiplicar por 100 y así obtener porcentajes Frecuencia absoluta acumulada (Ni).- es el resultado de acumular las frecuencias absolutas.
  41. 41. Frecuencia relativa acumulada (Fi).- es el resultado de acumular las frecuencias relativas. Se puede dar que el porcentaje acumulado puede no sumar 100, debido a errores de redondeo. DATOS AGRUPADOS Cuando el número de valores distintos que toma una variable discreta es grande o cuando ésta sea continua, es conveniente agruparlos en clases. Para realizar la subdivisión por clases se tiene que: ♣ Redondearlos datos, a lo sumo, tres cifras significativas y elegir las unidades de medida para que los datos tengan tres cifras enteras, siempre que sea posible. ♣ Decidir el número de clases entre 5 y 20. El número de clases es el entero más próximo a n , siendo n el número de datos. Es conveniente probar con varios y seleccionar la representación más clara. ♣ Sepuede utilizar la siguiente tabla para determinar el número de clases en función del tamaño de la muestra. Si n<16 el número de datos se considera insuficiente. Número recomendado de clases en función del tamaño de la muestra <16 Insuficiente 16-31 5 32-63 6 64-127 7 128-255 8 256-511 9 512-1023 10 1024-2047 11 2048-4095 12 4096-8190 13
  42. 42. ♣ Seleccionar los límites de clase, que definirán los intervalos y la longitud de los mismos. Las observaciones se deben clasificar en una única clase sin ambigüedad. ♣ Contar el número de observaciones de cada clase para obtener la frecuencia absoluta de la clase. Rango de datos =máximo – mínimo. Rango / nº clases = valor mínimo de amplitud para cubrir el rango. Para asegurarse de que ningún valor cae en el límite se comienza la primera clase ligeramente inferior al mínimo. Entonces la amplitud deberá ser un poco mayor que el cociente obtenido. El límite inferior se puede escoger ½ por debajo del mínimo. Medidas características de una distribución Cuando disponemos de un conjunto de datos homogéneo de una variable cuantitativa, resulta conveniente completar la distribución de frecuencias con ciertas medidas resumen. Medidas de tendencia central o centralización. Indican el valor medio de los datos. Medidas de dispersión. Miden su variabilidad. Medidas de forma. Miden el grado de simetría y concentración de la distribución. MEDIDAS DE LOCALIZACIÓN Media poblacional, µ, es el valor medio de la variable sobre toda la población. Mediana poblacional, M, aproximadamente el 50% de los valores de la población están en o por debajo de la mediana y el resto por encima de M. Los parámetros poblacionales son desconocidos y no pueden hallarse, pero es posible estimarlos a partir de una muestra, mediante la media muestral y la mediana muestral ( x , ~ ) x
  43. 43. Media muestral Sean x1,x2,…,xn un conjunto de n observaciones de la variable x. A la media aritmética de estos valores se le llama media muestral. n ∑x i x= i =1 n Diferencias entre la media y la mediana La mediana tiene la ventaja de ser una medida resistente, es decir, una medida que se ve afectada sólo ligeramente por valores atípicos, valores alejados del resto de los datos. Mientras que la media muestral se ve muy afectada por este tipo de valores. La media tiene la ventaja de tener en cuenta todas las observaciones, mientras que la mediana sólo tiene en cuenta el orden de las mismas y no su magnitud. MEDIDAS DE DISPERSIÓN O VARIABILIDAD Se busca un estadístico que cumpla que cuando los datos están agrupados alrededor de la media, éste sea pequeño y que cuando los datos están distribuidos de manera amplia, su valor sea grande. Parámetros poblacionales Parámetros muestrales. Estadísticos 2 Varianza σ Varianza muestral s2 Desviación típica σ Desviación típica muestral s poblacional Rango intercuartílico IQR Rango intercuartílico iqr muestral Rango Rango muestral Varianza muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con media muestral x . La varianza muestral se denota por s2 y viene dada por la expresión: ∑ (x i − x ) 2 ni s2 = i n
  44. 44. Puesto que la varianza muestral no tiene las mismas unidades que los datos, se define la desviación típica muestral. Desviación típica muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x, con varianza muestral s2. La desviación típica muestral se simboliza por s y viene dada por la expresión: ∑ (x i − x ) 2 ni s = s2 = i n La desviación típica muestral no es un buen estimador de la desviación típica poblacional (se desvía a la izquierda de σ ). Para corregir esa desviación se suele hacer uso de la raíz cuadrada de la cuasivarianza muestral ∑ (x i i − x ) 2 ni n −1 La desviación típica se registra con un decimal más que los datos, sin antes redondear la varianza. La varianza se expresa con dos decimales más que los datos. Interpretación de la desviación típica La media y la desviación típica de una distribución proporcionan, de forma conjunta, una gran información. Entre la media y más/menos k veces la desviación típica se encuentra como mínimo el 1 100(1 − )% de los datos. k2 Rango muestral Sean x1,x2,…,xn una muestra de n observaciones de la variable x. El rango muestral es la diferencia entre el mayor y el menor de los valores observados. Percentiles Los percentiles son una medida de posición que no refleja la tendencia central. Son los noventa y nueve valores de la distribución que la dividen en cien partes, de forma que dentro de cada una están incluidos el 1% de los valores. Para distribuciones no agrupadas en intervalos se calculan previamente las frecuencias acumuladas y se calcula el valor que ocupa la posición n s de la 100 distribución.
  45. 45. Rango inter cuartíl, iqr Las medidas de dispersión utilizadas se ven muy afectadas por los datos atípicos. El rango intercuartíl es una medida resistente a los datos atípicos, y se define como la longitud del intervalo que contiene el 50% central de los datos. iqr = q3 – q1 Si iqr es muy pequeño, implica que la mayoría de los datos están en el centro, si por el contrario es grande los datos se distribuyen ampliamente. REPRESENTACIONES GRÁFICAS Diagrama de barras Un diagrama de barras permite transmitir la información contenida en una tabla de frecuencias para variables estadísticas cualitativas o cuantitativas discretas no agrupadas. ♣ Cada barra tiene la misma anchura. ♣ Cada barra representa una categoría. ♣ Las alturas dependen del número de observaciones por categoría. ♣ El eje vertical representa: frecuencias absolutas, frecuencias relativas o porcentajes. La utilización de las frecuencias relativas o porcentajes tiene la ventaja de que la escala no dependerá de los datos, puesto que siempre oscilan entre 0 y 1 ó 0 y 100. También se pueden utilizar barras horizontales.
  46. 46. Histogramas Un histograma es una representación gráfica de los datos contenidos en una tabla de frecuencias de variables continuas o discretas agrupadas en intervalos. El área de cada barra es proporcional al número de objetos en la categoría o clase que representa. Es posible utilizar las frecuencias absolutas, relativas o lo porcentajes. Los histogramas proporcionan mucha información sobre la distribución de los datos. Diagrama de tallo y hojas Los diagramas de tallo y hojas permiten representar la distribución de una variable cuantitativa. Elegir los números que servirán de tallos. o Para datos con 2 dígitos, se elegirán las decenas. o Para datos con 3 dígitos, se elegirán las decenas y centenas. Cada tallo define una clase y se escribe sólo una vez y el número de hojas representa su frecuencia absoluta. Etiquetamos las filas con los tallos. Anotamos el dígito que sigue al tallo. Si la utilización del primer o de los dos primeros dígitos no proporciona suficiente información, entonces se pueden utilizar tallos dobles, en la primera rama se representan los valores menores que 5 y en la segundo los mayores. Ejemplo. El tiempo que una persona espera la llegada de un radio taxi 1.0 8.3 3.1 1.1 5.1 1.2 1.0 4.1 1.1 4.0 2.0 1.9 6.3 1.4 1.3 3.3 2.2 2.3 2.1 2.1 1.4 2.7 2.4 3.0 4.1 5.0 2.2 1.2 7.7 1.5
  47. 47. Diagrama de tallo y hojas 1 02409211435 2 02723411 3 310 4 101 5 01 6 3 7 7 8 3 Diagrama de cajas El diagrama de cajas es una representación gráfica de un conjunto de datos que facilita la percepción visual de su localización, extensión y del grado y la dirección del sesgo. También permite identificar datos atípicos. ♣ Calcular ~ , q1, q3, iqr. x ♣ Determinar los separadores interiores: f1 = q1 - 1,5 iqr f2 = q3 + 1,5 iqr ♣ Los puntos por debajo de f1 y por encima de f2 se consideran atípicos. ♣ Determinar los valores adyacentes a1 y a3: o a1 es el dato más próximo a f1 sin que esté por debajo de f1. o a3 es el dato más próximo a f2 sin que esté por encima de f2. ♣ Determinar los separadores exteriores F1 = q1 – 2(1,5) iqr F2 = q3 + 2(1,5) iqr ♣ Dibujar en una recta todos los puntos calculados. ♣ Dibujar una caja con q1 y q3. o Una línea en la mediana. o Representar por una “x” los valores a1 y a3. Bigotes – unirlos con una línea discontinua. o Los puntos entre f i y Fi son círculos abiertos, es decir, datos atípicos moderados. o Los puntos fuera de F=[F1, F2] son asteriscos, es decir, datos atípicos extremos.
  48. 48. La línea central indica la simetría de la distribución. Si la línea no está centrada la distribución será asimétrica en la dirección del lado más largo. a1 a3 F1 f1 q1 ~ x q3 f2 F2 * *
  49. 49. ESTIMACIÓN ESTIMACIÓN DE PARÁMETROS La teoría de muestreo puede emplearse para obtener información acerca de muestras obtenidas aleatoriamente de una población conocida. Esto nos sirve en la práctica para poder ser capaz de inferir información acerca de una población a partir de muestras de ella, de ahí su importancia Los problemas planteados que tenemos sobre los que queremos obtener conclusiones de su comportamiento y evolución son tratados por la inferencia estadística que utiliza principios de muestreo. Un problema importante de la inferencia estadística es la estimación de parámetros poblacionales o simplemente parámetros (como la media y la varianza poblacionales) La ventaja de la media es que es muy fácil de calcular, pero su desventaja es que es muy sensible a valores extremos, es decir, si la mayoría de los datos se encuentran alrededor de la media, pero si existe uno o varios valores cargados hacia uno de los extremos el valor de la media se desplaza hacia ese lado. La media aritmética es un promedio de los valores observados, mientras que la mediana es cualquier valor que se encuentre en el promedio de todas las posiciones de un arreglo ordenado. La mediana es una medida de tendencia central más apropiada que la media cuando el conjunto de datos contiene unos pocos valores extremos, altos o bajos.
  50. 50. La estimación es un proceso por el que se trata de averiguar un parámetro de la población representado por una muestra, a partir del valor de un estadístico llamado estimador y esta representado por . El problema se resuelve en base al conocimiento de la quot;distribución muestralquot; del estadístico que se use (varianza, desviación estándar, rangos muestrales). . Si para cada muestra posible calculamos la media muestral ( ) obtenemos un valor distinto ( es un estadístico: es una variable aleatoria y sólo depende de la muestra), habrá por tanto una distribución muestral de medias para . Varianza de : σ2 Var X = n X → media muestral σ 2 → var ianza n → muetra aleatoria de tamaño n La desviación típica de esta distribución se denomina error típico de la media. Evidentemente, habrá una distribución muestral para cada estadístico, no sólo para la media, y en consecuencia un error típico para cada estadístico. Si la distribución muestral de un estadístico estuviera relacionada con algún parámetro de interés, ese estadístico podría ser un estimador del parámetro. Así al procedimiento utilizado cuando se quiere conocer las características de un parámetro poblacional, a partir del conocimiento de la muestra, se denomina estimación. Hay que tener en cuenta que la población a muestrear es una población presente, que ya existe en el momento de darse el proceso de lo contrario se trataría de un pronostico, no de una estimación
  51. 51. INTERVALO DE CONFIANZA Se llama así a un intervalo en el que sabemos que está un parámetro, con un nivel de confianza específico. Si se tiene que la media se encuentra en el intervalo (2,8 3,2) con un nivel de confianza del 95%, lo que se dice es que si se hace muestras de tamaño 40, y se fueran contabilizando sus medias, en el 95% de los casos, la media calculada estaría en dicho intervalo. NIVEL DE CONFIANZA También se tiene que el porcentaje de intervalos que se puede esperar contengan el valor real del parámetro, cuando se utilice una y otra vez el mismo procedimiento de construcción de intervalo, se denomina nivel de confianza. Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza. Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9% ERROR DE ESTIMACIÓN MÁXIMO Es el radio de anchura del intervalo de confianza. Este valor nos dice en qué margen de la media muestral se encuentra la media poblacional al nivel de confianza asignado. Varianza de un estimador
  52. 52. Una propiedad importante de un estimador es su varianza (o su raíz cuadrada, la desviación estándar). La importancia de la desviación estándar es que permite darle un sentido numérico a la cercanía del valor del estimador a su valor esperado. Entonces entre menor sea la desviación estándar (o la varianza) de un estimador, será más probable que su valor en una muestra específica se encuentre mas cerca del valor esperado. Bien si se considera T1 y T2 dos estimadores en la que ambos son insesgados y que la varianza de T1 es menor que la de T2. ¿Qué quiere decir esto? Que en un entorno fijo del valor del parámetro, los valores de T1 son más probables que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del parámetro que a T2. Esto hace que las preferencias estén con T1. Cuando un estimador tiene una varianza menor que otro se entiende que el estimador es más eficiente. Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro, se utiliza cuando el parámetro poblacional como ya se mencionó se expresa en un sólo valor numérico, por ejemplo, el tiempo máximo para que los estudiantes completen un examen de matemáticas, el cual es de 2 hora Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
  53. 53. Ejemplo: Un fabricante indica que una resistencia de 1 K Ω tiene una precisión de ± 0.5, el fabricante esta dando una estimación por intervalo. El margen de error o la percepción de una estimación, nos informa su fiabilidad. En general, las estimaciones de intervalo, que indican la precisión de una estimación, las prefieren más que a las estimaciones de punto. Para construir un intervalo, hay que hacer que la estimación puntual sea el centro del intervalo y se crea un intervalo arriba y uno abajo del centro por medio del error estándar del estimador, éste último es la desviación estándar de la distribución muestral del estimador. Así se logra que el parámetro desconocido supuestamente esté dentro de ese intervalo, mas no necesariamente en su centro.
  1. A particular slide catching your eye?

    Clipping is a handy way to collect important slides you want to go back to later.

×