Estimación de parámetros
Upcoming SlideShare
Loading in...5
×

Like this? Share it with your network

Share
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
75,963
On Slideshare
75,962
From Embeds
1
Number of Embeds
1

Actions

Shares
Downloads
1,106
Comments
0
Likes
10

Embeds 1

http://lupitajesus.wordpress.com 1

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Estimación: El proceso de estimación en inferencia estadística puede ser descrito como el proceso de estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral (Estadístico) para estimar la media poblacional, (parámetro). La estimación de parámetros puede ser: • Puntual o Por Punto. • Por Intervalo. Estimación Puntual: Objetivo. Dar un valor numérico que aproxime en forma muy cercana al parámetro poblacional. La estimación puntual de un parámetro de una población es un solo valor numérico de un estadístico que corresponde a este parámetro. Un estadístico utilizado para aproximar a un parámetro de una población se denomina Estimador del Parámetro. El número obtenido cuando se evalúa el estimador para una muestra particular, se denomina Estimación del Parámetro. Sea X una variable aleatoria de interés con distribución de probabilidad f (x). θ : Parámetro Desconocido. : f (X1, X2, X3,…,Xn) m. a. de tamaño n. Estadístico. Estimador. es un posible estimador de µ. Por ejemplo: µ=θ 1
  • 2. : : Estimador puntual de µ, porque al evaluarlo para una muestra es concreto, da un solo numero o punto. : Estimación puntual de µ. Otros Parámetros de Interés: P: Proporción Poblacional (proporción binomial). “Proporción de elementos con cierta característica de interés en un universo dado.” = Estimador puntual de P. X: Nº de elementos en la muestra con característica de interés. σ2 : Varianza Poblacional. Estadístico: Estimador puntual de σ2. σ : Desviación estándar de una población. Estimador puntual de σ. µ1 - µ2: Diferencia de dos medias poblacionales. Estimador puntual de µ1 - µ2. Diferencia entre las medias de dos muestras aleatorias independientes. P1 – P2 2
  • 3. Estimador puntual para P1 – P2 Diferencia entre dos proporciones muéstrales, basadas en dos muestras aleatorias independientes. Razón de dos varianzas poblacionales. Estimador puntual de Sea X una variable aleatoria con media µ desconocida y varianza σ2. X1, X2,…, Xn m. a. de tamaño n. θ=µ = f (X1, X2,…, Xn) Estimadores posibles para µ ¿Cuál es el mejor? Antes de responder a esta pregunta debemos decidir que propiedades son deseables en un estimador puntual. Obviamente queremos que el estimador produzca estimaciones que puedan esperarse sean próximas en valor al parámetro que se esta estimando. Propiedades De Los Estimadores Puntuales: 3
  • 4. • Insesgabilidad • Eficiencia • Consistencia • Suficiencia Estimador In sesgado: un estimador puntual de un parámetro θ, entonces Sea es un estimador ) = θ. De lo contrario se dice que es sesgado. insesgado si E ( Distribución muestral de un estimador insesgado. Distribución muestral de un estimador sesgado positivamente, para el cual Si el estimador es sesgado, la magnitud del sesgo es: 4
  • 5. Sesgo = Suponga que X es una variable aleatoria con media µ y varianza σ2, sea X1, X2, X3, X4,…, Xn una m. a. de tamaño n de X. Es posible probar que la media muestral y la varianza muestral S son estimadores insesgados de µ y σ respectivamente. 2 2 Sin embargo S1 (Desviación estándar muestral) es un estimador sesgado de σ. (σ: Desviación estándar poblacional). de un parámetro θ. Error estándar de un estimador Medida usual de la precisión de una estimación puntual. Error cuadrado medio (ECM) de un estimador . Se puede demostrar que: Si es un estimador puntual insesgado de θ; entonces: Ya que el sesgo Varianza de Error de estimación. 5
  • 6. El error de estimación Є es la distancia entre el estimador y su parámetro. Es decir; = f (X1, X2,…, Xn) m. a. Є Cantidad aleatoria. Nota: La condición de que es insesgado, supone que el valor promedio de (promedio de los valores de ) es exactamente correcto. No dice que un solo valor sea exactamente correcto. Eficiencia Relativa: La eficiencia relativa entre dos estimadores y de un parámetro θ, con ECM respectivos ECM ( ) y ECM ( ) se define como: Si la eficiencia relativa es menor que 1 entonces concluimos que es un mejor estimador de θ que Si y son dos estimadores insesgados de θ, entonces: Eficiencia Relativa = Si consideramos todos los posibles estimadores insesgados de algún parámetro θ, el de menor varianza se llama Estimador mas Eficiente de θ. Estimador Consistente: 6
  • 7. es un estimador insesgado de θ, basado en una m. a. de tamaño n, decimos que Si es consistente para θ, si: La consistencia es una propiedad de muestras grandes. Los estimadores cuyo ECM (o varianza si el estimador es insesgado) tiende a cero cuando el tamaño de la muestra tiende al infinito, son consistentes. Por ejemplo: N (µ, σ2) y X1, X2,…, Xn Si X Es una muestra aleatoria de tamaño n de X, entonces es un estimador consiente de µ. Es un estimador insesgado de µ. Estimación Por Intervalo. 7
  • 8. Un estimador por intervalo es una regla que especifica un método que utiliza las mediciones de la muestra para calcular dos números que forman los extremos del intervalo. Objetivo: Encontrar un estimador por intervalo que genere intervalos angostos que contengan a θ (parámetro) con una alta probabilidad. Los estimadores por intervalo se denominan comúnmente intervalos de confianza. Un intervalo de confianza de θ, es un intervalo [L, U] que incluye a θ con un grado de certidumbre establecido. L y U se denominan extremos inferior y superior del intervalo de confianza. L: Limite inferior de confianza. U: Limite de confianza superior. L, U: Estadísticos (variables aleatorias). Para construir un estimador por intervalo del parámetro θ desconocido, debemos encontrar L y U tal que: P (L ≤ θ ≤ U) = 1 – α La probabilidad 1 – α se le llama Coeficiente de Confianza. Usualmente, se expresa en porcentaje: 100 (1 – α) %. 1 – α es la probabilidad de que el intervalo contenga al parámetro. 0<α<1 El intervalo resultante: L≤θ≤U Se llama intervalo de confianza del 100 (1 – α) % para el parámetro θ. (Intervalo de confianza de dos lados). En ocasiones un intervalo de confianza de un lado podría ser útil. L ≤ θ Intervalo de confianza inferior del 100 (1 – α) %. θ ≤ U Intervalo de confianza superior del 100 (1 – α) % Donde U se elige de modo que: P (θ ≤ U) = 1 - α Estimación Por Intervalo de µ. 8
  • 9. Intervalo de confianza sobre la media (µ), conocida la varianza (σ2). Construir un intervalo de confianza del 100 (1 – α) % para la media µ de una población denotada por X, con varianza σ2 conocida a partir de una muestra aleatoria (m. a.) X1, X2, X3,…, Xn de tamaño n. como estimador puntuales de µ. Si usamos Distribución de . • Si la muestra es seleccionada de una población normal. De donde: • A falta de esta (De población normal), si n es suficiente grande: * Si se cumplen las condiciones del TLC. Aproximadamente. Aproximadamente. Para construir un intervalo de confianza de µ, primero hallaremos una variable aleatoria (v. a.) cuya expresión contenga a µ y cuya distribución se conozca al menos aproximadamente. Contiene al parámetro µ y su distribución es normal Nótese que la v. a. estándar (o al menos aproximadamente normal estándar). Queremos determinar L y U de forma que P (L ≤ θ ≤ U) = 1 – α Consideremos la participación de la curva normal estándar. (I) 9
  • 10. Formula exacta cuando la población muestreada tiene distribución normal y varianza σ2 conocida. Si σ2 no se conoce (y σ) reemplazar σ por S en (I). Buena aproximación, • siempre que n sea grande (n ≥ 30). Intervalo de confianza sobre la medida (μ), σ2 desconocida, muestra pequeña. Suponer: Población normal con medida μ y σ2 (varianza) desconocida. • N (μ, σ2) X • Muestra aleatoria de tamaño n. X1, X2,… Xn Media Muestral Varianza Muestral • n pequeña (< 30). Construir un intervalo de confianza del 100 (1 – α) % para μ. Estimador puntual de μ 10
  • 11. Reacomodando: P (L ≤ θ ≤ U) = 1 – α Intervalo de confianza de dos lados del 100 (1 – α) % para μ. 11
  • 12. Donde es el valor t con n – 1 grados de libertad que deja una área de a la derecha. A la formula anterior a menudo se le denomina formula del intervalo de confianza para la media en muestras pequeñas, aunque es valido para muestras de cualquier tamaño. Intervalo de confianza de un lado del 100 (1 – α) % en μ. 12
  • 13. Estimación de σ2. Suponga que una m. a. de tamaño n es seleccionada de una población normal con media μ y varianza σ2 desconocidas. N (μ, σ2) X X1, X2,…, Xn. m. a. Estimador puntual de µ. Estimador puntual de σ2. Son estadísticos. Construir un intervalo de confianza del 100 (1 – α) % para σ2. Va a utilizar para construir el intervalo de confianza para σ2. 13
  • 14. Reacomodando: P (L ≤ θ ≤ U) = 1- α Limite de confianza son los valores X2 con n-1 grados de libertad que Donde dejan áreas de α/2, 1- α/2, respectivamente a la derecha. Intervalos de confianza bilaterales del 100 (1-α) % para σ2. 14
  • 15. Extrayendo Raíz Cuadrada Intervalos de Confianza bilateral del 100 (1-α) % para σ Intervalo De Confianza Para Una Proporción P Supóngase que estamos interesados en estimar la proporción P de elementos que presentan la característica de interés en un universo dado. Una muestra aleatoria de tamaño n es seleccionada al azar y se observa el numero de elementos X (x≤n) en la muestra que tiene la característica de interés. Sabemos que: Cuando n es grande (?) Aproximadamente. Estandarizando: Aproximadamente. 15
  • 16. Dividiendo numerador y denominador entre n, tenemos: Estimador puntual de P Es un estimador integrado de P. V.a a utilizar para construir el intervalo de confianza del 100 (1-α) % para P Considerando la partición de la curva normal estándar, tenemos: 16
  • 17. Pero: Reacomodando: Al sustituir P por en el error estándar (lo que resulta un error estándar estimado) tenemos que: El intervalo de coeficiente bilateral del 100 (1 – α) % aproximado en P es: Estimación De La Diferencia Entre Dos Medias. • Puntual. • Por intervalo. Considérese dos poblaciones con medias μ1 y μ2 y varianzas σ12 y σ22 (conocidas) respectivamente. Dos muestras aleatorias independientes de tamaño n1 y n2 son seleccionadas, una de dada población. 17
  • 18. Un estimador lógico de μ1- μ2 es donde son las medidas muéstrales. X11, X12,.......X1n1 m.a de tamaño n1 de X1. X21, X22,…X2n2 m.a de tamaño n2 de X2. X1 y X2 denotan las poblaciones de interés. ; Estimador puntual de μ1- μ2. El valor numérico es la estimulación puntual de μ1- μ2. La distribución maestral de es normal si X1 y X2 están distribuidas de forma normal o aproximadamente normal si se completa las condiciones del TLC. La distribución de la v.a Z es normal estimada; si X1 y X2 son normales o aprox. Normal estándar si n1 y n2 son grandes (TLC). 18
  • 19. De donde: Sustituyendo Z: Aislar algebraicamente μ1- μ2 del centro de la desigualdad: De donde: 19
  • 20. *intervalo de confianza aproximado a menos que las dos poblaciones sean normales. La forma del intercambio anterior se aplica si se conocen σ12 y σ22. Si las varianzas no se conocen y las dos poblaciones son normales, la distribución t resulta implicada como en el caso de una muestra. Si no esta dispuesto a suponer normalidad muestras grandes (≥ 30) permitirán el uso de S12 y S22 respectivamente. Intervalo De Confianza Para μ1- μ2 Con Varianza Desconocida. Suposiciones: • Poblaciones normales • Varianza desconocida, pero iguales. • Muestra aleatoria undipendientes de tamaños n1 y n2 20
  • 21. • Muestras pequeñas. X11, X12,…, X1n, X21, X22,…, X2n2 Con la suposición de σ12 = σ22 un intervalo de confianza para μ1 - μ2 basado en la v.a T se puede construir. 21
  • 22. Sustituyendo T Reareglando: De donde: Intervalo de confianza del 100 (1 – α) % para μ1 - μ2, σ12= σ22 pero desconocidas. A la forma anterior a menudo se le denomina formula del intervalo de confianza para μ1 - μ2 en muestras pequeñas, aunque es valida para muestras de cualquier tamaño y funciona satisfactoriamente cuando la población no es normal, mientras que la desviación de la normalidad no se exceda. Cuando no es razonable suponer que σ12= σ22, un intervalo de confianza de dos lados de100 (1 – α) % aproximado en μ1 - μ2 es: 22
  • 23. De donde La construcción del intervalo de confianza anterior se bazo en la variable aleatoria: Intervalo de confianza para μ1 - μ2 Observaciones pareadas Suponer: • Poblaciones normales • Muestras aleatorias dependientes. X11, X12,…, X1n, X21, X22,…, X2n2 23
  • 24. • -n1=n2=n n pequeña. D: denota una población de diferencia. Se puede construir un intervalo de confianza para μ1 - μ2 con solo encontrar un intervalo de confianza para μD. 24
  • 25. Uso de distribución t. Sustituyendo y reacomodando tenemos: Intervalo de confianza de dos lados del 100 (1 – α) % en Intervalo de confianza sobre la razón de Varianzas de dos poblaciones normales Suponer: • Poblaciones normales. μ1 - μ2, σ12 y σ22 no se conocen • Muestras aleatorias independientes. X11, X12,…, X1n, X21, X22,…, X2n2 25
  • 26. La forma mas lógica de estimar (estimador puntual) la razón de dos varianzas, es estimar cada una por separado como se vio anteriormente y después estimar que es la razón de estas estimaciones. Estimador puntual de σ12. Estimador puntual de σ22. Si σ12 y σ22 son las varianzas de dos poblaciones normales, podemos construir un intervalo de confianza basándonos en la variable aleatoria F. 26
  • 27. Variable aleatoria a utilizar para construir el intervalo de confianza de 100 (1 - α) %. De la figura tenemos: 27
  • 28. Reareglando: De donde: Donde es un valor f con grados de libertad que deja un área a la derecha de . es un valor de f similar con grados de libertad (g. l.) Intervalo de confianza de dos lados (Bilateral) del 100 (1 – α) % para . 28
  • 29. Intervalo De Confianza Para La Diferencia De Dos Proporciones P1 – P2. P1 – P2 Parámetro. P1: Proporción de elementos con la característica de interés en un universo dado. P2: Proporción de elementos con la característica de interés en otro universo dado. Si bien se trata de dos universos diferentes, la característica de interés deberá ser la misma. P1 y P2 son parámetros binomiales. Si toman muestras aleatorias independientes de tamaño n1 y n2 respectivamente. X1: Nº de elementos en la muestra 1 con la característica de interés. X2: Nº de elementos en la muestra 2 con la característica de interés. Un estimador lógico de P1 – P2 es: Es posible probar que: 29
  • 30. Se puede construir un intervalo de confianza para P1 – P2 considerando la distribución muestral de : Distribución muestral de : Para n1 y n2 grandes. De donde: 30
  • 31. De la curva normal estándar podemos escribir: Sustituyendo para Z. Reareglando: 31
  • 32. De donde un intervalo de confianza de dos lados del 100 (1 – α) % aproximado para P1 – P2 es: La construcción del intervalo de confianza para P1 – P2 se basa en la aproximación normal a la binomial que es adecuada para n1 y n2 grandes. ¿ ? 32