Estimación de parametro su31
Upcoming SlideShare
Loading in...5
×
 

Estimación de parametro su31

on

  • 4,220 views

 

Statistics

Views

Total Views
4,220
Views on SlideShare
4,123
Embed Views
97

Actions

Likes
3
Downloads
140
Comments
0

3 Embeds 97

http://distancia1.politicas.unam.mx 93
http://132.248.132.136 2
http://suayed.politicas.unam.mx 2

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Estimación de parametro su31 Estimación de parametro su31 Presentation Transcript

  • Estimación de parámetros : Estimación puntual y por intervalos. Características deseables de un estimador. Cálculo de los intervalos de confianza para los principales parámetros.
    • Estimación: puntual y por intervalos
    • Como ya hemos visto, a partir de los estadísticos que hemos obtenido en la/s muestra/s queremos obtener una idea de los valores de los parámetros en la población.
    • Se trata de emplear los estadísticos para estimar los parámetros.
    • Veremos DOS tipos de estimadores:
    • Estimación puntual. Aquí obtendremos un punto, un valor, como estimación del parámetro.
    • Estimación por intervalos. Aquí obtendremos un intervalo dentro del cual estimamos (bajo cierta probabilidad) estará el parámetro.
  • Estimación puntual de parámetros Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.). Es decir, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional. (Algunos autores comparan los estimadores con los lanzamientos en una diana; el círculo central sería el valor real del parámetro.)
  • Propiedades deseables en los estimadores
    • Veremos CUATRO propiedades:
    • Ausencia de sesgo
    • Consistencia
    • Eficiencia
    • Suficiencia
  • Propiedades deseables en los estimadores (1) 1. Ser insesgado. Diremos que es un estimador insesgado de si la esperanza de es . Es decir, La media muestral es un estimador insesgado de la media poblacional. Pero la varianza muestral NO es un estimador insesgado de la varianza poblacional, pero sí lo es en cambio la cuasivarianza.
  • Propiedades deseables en los estimadores (2) 2. Consistencia. Se dice que un estimador es consistente si se cumple que Esta expresión indica que a medida que se incrementa el tamaño muestral, la diferencia entre el estimador y el parámetro será menos que cualquier número (  ). A diferencia de la “ausencia de sesgo” que se define para valores finitos de n, la “consistencia” es una propiedad asintótica. Tanto la media muestral como la cuasivarianza son estimadores consistentes. Nota: la varianza muestral ES un estimador consistente de la varianza poblacional, dado que a medida que el tamaño muestral se incrementa, el sesgo disminuye y disminuye.
  • Propiedades deseables en los estimadores (3) 3. Eficiencia. Se emplea para COMPARAR estimadores. Si tenemos dos estimadores y  de un mismo parámetro  , diremos que  es más eficiente que  si tenemos que var(  )<var(  ) Se puede comprobar que la varianza muestral es más eficiente que la cuasivarianza muestral a la hora de estimar la varianza poblacional. (Aún así, se prefiere la cuasivarianza muestral como estimador de la varianza poblacional por ser un estimador insesgado.)
  • Propiedades deseables en los estimadores (4) 4. Suficiencia. Diremos que es un estimador suficiente del parámetro si dicho estimador basta por sí solo para estimar
  • Intervalos de confianza para los principales parámetros El caso de la media (1) En este caso, en lugar de indicar simplemente un único valor como estimación del parámetro, lo que haremos es ofrecer un intervalo de valores que sea asumible con cierta probabilidad por el parámetro que queremos estimar. -Intervalo de confianza: Es el intervalo de las estimaciones (probables) sobre el parámetro. -Límites de los intervalos de confianza: Son los dos valores extremos del intervalo de confianza
  • Intervalos de confianza para los principales parámetros: El caso de la media (2) Ahora bien, ¿cuán grande habrá de ser el intervalo de confianza? Evidentemente, si decimos que el intervalo de confianza va de menos infinito a más infinito, seguro que acertamos...pero eso no es muy útil. Por su parte, el extremo es la estimación puntual, en la que lo usual es que no demos con el valor del parámetro... La idea es crear unos intervalos de confianza de manera que sepamos en qué porcentaje de casos el parámetro estará dentro del intervalo crítico. ¿Y cómo fijamos tal porcentaje de casos? Usualmente se asume un porcentaje del 95%. Al calcular un intervalo de confianza sobre la media al 95% ello quiere decir que el 95% de las veces que repitamos el proceso de muestreo (y calculemos la media muestral), la media poblacional estará dentro de tal intervalo.
  • Intervalos de confianza para los principales parámetros: El caso de la media (3) Pero, ¿cómo calculamos estos dos límites? Sabemos que la distribución subyacente es normal, lo cual nos ayuda enormemente. En una distribución normal tipificada, es muy fácil saber qué puntuación típica (z) deja a la izquierda el 2.5% de los datos (yendo a las tablas es -1.96) y cuál deja a la izquierda el 97.5% de los datos (o a la derecha el 2.5% de los datos: 1.96). Ahora habrá que pasar esos datos a puntuaciones directas....
  • Intervalos de confianza para los principales parámetros: El caso de la media (3) Pero, ¿cómo calculamos estos dos límites? Vamos a ver DOS casos. Primero, veremos el caso de que sepamos la varianza poblacional. Segundo, veremos el caso de que NO sepamos la varianza poblacional
  • Intervalos de confianza para los principales parámetros: El caso de la media (4)
    • Nuestra distribución es normal, pero con cierta media y cierta desviación típica, las cuales sabemos por el tema anterior:
    • La media de la distribución muestral de medias es la media poblacional 
    • La varianza de la distribución muestral de medias es  2 /n
    • O lo que es lo mismo, la desviación típica de la dist.muestral de medias es
  • Intervalos de confianza para los principales parámetros: El caso de la media (5) Estimador de es Recordad que O lo que es análogo Y para pasar directas-típicas:
  • z 0’975 z 0’025 En definitiva Intervalos de confianza para los principales parámetros: El caso de la media (6) Aplicando la lógica de pasar de puntuaciones típicas a directas En Punt.típicas En Punt.directas
  • Intervalos de confianza para la media: CASO DE DESCONOCER LA VARIANZA POBLACIONAL Para la media (cuando conocemos la varianza poblacional), tenemos la expresión Pero si no conocemos la varianza poblacional, no podemos emplear En su lugar hemos de emplear Ahora la distribución ya no es exactamente una distribución normal... Por el tema anterior sabemos que la distribución muestral de no es una distribución normal, sino una distribución t de Student con n-1 grados de libertad. Recordad, en el caso de varianza conocida teníamos:
  • Intervalos de confianza para la media: CASO DE DESCONOCER LA VARIANZA POBLACIONAL En definitiva, para la media (cuando conocemos la varianza poblacional), tenemos la expresión Pero si no conocemos la varianza poblacional ( el caso realista ), tenemos la expresión: En todo caso, recordad que si &quot;n&quot; es grande, la distribución t de Student será virtualmente una distribución normal N(0,1). En otras palabras, si &quot; n &quot; es grande, ambas fórmulas dan unos intervalos virtualmente idéntico, y emplear la distribución normal es correcto.
  • Intervalos de confianza para los principales parámetros: El caso de la media (7) ¿Qué quiere decir la expresión siguiente? Quiere decir que cada vez que extraigamos una muestra y hallemos la media, el parámetro desconocido  estará entre los límites de dicho intervalo el 95% de las veces. (O el 99% si hubiéramos elegido un intervalo al 99%, etc.)
  • Intervalos de confianza para los principales parámetros: Tamaño muestral y la amplitud del intervalo de confianza Es claro que a medida que el tamaño muestral aumente, la amplitud del intervalo disminuye. (Evidentemente, esto es general, no sólo para la media.) Veamos, en todo caso un ejemplo: Caso A1. Media muestral=10, varianza pobl=4, tamaño muestral=12 Caso A2. Media muestral=10, varianza pobl=4, tamaño muestral=20 Para el caso de la media hemos visto que
  • Intervalos de confianza para los principales parámetros: Amplitud del intervalo de confianza y el valor del índice de confianza Pero evidentemente es posible emplear intervalos a, digamos, el 99%. En tal caso, tendremos más seguridad de que el parámetro de interés se halle en los límites del intervalo. El problema es que incrementar tal índice aumenta así mismo la amplitud del intervalo. Caso A1. Media muestral=10, varianza pobl.=4, tamaño muestral=12. Intervalo al 95% Caso A2. Media muestral=10, varianza pobl=4, tamaño muestral=12. Intervalo al 99% El caso &quot;usual&quot; (por defecto) es emplear intervalos al 95%.
  • Intervalos de confianza para OTROS parámetros Intervalos de confianza para las proporciones Caso de muestras grandes Caso de muestras pequeñas
  • Intervalos de confianza para OTROS parámetros Intervalos de confianza para la varianza