SlideShare a Scribd company logo
1 of 32
Estimación:

       El proceso de estimación en inferencia estadística puede ser descrito como el proceso de
estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral
(Estadístico) para estimar la media poblacional, (parámetro).

       La estimación de parámetros puede ser:

   •   Puntual o Por Punto.
   •   Por Intervalo.

Estimación Puntual:

        Objetivo.

       Dar un valor numérico que aproxime en forma muy cercana al parámetro poblacional.

        La estimación puntual de un parámetro de una población es un solo valor numérico de un
estadístico que corresponde a este parámetro.

        Un estadístico utilizado para aproximar a un parámetro de una población se denomina
Estimador del Parámetro. El número obtenido cuando se evalúa el estimador para una muestra
particular, se denomina Estimación del Parámetro.

       Sea X una variable aleatoria de interés con distribución de probabilidad f (x).

       θ : Parámetro Desconocido.

         : f (X1, X2, X3,…,Xn)


                      m. a. de tamaño n.


       Estadístico.



       Estimador.

                                               es un posible estimador de µ.
       Por ejemplo:

       µ=θ




                                                                                             1
: : Estimador puntual de µ, porque al evaluarlo para una muestra es concreto, da un solo
numero o punto.


          : Estimación puntual de µ.

       Otros Parámetros de Interés:

        P: Proporción Poblacional (proporción binomial).

       “Proporción de elementos con cierta característica de interés en un universo dado.”


            = Estimador puntual de P.




       X: Nº de elementos en la muestra con característica de interés.

        σ2 : Varianza Poblacional.




       Estadístico: Estimador puntual de σ2.

        σ : Desviación estándar de una población.




       Estimador puntual de σ.

        µ1 - µ2: Diferencia de dos medias poblacionales.


                    Estimador puntual de µ1 - µ2.

       Diferencia entre las medias de dos muestras aleatorias independientes.


        P1 – P2



                                                                                             2
Estimador puntual para P1 – P2
       Diferencia entre dos proporciones muéstrales, basadas en dos muestras aleatorias
independientes.



                    Razón de dos varianzas poblacionales.




             Estimador puntual de


       Sea X una variable aleatoria con media µ desconocida y varianza σ2.

                              X1, X2,…, Xn       m. a. de tamaño n.

       θ=µ


         = f (X1, X2,…, Xn)




                                             Estimadores posibles para µ




       ¿Cuál es el mejor?

       Antes de responder a esta pregunta debemos decidir que propiedades son deseables en un
estimador puntual.

      Obviamente queremos que el estimador produzca estimaciones que puedan esperarse sean
próximas en valor al parámetro que se esta estimando.




Propiedades De Los Estimadores Puntuales:


                                                                                           3
•   Insesgabilidad
•   Eficiencia
•   Consistencia
•   Suficiencia

Estimador In sesgado:

                     un estimador puntual de un parámetro θ, entonces
       Sea                                                                      es un estimador

                      ) = θ. De lo contrario se dice que es sesgado.
insesgado si E (




                        Distribución muestral de un estimador insesgado.




    Distribución muestral de un estimador sesgado positivamente, para el cual




     Si el estimador es sesgado, la magnitud del sesgo es:




                                                                                             4
Sesgo           =


      Suponga que X es una variable aleatoria con media µ y varianza σ2, sea X1, X2, X3, X4,…,
Xn una m. a. de tamaño n de X. Es posible probar que la media muestral   y la varianza muestral
S son estimadores insesgados de µ y σ respectivamente.
 2                                    2




       Sin embargo S1 (Desviación estándar muestral) es un estimador sesgado de σ. (σ:
Desviación estándar poblacional).

                                           de un parámetro θ.
        Error estándar de un estimador




       Medida usual de la precisión de una estimación puntual.

        Error cuadrado medio (ECM) de un estimador          .




       Se puede demostrar que:




       Si      es un estimador puntual insesgado de θ; entonces:




       Ya que el sesgo


                      Varianza de

        Error de estimación.



                                                                                             5
El error de estimación Є es la distancia entre el estimador y su parámetro. Es decir;




            = f (X1, X2,…, Xn)

                     m. a.

       Є             Cantidad aleatoria.

       Nota: La condición de que             es insesgado, supone que el valor promedio de
(promedio de los valores de            ) es exactamente correcto. No dice que un solo valor sea
exactamente correcto.


       Eficiencia Relativa:
       La eficiencia relativa entre dos estimadores          y       de un parámetro θ, con ECM
respectivos ECM (        ) y ECM (       ) se define como:




       Si la eficiencia relativa es menor que 1 entonces concluimos que     es un mejor estimador
de θ que


       Si       y       son dos estimadores insesgados de θ, entonces:




               Eficiencia Relativa =




       Si consideramos todos los posibles estimadores insesgados de algún parámetro θ, el de
menor varianza se llama Estimador mas Eficiente de θ.




       Estimador Consistente:


                                                                                               6
es un estimador insesgado de θ, basado en una m. a. de tamaño n, decimos que
        Si
es consistente para θ, si:




       La consistencia es una propiedad de muestras grandes.

       Los estimadores cuyo ECM (o varianza si el estimador es insesgado) tiende a cero cuando
el tamaño de la muestra tiende al infinito, son consistentes.

       Por ejemplo:

                      N (µ, σ2) y X1, X2,…, Xn
       Si X


       Es una muestra aleatoria de tamaño n de X, entonces                              es un
estimador consiente de µ.

          Es un estimador insesgado de µ.




       Estimación Por Intervalo.

                                                                                            7
Un estimador por intervalo es una regla que especifica un método que utiliza las
mediciones de la muestra para calcular dos números que forman los extremos del intervalo.

       Objetivo:

       Encontrar un estimador por intervalo que genere intervalos angostos que contengan a θ
(parámetro) con una alta probabilidad.

       Los estimadores por intervalo se denominan comúnmente intervalos de confianza.

       Un intervalo de confianza de θ, es un intervalo [L, U] que incluye a θ con un grado de
certidumbre establecido.

       L y U se denominan extremos inferior y superior del intervalo de confianza.

       L: Limite inferior de confianza.
       U: Limite de confianza superior.

       L, U: Estadísticos (variables aleatorias).

       Para construir un estimador por intervalo del parámetro θ desconocido, debemos encontrar
L y U tal que:

                                       P (L ≤ θ ≤ U) = 1 – α

       La probabilidad 1 – α se le llama Coeficiente de Confianza. Usualmente, se expresa en
porcentaje: 100 (1 – α) %.

       1 – α es la probabilidad de que el intervalo contenga al parámetro.

                                              0<α<1

       El intervalo resultante:

                                             L≤θ≤U

       Se llama intervalo de confianza del 100 (1 – α) % para el parámetro θ. (Intervalo de
confianza de dos lados).

       En ocasiones un intervalo de confianza de un lado podría ser útil.

       L ≤ θ Intervalo de confianza inferior del 100 (1 – α) %.
       θ ≤ U Intervalo de confianza superior del 100 (1 – α) %

       Donde U se elige de modo que:
                                          P (θ ≤ U) = 1 - α
       Estimación Por Intervalo de µ.

                                                                                             8
Intervalo de confianza sobre la media (µ), conocida la varianza (σ2).

       Construir un intervalo de confianza del 100 (1 – α) % para la media µ de una población
denotada por X, con varianza σ2 conocida a partir de una muestra aleatoria (m. a.) X1, X2, X3,…,
Xn de tamaño n.

                                           como estimador puntuales de µ.
       Si usamos

       Distribución de       .

           •   Si la muestra es seleccionada de una población normal.




       De donde:




           •   A falta de esta (De población normal), si n es suficiente grande:

               * Si se cumplen las condiciones del TLC.



                                             Aproximadamente.


                                             Aproximadamente.

        Para construir un intervalo de confianza de µ, primero hallaremos una variable aleatoria (v.
a.) cuya expresión contenga a µ y cuya distribución se conozca al menos aproximadamente.

                                         Contiene al parámetro µ y su distribución es normal
       Nótese que la v. a.


estándar (o al menos aproximadamente normal estándar).

       Queremos determinar L y U de forma que P (L ≤ θ ≤ U) = 1 – α

       Consideremos la participación de la curva normal estándar.

                                                                                   (I)



                                                                                                  9
Formula exacta cuando la población muestreada tiene distribución normal y varianza σ2
conocida.

               Si σ2 no se conoce (y       σ) reemplazar σ por S en (I). Buena aproximación,
           •
               siempre que n sea grande (n ≥ 30).

        Intervalo de confianza sobre la medida (μ), σ2 desconocida, muestra pequeña.

Suponer:
               Población normal con medida μ y σ2 (varianza) desconocida.
           •

                                                N (μ, σ2)
                                      X

           •   Muestra aleatoria de tamaño n.

                                                X1, X2,… Xn


                                                            Media Muestral



                                                            Varianza Muestral


           •   n pequeña (< 30).

       Construir un intervalo de confianza del 100 (1 – α) % para μ.



                                                            Estimador puntual de μ




                                                                                         10
Reacomodando:




                              P (L ≤ θ ≤ U) = 1 – α




Intervalo de confianza de dos lados del 100 (1 – α) % para μ.



                                                                11
Donde            es el valor t con n – 1 grados de libertad que deja una área de    a la
derecha.




       A la formula anterior a menudo se le denomina formula del intervalo de confianza para la
media en muestras pequeñas, aunque es valido para muestras de cualquier tamaño.




                                                  Intervalo de confianza de un lado del
                                           100 (1 – α) % en μ.




                                                                                            12
Estimación de σ2.

        Suponga que una m. a. de tamaño n es seleccionada de una población normal con media μ
y varianza σ2 desconocidas.

                     N (μ, σ2)
       X




       X1, X2,…, Xn.

             m. a.


                                      Estimador puntual de µ.




                                              Estimador puntual de σ2.



                 Son estadísticos.

       Construir un intervalo de confianza del 100 (1 – α) % para σ2.




       Va a utilizar para construir el intervalo de confianza para σ2.




                                                                                          13
Reacomodando:




                                P (L     ≤    θ    ≤    U) = 1- α




          Limite de confianza




                                              son los valores X2 con n-1 grados de libertad que
Donde

dejan áreas de α/2, 1- α/2, respectivamente a la derecha.




                    Intervalos de confianza bilaterales del 100 (1-α) % para σ2.


                                                                                                  14
Extrayendo Raíz Cuadrada




                     Intervalos de Confianza bilateral del 100 (1-α) % para σ

     Intervalo De Confianza Para Una Proporción P

Supóngase que estamos interesados en estimar la proporción P de elementos que presentan la
característica de interés en un universo dado. Una muestra aleatoria de tamaño n es seleccionada al
azar y se observa el numero de elementos X (x≤n) en la muestra que tiene la característica de
interés.



Sabemos que:




Cuando n es grande (?)

                                       Aproximadamente.


Estandarizando:




                                                 Aproximadamente.




                                                                                                15
Dividiendo numerador y denominador entre n, tenemos:




             Estimador puntual de P


                                 Es un estimador integrado de P.




V.a a utilizar para construir el intervalo de confianza del 100 (1-α) % para P




Considerando la partición de la curva normal estándar, tenemos:




                                                                                 16
Pero:




Reacomodando:




Al sustituir P por     en el error estándar (lo que resulta un error estándar estimado) tenemos que:
El intervalo de coeficiente bilateral del 100 (1 – α) % aproximado en P es:




           Estimación De La Diferencia Entre Dos Medias.

           •   Puntual.
           •   Por intervalo.

Considérese dos poblaciones con medias μ1 y μ2 y varianzas σ12 y σ22 (conocidas) respectivamente.
Dos muestras aleatorias independientes de tamaño n1 y n2 son seleccionadas, una de dada
población.




                                                                                                 17
Un estimador lógico de μ1- μ2 es             donde           son las medidas muéstrales.

X11, X12,.......X1n1               m.a de tamaño n1 de X1.
X21, X22,…X2n2                     m.a de tamaño n2 de X2.

X1 y X2 denotan las poblaciones de interés.




                          ;




                          Estimador puntual de μ1- μ2.
El valor numérico          es la estimulación puntual de μ1- μ2.

La distribución maestral de        es normal si X1 y X2 están distribuidas de forma normal o
aproximadamente normal si se completa las condiciones del TLC.




La distribución de la v.a Z es normal estimada; si X1 y X2 son normales o aprox. Normal estándar
si n1 y n2 son grandes (TLC).




                                                                                             18
De donde:




Sustituyendo Z:




Aislar algebraicamente μ1- μ2 del centro de la desigualdad:




De donde:




                                                              19
*intervalo de confianza aproximado a menos que las dos poblaciones sean normales.




La forma del intercambio anterior se aplica si se conocen σ12 y σ22. Si las varianzas no se conocen y
las dos poblaciones son normales, la distribución t resulta implicada como en el caso de una
muestra. Si no esta dispuesto a suponer normalidad muestras grandes (≥ 30) permitirán el uso de
S12 y S22 respectivamente.




         Intervalo De Confianza Para μ1- μ2 Con Varianza Desconocida.

Suposiciones:
   • Poblaciones normales




   •   Varianza desconocida, pero iguales.




   •   Muestra aleatoria undipendientes de tamaños n1 y n2




                                                                                                  20
•   Muestras pequeñas.

X11, X12,…, X1n,        X21, X22,…, X2n2




Con la suposición de σ12 = σ22 un intervalo de confianza para μ1 - μ2 basado en la v.a T se puede
construir.




                                                                                              21
Sustituyendo T




Reareglando:




De donde:




                          Intervalo de confianza del 100 (1 – α) % para
                                μ1 - μ2, σ12= σ22 pero desconocidas.

A la forma anterior a menudo se le denomina formula del intervalo de confianza para μ1 - μ2 en
muestras pequeñas, aunque es valida para muestras de cualquier tamaño y funciona
satisfactoriamente cuando la población no es normal, mientras que la desviación de la normalidad
no se exceda.




Cuando no es razonable suponer que σ12= σ22, un intervalo de confianza de dos lados de100 (1 – α)
% aproximado en μ1 - μ2 es:



                                                                                              22
De donde




           La construcción del intervalo de confianza anterior se bazo en la variable aleatoria:




                                 Intervalo de confianza para μ1 - μ2
                                      Observaciones pareadas

Suponer:

   •   Poblaciones normales




   •   Muestras aleatorias dependientes.

   X11, X12,…, X1n,

   X21, X22,…, X2n2




                                                                                                   23
•   -n1=n2=n         n pequeña.




D: denota una población de diferencia.




Se puede construir un intervalo de confianza para μ1 - μ2 con solo encontrar un intervalo de
confianza para μD.




                                                                                         24
Uso de distribución t.




Sustituyendo y reacomodando tenemos:




                     Intervalo de confianza de dos lados del 100 (1 – α) % en

                            Intervalo de confianza sobre la razón de
                             Varianzas de dos poblaciones normales




Suponer:

   •   Poblaciones normales.




    μ1 - μ2, σ12 y σ22 no se conocen

   •   Muestras aleatorias independientes.

    X11, X12,…, X1n,

    X21, X22,…, X2n2




                                                                                25
La forma mas lógica de estimar (estimador puntual) la razón de dos varianzas, es estimar cada una
por separado como se vio anteriormente y después estimar que      es   la    razón    de    estas
estimaciones.




       Estimador puntual de σ12.




       Estimador puntual de σ22.




       Si σ12 y σ22 son las varianzas de dos poblaciones normales, podemos construir un intervalo
de confianza basándonos en la variable aleatoria F.




                                                                                              26
Variable aleatoria a utilizar para construir el intervalo de confianza de 100 (1 - α) %.




De la figura tenemos:




                                                                                           27
Reareglando:




        De donde:




        Donde                          es un valor f con                                  grados de

libertad que deja un área a la derecha de       .                       es un valor de f similar con

grados de libertad (g. l.)




        Intervalo de confianza de dos lados (Bilateral) del 100 (1 – α) % para        .




                                                                                                 28
Intervalo De Confianza Para La Diferencia De Dos Proporciones P1 – P2.

                              P1 – P2             Parámetro.

  P1: Proporción de elementos con la característica de interés en un universo dado.

  P2: Proporción de elementos con la característica de interés en otro universo dado.

  Si bien se trata de dos universos diferentes, la característica de interés deberá ser la misma.

  P1 y P2 son parámetros binomiales.

  Si toman muestras aleatorias independientes de tamaño n1 y n2 respectivamente.




  X1: Nº de elementos en la muestra 1 con la característica de interés.

  X2: Nº de elementos en la muestra 2 con la característica de interés.




  Un estimador lógico de P1 – P2 es:




  Es posible probar que:




                                                                                               29
Se puede construir un intervalo de confianza para P1 – P2 considerando la distribución
muestral de          :


       Distribución muestral de        :




              Para n1 y n2 grandes.

       De donde:




                                                                                          30
De la curva normal estándar podemos escribir:




Sustituyendo para Z.




Reareglando:




                                                31
De donde un intervalo de confianza de dos lados del 100 (1 – α) % aproximado para P1 – P2
es:




       La construcción del intervalo de confianza para P1 – P2 se basa en la aproximación normal a
la binomial que es adecuada para n1 y n2 grandes. ¿ ?




                                                                                               32

More Related Content

What's hot

Guía métodos estadísticos.
Guía métodos estadísticos.Guía métodos estadísticos.
Guía métodos estadísticos.Lenin Goursa
 
Estimacion Puntual E Intervalos.Ppt [Compatibility M
Estimacion  Puntual E Intervalos.Ppt [Compatibility MEstimacion  Puntual E Intervalos.Ppt [Compatibility M
Estimacion Puntual E Intervalos.Ppt [Compatibility MLuis Baquero
 
Distribucion normal
Distribucion normalDistribucion normal
Distribucion normalaliriopardov
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o mediaJag Är Omxr
 
Capitulo 10 Prueba Para La Media, Muestra PequeñA
Capitulo 10 Prueba Para La Media, Muestra PequeñACapitulo 10 Prueba Para La Media, Muestra PequeñA
Capitulo 10 Prueba Para La Media, Muestra PequeñADavid Torres
 
Tabla distribución t 2 colas
Tabla distribución t 2 colasTabla distribución t 2 colas
Tabla distribución t 2 colasFrancisco Molina
 
Métodos de muestreo y el teorema de límite central
Métodos de muestreo y el teorema de límite centralMétodos de muestreo y el teorema de límite central
Métodos de muestreo y el teorema de límite centralAlejandro Ruiz
 
MEDIDAS DE TENDENCIA CENTRAL
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
MEDIDAS DE TENDENCIA CENTRALVerónica Taipe
 
Contraste de hipótesis Bilateral y Unilateral
Contraste de hipótesis Bilateral y UnilateralContraste de hipótesis Bilateral y Unilateral
Contraste de hipótesis Bilateral y Unilateralmiguelpi
 
Estimaciòn puntual
Estimaciòn puntualEstimaciòn puntual
Estimaciòn puntualadriana0412
 
Estimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesEstimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesHugo Caceres
 

What's hot (20)

Problemas unidad 3.new
Problemas unidad 3.newProblemas unidad 3.new
Problemas unidad 3.new
 
Guía métodos estadísticos.
Guía métodos estadísticos.Guía métodos estadísticos.
Guía métodos estadísticos.
 
Estimacion Puntual E Intervalos.Ppt [Compatibility M
Estimacion  Puntual E Intervalos.Ppt [Compatibility MEstimacion  Puntual E Intervalos.Ppt [Compatibility M
Estimacion Puntual E Intervalos.Ppt [Compatibility M
 
Estimación de Parámetros
Estimación de ParámetrosEstimación de Parámetros
Estimación de Parámetros
 
5 estadística inferencial
5 estadística inferencial5 estadística inferencial
5 estadística inferencial
 
Distribucion normal
Distribucion normalDistribucion normal
Distribucion normal
 
Probabilidades .......
Probabilidades .......Probabilidades .......
Probabilidades .......
 
Valor esperado o media
Valor esperado o mediaValor esperado o media
Valor esperado o media
 
Estimacion y desviacion
Estimacion y desviacion Estimacion y desviacion
Estimacion y desviacion
 
Capitulo 10 Prueba Para La Media, Muestra PequeñA
Capitulo 10 Prueba Para La Media, Muestra PequeñACapitulo 10 Prueba Para La Media, Muestra PequeñA
Capitulo 10 Prueba Para La Media, Muestra PequeñA
 
DISTRIBUCION MUESTRAL
DISTRIBUCION MUESTRALDISTRIBUCION MUESTRAL
DISTRIBUCION MUESTRAL
 
Medidas de dispersion
Medidas de dispersionMedidas de dispersion
Medidas de dispersion
 
Tabla distribución t 2 colas
Tabla distribución t 2 colasTabla distribución t 2 colas
Tabla distribución t 2 colas
 
Métodos de muestreo y el teorema de límite central
Métodos de muestreo y el teorema de límite centralMétodos de muestreo y el teorema de límite central
Métodos de muestreo y el teorema de límite central
 
MEDIDAS DE TENDENCIA CENTRAL
MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL
MEDIDAS DE TENDENCIA CENTRAL
 
Contraste de hipótesis Bilateral y Unilateral
Contraste de hipótesis Bilateral y UnilateralContraste de hipótesis Bilateral y Unilateral
Contraste de hipótesis Bilateral y Unilateral
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
Estimaciòn puntual
Estimaciòn puntualEstimaciòn puntual
Estimaciòn puntual
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
Estimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporcionesEstimación.intervalos de confianza para la media y para las proporciones
Estimación.intervalos de confianza para la media y para las proporciones
 

Similar to Estimación de parámetros (20)

ENSAYO 7
ENSAYO 7ENSAYO 7
ENSAYO 7
 
Estimadores
EstimadoresEstimadores
Estimadores
 
Estimadores
EstimadoresEstimadores
Estimadores
 
Estadística aplicada ing civil
Estadística aplicada ing civilEstadística aplicada ing civil
Estadística aplicada ing civil
 
5)Estimación de parámetros.pptx
5)Estimación de parámetros.pptx5)Estimación de parámetros.pptx
5)Estimación de parámetros.pptx
 
Estimacionpuntual1
Estimacionpuntual1Estimacionpuntual1
Estimacionpuntual1
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadistica
 
Inferencia estadistica
Inferencia estadisticaInferencia estadistica
Inferencia estadistica
 
Clase04 estadistica descriptiva
Clase04   estadistica descriptivaClase04   estadistica descriptiva
Clase04 estadistica descriptiva
 
Clase de estimacion puntual y intervalo
Clase de estimacion puntual y intervaloClase de estimacion puntual y intervalo
Clase de estimacion puntual y intervalo
 
Estadistica III Unidad 2.pptx
Estadistica III Unidad 2.pptxEstadistica III Unidad 2.pptx
Estadistica III Unidad 2.pptx
 
Intervalos de confianza-1
Intervalos de confianza-1Intervalos de confianza-1
Intervalos de confianza-1
 
Estimacion de Parámetro.pdf
Estimacion de Parámetro.pdfEstimacion de Parámetro.pdf
Estimacion de Parámetro.pdf
 
Maxima verosimilitud
Maxima verosimilitudMaxima verosimilitud
Maxima verosimilitud
 
Evaluacion de desempeño umayor 2013
Evaluacion de desempeño umayor 2013Evaluacion de desempeño umayor 2013
Evaluacion de desempeño umayor 2013
 
Consulta de intervalos de confianza
Consulta de intervalos de confianzaConsulta de intervalos de confianza
Consulta de intervalos de confianza
 
Guia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una mediaGuia 3.estimadores estimación de una media
Guia 3.estimadores estimación de una media
 
Estimacion
EstimacionEstimacion
Estimacion
 
Consulta de intervalos de confianza
Consulta de intervalos de confianzaConsulta de intervalos de confianza
Consulta de intervalos de confianza
 
5.variables aleatorias y dp
5.variables aleatorias y dp5.variables aleatorias y dp
5.variables aleatorias y dp
 

Recently uploaded

Avances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estosAvances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estossgonzalezp1
 
investigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIinvestigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIhmpuellon
 
How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.FlorenciaCattelani
 
redes informaticas en una oficina administrativa
redes informaticas en una oficina administrativaredes informaticas en una oficina administrativa
redes informaticas en una oficina administrativanicho110
 
pruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITpruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITMaricarmen Sánchez Ruiz
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...JohnRamos830530
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21mariacbr99
 
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxPROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxAlan779941
 
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxEVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxJorgeParada26
 
Buenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxBuenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxFederico Castellari
 
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxEL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxMiguelAtencio10
 
Avances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanaAvances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanamcerpam
 

Recently uploaded (12)

Avances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estosAvances tecnológicos del siglo XXI y ejemplos de estos
Avances tecnológicos del siglo XXI y ejemplos de estos
 
investigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXIinvestigación de los Avances tecnológicos del siglo XXI
investigación de los Avances tecnológicos del siglo XXI
 
How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.How to use Redis with MuleSoft. A quick start presentation.
How to use Redis with MuleSoft. A quick start presentation.
 
redes informaticas en una oficina administrativa
redes informaticas en una oficina administrativaredes informaticas en una oficina administrativa
redes informaticas en una oficina administrativa
 
pruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNITpruebas unitarias unitarias en java con JUNIT
pruebas unitarias unitarias en java con JUNIT
 
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
Resistencia extrema al cobre por un consorcio bacteriano conformado por Sulfo...
 
Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21Innovaciones tecnologicas en el siglo 21
Innovaciones tecnologicas en el siglo 21
 
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptxPROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
PROYECTO FINAL. Tutorial para publicar en SlideShare.pptx
 
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptxEVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
EVOLUCION DE LA TECNOLOGIA Y SUS ASPECTOSpptx
 
Buenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptxBuenos_Aires_Meetup_Redis_20240430_.pptx
Buenos_Aires_Meetup_Redis_20240430_.pptx
 
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptxEL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
EL CICLO PRÁCTICO DE UN MOTOR DE CUATRO TIEMPOS.pptx
 
Avances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvanaAvances tecnológicos del siglo XXI 10-07 eyvana
Avances tecnológicos del siglo XXI 10-07 eyvana
 

Estimación de parámetros

  • 1. Estimación: El proceso de estimación en inferencia estadística puede ser descrito como el proceso de estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral (Estadístico) para estimar la media poblacional, (parámetro). La estimación de parámetros puede ser: • Puntual o Por Punto. • Por Intervalo. Estimación Puntual: Objetivo. Dar un valor numérico que aproxime en forma muy cercana al parámetro poblacional. La estimación puntual de un parámetro de una población es un solo valor numérico de un estadístico que corresponde a este parámetro. Un estadístico utilizado para aproximar a un parámetro de una población se denomina Estimador del Parámetro. El número obtenido cuando se evalúa el estimador para una muestra particular, se denomina Estimación del Parámetro. Sea X una variable aleatoria de interés con distribución de probabilidad f (x). θ : Parámetro Desconocido. : f (X1, X2, X3,…,Xn) m. a. de tamaño n. Estadístico. Estimador. es un posible estimador de µ. Por ejemplo: µ=θ 1
  • 2. : : Estimador puntual de µ, porque al evaluarlo para una muestra es concreto, da un solo numero o punto. : Estimación puntual de µ. Otros Parámetros de Interés: P: Proporción Poblacional (proporción binomial). “Proporción de elementos con cierta característica de interés en un universo dado.” = Estimador puntual de P. X: Nº de elementos en la muestra con característica de interés. σ2 : Varianza Poblacional. Estadístico: Estimador puntual de σ2. σ : Desviación estándar de una población. Estimador puntual de σ. µ1 - µ2: Diferencia de dos medias poblacionales. Estimador puntual de µ1 - µ2. Diferencia entre las medias de dos muestras aleatorias independientes. P1 – P2 2
  • 3. Estimador puntual para P1 – P2 Diferencia entre dos proporciones muéstrales, basadas en dos muestras aleatorias independientes. Razón de dos varianzas poblacionales. Estimador puntual de Sea X una variable aleatoria con media µ desconocida y varianza σ2. X1, X2,…, Xn m. a. de tamaño n. θ=µ = f (X1, X2,…, Xn) Estimadores posibles para µ ¿Cuál es el mejor? Antes de responder a esta pregunta debemos decidir que propiedades son deseables en un estimador puntual. Obviamente queremos que el estimador produzca estimaciones que puedan esperarse sean próximas en valor al parámetro que se esta estimando. Propiedades De Los Estimadores Puntuales: 3
  • 4. Insesgabilidad • Eficiencia • Consistencia • Suficiencia Estimador In sesgado: un estimador puntual de un parámetro θ, entonces Sea es un estimador ) = θ. De lo contrario se dice que es sesgado. insesgado si E ( Distribución muestral de un estimador insesgado. Distribución muestral de un estimador sesgado positivamente, para el cual Si el estimador es sesgado, la magnitud del sesgo es: 4
  • 5. Sesgo = Suponga que X es una variable aleatoria con media µ y varianza σ2, sea X1, X2, X3, X4,…, Xn una m. a. de tamaño n de X. Es posible probar que la media muestral y la varianza muestral S son estimadores insesgados de µ y σ respectivamente. 2 2 Sin embargo S1 (Desviación estándar muestral) es un estimador sesgado de σ. (σ: Desviación estándar poblacional). de un parámetro θ. Error estándar de un estimador Medida usual de la precisión de una estimación puntual. Error cuadrado medio (ECM) de un estimador . Se puede demostrar que: Si es un estimador puntual insesgado de θ; entonces: Ya que el sesgo Varianza de Error de estimación. 5
  • 6. El error de estimación Є es la distancia entre el estimador y su parámetro. Es decir; = f (X1, X2,…, Xn) m. a. Є Cantidad aleatoria. Nota: La condición de que es insesgado, supone que el valor promedio de (promedio de los valores de ) es exactamente correcto. No dice que un solo valor sea exactamente correcto. Eficiencia Relativa: La eficiencia relativa entre dos estimadores y de un parámetro θ, con ECM respectivos ECM ( ) y ECM ( ) se define como: Si la eficiencia relativa es menor que 1 entonces concluimos que es un mejor estimador de θ que Si y son dos estimadores insesgados de θ, entonces: Eficiencia Relativa = Si consideramos todos los posibles estimadores insesgados de algún parámetro θ, el de menor varianza se llama Estimador mas Eficiente de θ. Estimador Consistente: 6
  • 7. es un estimador insesgado de θ, basado en una m. a. de tamaño n, decimos que Si es consistente para θ, si: La consistencia es una propiedad de muestras grandes. Los estimadores cuyo ECM (o varianza si el estimador es insesgado) tiende a cero cuando el tamaño de la muestra tiende al infinito, son consistentes. Por ejemplo: N (µ, σ2) y X1, X2,…, Xn Si X Es una muestra aleatoria de tamaño n de X, entonces es un estimador consiente de µ. Es un estimador insesgado de µ. Estimación Por Intervalo. 7
  • 8. Un estimador por intervalo es una regla que especifica un método que utiliza las mediciones de la muestra para calcular dos números que forman los extremos del intervalo. Objetivo: Encontrar un estimador por intervalo que genere intervalos angostos que contengan a θ (parámetro) con una alta probabilidad. Los estimadores por intervalo se denominan comúnmente intervalos de confianza. Un intervalo de confianza de θ, es un intervalo [L, U] que incluye a θ con un grado de certidumbre establecido. L y U se denominan extremos inferior y superior del intervalo de confianza. L: Limite inferior de confianza. U: Limite de confianza superior. L, U: Estadísticos (variables aleatorias). Para construir un estimador por intervalo del parámetro θ desconocido, debemos encontrar L y U tal que: P (L ≤ θ ≤ U) = 1 – α La probabilidad 1 – α se le llama Coeficiente de Confianza. Usualmente, se expresa en porcentaje: 100 (1 – α) %. 1 – α es la probabilidad de que el intervalo contenga al parámetro. 0<α<1 El intervalo resultante: L≤θ≤U Se llama intervalo de confianza del 100 (1 – α) % para el parámetro θ. (Intervalo de confianza de dos lados). En ocasiones un intervalo de confianza de un lado podría ser útil. L ≤ θ Intervalo de confianza inferior del 100 (1 – α) %. θ ≤ U Intervalo de confianza superior del 100 (1 – α) % Donde U se elige de modo que: P (θ ≤ U) = 1 - α Estimación Por Intervalo de µ. 8
  • 9. Intervalo de confianza sobre la media (µ), conocida la varianza (σ2). Construir un intervalo de confianza del 100 (1 – α) % para la media µ de una población denotada por X, con varianza σ2 conocida a partir de una muestra aleatoria (m. a.) X1, X2, X3,…, Xn de tamaño n. como estimador puntuales de µ. Si usamos Distribución de . • Si la muestra es seleccionada de una población normal. De donde: • A falta de esta (De población normal), si n es suficiente grande: * Si se cumplen las condiciones del TLC. Aproximadamente. Aproximadamente. Para construir un intervalo de confianza de µ, primero hallaremos una variable aleatoria (v. a.) cuya expresión contenga a µ y cuya distribución se conozca al menos aproximadamente. Contiene al parámetro µ y su distribución es normal Nótese que la v. a. estándar (o al menos aproximadamente normal estándar). Queremos determinar L y U de forma que P (L ≤ θ ≤ U) = 1 – α Consideremos la participación de la curva normal estándar. (I) 9
  • 10. Formula exacta cuando la población muestreada tiene distribución normal y varianza σ2 conocida. Si σ2 no se conoce (y σ) reemplazar σ por S en (I). Buena aproximación, • siempre que n sea grande (n ≥ 30). Intervalo de confianza sobre la medida (μ), σ2 desconocida, muestra pequeña. Suponer: Población normal con medida μ y σ2 (varianza) desconocida. • N (μ, σ2) X • Muestra aleatoria de tamaño n. X1, X2,… Xn Media Muestral Varianza Muestral • n pequeña (< 30). Construir un intervalo de confianza del 100 (1 – α) % para μ. Estimador puntual de μ 10
  • 11. Reacomodando: P (L ≤ θ ≤ U) = 1 – α Intervalo de confianza de dos lados del 100 (1 – α) % para μ. 11
  • 12. Donde es el valor t con n – 1 grados de libertad que deja una área de a la derecha. A la formula anterior a menudo se le denomina formula del intervalo de confianza para la media en muestras pequeñas, aunque es valido para muestras de cualquier tamaño. Intervalo de confianza de un lado del 100 (1 – α) % en μ. 12
  • 13. Estimación de σ2. Suponga que una m. a. de tamaño n es seleccionada de una población normal con media μ y varianza σ2 desconocidas. N (μ, σ2) X X1, X2,…, Xn. m. a. Estimador puntual de µ. Estimador puntual de σ2. Son estadísticos. Construir un intervalo de confianza del 100 (1 – α) % para σ2. Va a utilizar para construir el intervalo de confianza para σ2. 13
  • 14. Reacomodando: P (L ≤ θ ≤ U) = 1- α Limite de confianza son los valores X2 con n-1 grados de libertad que Donde dejan áreas de α/2, 1- α/2, respectivamente a la derecha. Intervalos de confianza bilaterales del 100 (1-α) % para σ2. 14
  • 15. Extrayendo Raíz Cuadrada Intervalos de Confianza bilateral del 100 (1-α) % para σ Intervalo De Confianza Para Una Proporción P Supóngase que estamos interesados en estimar la proporción P de elementos que presentan la característica de interés en un universo dado. Una muestra aleatoria de tamaño n es seleccionada al azar y se observa el numero de elementos X (x≤n) en la muestra que tiene la característica de interés. Sabemos que: Cuando n es grande (?) Aproximadamente. Estandarizando: Aproximadamente. 15
  • 16. Dividiendo numerador y denominador entre n, tenemos: Estimador puntual de P Es un estimador integrado de P. V.a a utilizar para construir el intervalo de confianza del 100 (1-α) % para P Considerando la partición de la curva normal estándar, tenemos: 16
  • 17. Pero: Reacomodando: Al sustituir P por en el error estándar (lo que resulta un error estándar estimado) tenemos que: El intervalo de coeficiente bilateral del 100 (1 – α) % aproximado en P es: Estimación De La Diferencia Entre Dos Medias. • Puntual. • Por intervalo. Considérese dos poblaciones con medias μ1 y μ2 y varianzas σ12 y σ22 (conocidas) respectivamente. Dos muestras aleatorias independientes de tamaño n1 y n2 son seleccionadas, una de dada población. 17
  • 18. Un estimador lógico de μ1- μ2 es donde son las medidas muéstrales. X11, X12,.......X1n1 m.a de tamaño n1 de X1. X21, X22,…X2n2 m.a de tamaño n2 de X2. X1 y X2 denotan las poblaciones de interés. ; Estimador puntual de μ1- μ2. El valor numérico es la estimulación puntual de μ1- μ2. La distribución maestral de es normal si X1 y X2 están distribuidas de forma normal o aproximadamente normal si se completa las condiciones del TLC. La distribución de la v.a Z es normal estimada; si X1 y X2 son normales o aprox. Normal estándar si n1 y n2 son grandes (TLC). 18
  • 19. De donde: Sustituyendo Z: Aislar algebraicamente μ1- μ2 del centro de la desigualdad: De donde: 19
  • 20. *intervalo de confianza aproximado a menos que las dos poblaciones sean normales. La forma del intercambio anterior se aplica si se conocen σ12 y σ22. Si las varianzas no se conocen y las dos poblaciones son normales, la distribución t resulta implicada como en el caso de una muestra. Si no esta dispuesto a suponer normalidad muestras grandes (≥ 30) permitirán el uso de S12 y S22 respectivamente. Intervalo De Confianza Para μ1- μ2 Con Varianza Desconocida. Suposiciones: • Poblaciones normales • Varianza desconocida, pero iguales. • Muestra aleatoria undipendientes de tamaños n1 y n2 20
  • 21. Muestras pequeñas. X11, X12,…, X1n, X21, X22,…, X2n2 Con la suposición de σ12 = σ22 un intervalo de confianza para μ1 - μ2 basado en la v.a T se puede construir. 21
  • 22. Sustituyendo T Reareglando: De donde: Intervalo de confianza del 100 (1 – α) % para μ1 - μ2, σ12= σ22 pero desconocidas. A la forma anterior a menudo se le denomina formula del intervalo de confianza para μ1 - μ2 en muestras pequeñas, aunque es valida para muestras de cualquier tamaño y funciona satisfactoriamente cuando la población no es normal, mientras que la desviación de la normalidad no se exceda. Cuando no es razonable suponer que σ12= σ22, un intervalo de confianza de dos lados de100 (1 – α) % aproximado en μ1 - μ2 es: 22
  • 23. De donde La construcción del intervalo de confianza anterior se bazo en la variable aleatoria: Intervalo de confianza para μ1 - μ2 Observaciones pareadas Suponer: • Poblaciones normales • Muestras aleatorias dependientes. X11, X12,…, X1n, X21, X22,…, X2n2 23
  • 24. -n1=n2=n n pequeña. D: denota una población de diferencia. Se puede construir un intervalo de confianza para μ1 - μ2 con solo encontrar un intervalo de confianza para μD. 24
  • 25. Uso de distribución t. Sustituyendo y reacomodando tenemos: Intervalo de confianza de dos lados del 100 (1 – α) % en Intervalo de confianza sobre la razón de Varianzas de dos poblaciones normales Suponer: • Poblaciones normales. μ1 - μ2, σ12 y σ22 no se conocen • Muestras aleatorias independientes. X11, X12,…, X1n, X21, X22,…, X2n2 25
  • 26. La forma mas lógica de estimar (estimador puntual) la razón de dos varianzas, es estimar cada una por separado como se vio anteriormente y después estimar que es la razón de estas estimaciones. Estimador puntual de σ12. Estimador puntual de σ22. Si σ12 y σ22 son las varianzas de dos poblaciones normales, podemos construir un intervalo de confianza basándonos en la variable aleatoria F. 26
  • 27. Variable aleatoria a utilizar para construir el intervalo de confianza de 100 (1 - α) %. De la figura tenemos: 27
  • 28. Reareglando: De donde: Donde es un valor f con grados de libertad que deja un área a la derecha de . es un valor de f similar con grados de libertad (g. l.) Intervalo de confianza de dos lados (Bilateral) del 100 (1 – α) % para . 28
  • 29. Intervalo De Confianza Para La Diferencia De Dos Proporciones P1 – P2. P1 – P2 Parámetro. P1: Proporción de elementos con la característica de interés en un universo dado. P2: Proporción de elementos con la característica de interés en otro universo dado. Si bien se trata de dos universos diferentes, la característica de interés deberá ser la misma. P1 y P2 son parámetros binomiales. Si toman muestras aleatorias independientes de tamaño n1 y n2 respectivamente. X1: Nº de elementos en la muestra 1 con la característica de interés. X2: Nº de elementos en la muestra 2 con la característica de interés. Un estimador lógico de P1 – P2 es: Es posible probar que: 29
  • 30. Se puede construir un intervalo de confianza para P1 – P2 considerando la distribución muestral de : Distribución muestral de : Para n1 y n2 grandes. De donde: 30
  • 31. De la curva normal estándar podemos escribir: Sustituyendo para Z. Reareglando: 31
  • 32. De donde un intervalo de confianza de dos lados del 100 (1 – α) % aproximado para P1 – P2 es: La construcción del intervalo de confianza para P1 – P2 se basa en la aproximación normal a la binomial que es adecuada para n1 y n2 grandes. ¿ ? 32