SlideShare a Scribd company logo
1 of 22
Download to read offline
                                                                                                      




        Una introducción a la 
    ESTADÍSTICA INFERENCIAL 

                                 José Chacón 

                                                

                                                    

                                                    

                                                    

                                                    

                                                    
        Esta obra está bajo una licencia Reconocimiento‐No comercial‐Compartir bajo la misma licencia 2.5 de 
                             Creative Commons. Para ver una copia de esta licencia, visite 
                                    http://creativecommons.org/licenses/by‐nc‐sa/2.5/ 
          o envie una carta a Creative Commons, 559 Nathan Abbott Way, Stanford, California 94305, USA. 
                 



             



             




                         

         




                     
                                                                                     


                                  Tema 1. Introducción 

       Esta asignatura ha sido orientada a entender los principios en los que se basa 
la estadística inferencial. Entender significa que es posible saber, en primer lugar, qué 
razones han llevado a elegir un determinado cálculo y, no menos importante, la rele‐
vancia real de los resultados de ese cálculo. 
       La  estadística  inferencial  no  es  más  que  un  argumento.  Un  buen  argumento 
hace creíble una afirmación. En nuestro caso, cualquier estudio necesitará, al menos 
dos argumentos sólidos: el estadístico y el relativo al diseño de investigación (lo que 
se puede aprender en Métodos I y II). Desde este punto de vista, nuestra tarea es po‐
der  entender  (y  calibrar)  los  argumentos  estadísticos  y  también  poder  construirlos 
nosotros mismos. 
       La estadística  inferencial es necesaria cuando  queremos hacer alguna afirmación 
sobre más elementos de los que vamos a medir. La estadística inferencial hace que ese sal‐
to de la parte al todo se haga de una manera “controlada”. Aunque nunca nos ofrecerá 
seguridad absoluta, sí nos ofrecerá una respuesta probabilística. Esto es importante: 
la estadística no decide; sólo ofrece elementos para que el investigador o el lector deci‐
dan.  En  muchos  casos,  distintas  personas  perciben  diferentes  conclusiones  de  los 
mismos datos. 
        El proceso será siempre similar. La estadística dispone de multitud de modelos 
que  están  a  nuestra  disposición.  Para  poder  usarlos  hemos  de  formular,  en  primer 
lugar, una pregunta en términos estadísticos. Luego hemos de comprobar que nues‐
tra situación se ajusta a algún modelo (si no se ajusta no tendría sentido usarlo). Pero 
si se ajusta, el modelo nos ofrecerá una respuesta estadística a nuestra pregunta esta‐
dística. Es tarea nuestra devolver a la psicología esa respuesta, llenándola de conte‐
nido psicológico.  

1. Definiciones e ideas previas 
       En el ámbito científico, la estadística, en general, y la estadística inferencial, en 
particular,  es  el  camino  que  hay  que  recorrer  para  llegar  de  una  pregunta  a  la  res‐
puesta  adecuada.  Así,  la  estadística  no  es  más  que  un  argumento  para  defender 
nuestras ideas. 
       ¿Cuándo  es  necesaria  la  estadística  inferencial?  Cuando  queremos  hacer  alguna 
afirmación sobre más elementos de los que vamos a medir. 
       La estadística descriptiva, como indica su nombre, tiene por finalidad descri‐
bir. Así, si queremos estudiar diferentes aspectos de, por ejemplo, un grupo de per‐
sonas, la estadística descriptiva nos puede ayudar. Lo primero será tomar medidas, 
en todos los miembros del grupo, de esos aspectos o variables para, posteriormente, 
indagar en lo que nos interese. Por ejemplo, para saber cuál es la “edad del grupo”, 
podemos  resumir  el  conjunto  de  todas  las  edades  mediante  la  media.  Eso  nos  dice, 
aproximadamente,  alrededor  de  qué  edad  se  sitúan  todos.  Ya  sabemos,  pongamos, 
que la edad media es 40 años. Pero además podemos utilizar la desviación típica, si 
                                                                               1. Introducción, 2 
queremos saber si el grupo tiene edades muy dispares (por ejemplo, una desviación 
típica de 12 años) o si, por el contrario, tienen edades parecidas (una desviación típi‐
ca  de  2  años).  Sólo  con  esos  indicadores  ya  podemos  hacernos  una  idea,  podemos 
describir a ese conjunto de personas, al menos en referencia a su edad. 
       Pero el tamaño de los grupos que suelen interesar es demasiado grande, a ve‐
ces tan grande como “todo el mundo”. Y esto, más que ser una rareza, es en muchos 
campos la norma. Por ejemplo, cuando se afirma que las personas tenemos una agu‐
deza visual menor que la de los halcones, podemos estar seguros de que no  hemos 
medido la agudeza visual de todos los humanos ni la de todos los halcones.  
       Pues bien, la estadística inferencial es la que va a permitir dar ese salto de los 
resultados obtenidos para un grupo a la totalidad.  
        Planteemos  una  cuestión  concreta:  Un  profesor  de  estadística  afirma  que  se 
aprende mejor estadística inferencial utilizando los ordenadores para mostrar lo que 
se  estudia.  ¿Cómo  podemos  decidir  si  esta  afirmación  es  cierta?  Una  posible  forma 
sería  seleccionando  dos  grupos  de  alumnos  (equivalentes)  que  estudien  estadística 
inferencial,  y  dar  las  mismas  clases  a  ambos,  incluido  el  mismo  profesor,  idénticos 
ejercicios, etc., excepto que uno de ellos utilizan los ordenadores en su aprendizaje y 
otro no.  
      Veamos  las  definiciones  en  relación  a  este  ejemplo,  suponiendo  que  realiza‐
mos el estudio con los alumnos de los grupos F (con ordenador) y G (sin ordenador): 
           
              Grupo F (con ordenador)                       Grupo G (sin ordenador) 
Población: un conjunto de elementos (generalmente personas, en psicología) que 
comparten al menos una característica bien definida. 
     Estudiantes de primero de psicología que       Estudiantes de primero de psicología que cur‐
    cursan estadística inferencial con ordenador      san estadística inferencial sin ordenador 
Muestra: es un subconjunto de elementos extraídos de una población. 
Los estudiantes de primero de psicología de la  Los estudiantes de primero de psicología de la 
               UCM, grupo F                                   UCM, grupo G 
Variable: Característica de los elementos de una población que puede tomar diversos 
valores (al menos, dos). 
Nivel de conocimientos en estadística II, me‐       Nivel de conocimientos en estadística II, me‐
       didos a través de un examen.                        didos a través de un examen. 
Datos: Valores obtenidos al medir una variable en una muestra. 
Conjunto de notas obtenidas en el examen de         Conjunto de notas obtenidas en el examen de 
  estadística para los alumnos del grupo F           estadística para los alumnos del grupo G 
Estadístico: Es un valor numérico que expresa una característica de una muestra. 
Formalmente, un estadístico es una función definida sobre una variable. 
Media ( X ) de las notas obtenidas en el exa‐       Media ( X ) de las notas obtenidas en el exa‐
men de estadística para alumnos del grupo F         men de estadística para alumnos del grupo G 


                                                                                                     
                                                                                           1. Introducción, 3 

Parámetro: Es un valor numérico que expresa una característica de una población. 
  Media (µ) de las notas obtenidas en el exa‐   Media (µ) de las notas obtenidas en el examen 
 men de estadística para todos los estudiantes   de estadística para todos los estudiantes de 
 de primero de psicología que cursan estadís‐   primero de psicología que cursan estadística 
        tica inferencial con ordenador.                   inferencial sin ordenador. 

2. El azar y la probabilidad 
       La  estadística  inferencial  resulta  de  aplicar  la  probabilidad  a  los  estadísticos 
que  ya  conocemos  por  la  estadística  descriptiva.  Los  resultados  de  esa  aplicación 
vendrán expresados, pues, en lenguaje probabilístico. 
        Y esto no ayuda precisamente a sentirse cómodo con la estadística inferencial. 
Además  de  ser  matemática,  tiene  la  fea  costumbre  de  no  decir  sí  o  no.  En  lugar  de 
ello, sus respuestas suenan a veces a excusas, eso sí, muy diplomáticas, como “no hay 
suficiente  evidencia”  o  “esa  afirmación  es  altamente  improbable”.  Pero  en  lenguaje 
matemático. El resultado es quizás extraño, difuso pero preciso;  no se decanta pero 
nos da cuatro decimales: “a partir de los datos que me ofrece, la probabilidad de que 
ocurra eso que usted afirma es 0.2381”1. 
         Pero aun así nos permite incrementar nuestro conocimiento. Las afirmaciones 
anteriores  pretenden  ilustrar  algo  fundamental:  las  afirmaciones  que  nos  permite 
hacer  la  estadística  inferencial  tienen  un  riesgo,  y  quien  la  usa  debe  saberlo.  No  es 
difícil,  de  todas  maneras,  porque  todas  estas  afirmaciones  están  formuladas  en  tér‐
minos de riesgo, de seguridad e inseguridad: de probabilidad. 
       El azar es, por definición, lo impredecible. ¿Cómo es posible entonces utilizar 
lo impredecible para obtener información? La clave está en que incluso lo impredeci‐
ble, para poder serlo, ha de cumplir algunas normas. El conjunto de esas normas, y 
las técnicas para extraer información del azar, es lo que llamamos probabilidad. 
       No hay nada mágico en el azar; resulta de una sucesión de circunstancias no 
controlables que lleva a no poder predecir el resultado. Fijémonos en la moneda de 
toda la vida. Lo que hace que lanzarla sea un experimento aleatorio es que es imposible 
controlar la fuerza con la que se lanza, los giros que da y los ángulos con que golpea 
el suelo una y otra vez hasta detenerse2. Basta situar la moneda de canto en una mesa 
y empujarla deliberadamente en una dirección para que desaparezca el azar. Pero si 
estando  de  canto  la  hacemos  girar  rápidamente  volvemos  a  disponer  de  un  experi‐
mento aleatorio. 
       Pero, ¿podemos realmente utilizar esta información para decidir sobre algo re‐
al?  Supongamos que lanzamos la moneda al aire. ¿Cuáles son esas normas que po‐

                                                         
1  Las  respuestas  que  obtendremos  serán  ligeramente  diferentes,  pero  esa  frase  sirve  para  ilustrar  el 
estilo. 
 Esto no es completamente cierto: hay prestidigitadores que se entrenan hasta controlar el lanzamien‐
2 

to de las monedas. Controlan la fuerza, los giros y el momento justo de detener el movimiento para 
conseguir cierto resultado. El truco consiste, por tanto, en que no hay azar. 

                                                                                                                  
                                                                            1. Introducción, 4 
demos utilizar? En este caso, que la moneda tiene dos caras, y que no hay preferencia 
por una u otra a la hora de posarse. Es decir: las dos únicas posibilidades se reparten 
por igual el “derecho” a ser el resultado final. Si aplicamos los conceptos básicos de 
la probabilidad, y recordando que la probabilidad total es 1, tenemos que las proba‐
bilidades de que salga cara o cruz son: 
                                        ⎧ P(cara) = 0.5
                                        ⎨                 
                                        ⎩ P(cruz ) = 0.5
      Lo  que suele ser  difícil de digerir para nuestro entendimiento son cuestiones 
como, por ejemplo, que aunque un determinado suceso tenga una probabilidad ínfi‐
ma, como 0.01 (un 1 por ciento), también puede ocurrir. 
      Aunque  todo  el  que  lea  esto  esté  realmente  convencido  de  que  es  verdad,  la 
experiencia demuestra que no aplicamos este conocimiento. 

3. El muestreo 
       Para  extraer  conclusiones  de  una  población  a  partir  de  una  muestra,  es  vital 
que la muestra sea representativa. 
       Hay  dos  tipos  de  muestreo:  probabilístico  (se  conoce,  o  puede  calcularse,  la 
probabilidad de cada elemento, por tanto, de cada muestra posible) y no probabilísti‐
co (se desconoce o no interesa la probabilidad de cada elemento; el investigador se‐
lecciona aquella muestra que considera más representativa o que le resulta más fácil). 
      Cuidado: no es que el muestreo no probabilístico no permita generar muestras 
representativas; lo que ocurre es que no tenemos ninguna información sobre el grado 
de representatividad de la muestra elegida. 
        El  muestreo  probabilístico  puede  darse  de  diferentes  formas,  según  estemos 
considerando poblaciones finitas (los votantes de la Comunidad de Madrid, los pa‐
cientes con insomnio) o infinitas (los posibles tiempos de reacción ante una tarea de 
búsqueda visual), y según consideremos (en las finitas) un muestreo con o sin reposi‐
ción.  
       El muestreo aleatorio simple se da cuando se cumple la igualdad de distribuciones 
(cualquier  valor  tiene  la  misma  probabilidad  de  salir  en  cada  extracción)  e  indepen‐
dencia (la probabilidad de obtener un determinado valor no se modifica por los valo‐
res ya obtenidos). 
       Otros tipos de muestreo probabilístico son el m. a. sistemático, el m. a. estrati‐
ficado y el m. a. por conglomerados. 




                                                                                               
                                                                                      


                         Tema 2. Estimación de parámetros  

      Cuando  queremos  estimar  el  valor  de  un  parámetro,  disponemos  de  dos 
aproximaciones: La estimación puntual y la estimación por intervalos. 

1. Estimación puntual 
        La estimación puntual asigna directamente al parámetro el valor obtenido pa‐
ra el estadístico.  
        [La  estimación  por  intervalos,  en  cambio,  proporciona  un  intervalo,  un  rango  de 
valores entre los que estará situado el parámetro con una cierta probabilidad. Para poder co‐
nocer esa probabilidad debemos conocer previamente la distribución de probabilidad del esta‐
dístico que estemos usando como estimador: la distribución muestral del estadístico. En 
los puntos 2 y 3 veremos estas dos cuestiones con más detalle.]  
       La estimación puntual constituye la inferencia más simple que podemos reali‐
zar: asignar al parámetro el valor del estadístico que mejor sirva para estimarlo. Pero 
para  que  un  estadístico  sea  considerado  un  buen  estimador  ha  de  cumplir  ciertas 
                                                                                  ˆ
condiciones.  Si  usamos  los  símbolos θ   para  un  parámetro  cualquiera,  y  θ ,  para  un 
posible estimador de  θ , podemos enunciar las propiedades de la siguiente forma: 
                                            ˆ
  • Carencia de sesgo: Un estimador, θ , será insesgado si su valor esperado coinci‐
      de con el del parámetro a estimar, θ . 
                                           ˆ
                                       E (θ ) = θ  
                                  ˆ
   • Consistencia: Un estimador, θ , será consistente si, conforme aumenta el tamaño 
     muestral, n, su valor se va aproximando a  θ . Expresado más formalmente, in‐
     dica que dada una cantidad arbitrariamente pequeña,  δ , cuando n tiende a in‐
     finito,  
                                        ˆ
                                  P (| θ − θ |< δ ) → 1  
                                                  ˆ      ˆ                  ˆ
   • Eficiencia: Dados dos posibles estimadores  θ1  y  θ 2 , diremos que  θ1  es un esti‐
                               ˆ
     mador más eficiente que  θ  si se cumple que 
                                    2

                                            σ θ2 < σ θ2  
                                               ˆ      ˆ
                                                  1   2


                                 ˆ
   • Suficiencia: Un estimador, θ , será suficiente si utiliza toda la información mues‐
     tral disponible. 
       La tabla a continuación muestra los estimadores de algunos parámetros: 
        
                             Estimadores 
                                                                               Parámetros 
    Insesgados              Consistentes                    Eficientes 
            X                      X                             X                   µ 
            2
           Sn−1                     2
                                   Sn                         2       2
                                                             Sn−1 ,  Sn             σ2 
            P                      P                             P                   π 
                                                               2. Estimación de parámetros, 6 
           Y el siguiente gráfico puede ilustrar el significado de esas propiedades: 
            




                                                                                               

2. Distribución muestral de la media 
       La distribución muestral (de la media o de cualquier otro estadístico) es fun‐
damental:  si  la  conocemos  podemos  saber con  qué  probabilidad  puede  adoptar  de‐
terminados  valores.  Eso  nos  permitirá  responder  a  ciertas  cuestiones,  por  ejemplo, 
obtener el intervalo de confianza para la media, hacer un contraste de hipótesis o cal‐
cular la potencia de un contraste de hipótesis. 
        Conocer  la  distribución  muestral  de  un  estadístico  (de  aquí  en  adelante,  la 
media) implica conocer su forma y sus parámetros. Por ejemplo, saber si su forma es 
la de la distribución normal, y saber que los parámetros son: media, 30 y desviación 
típica, 6.5. A fin de cuentas, lo que nos interesa es que la distribución muestral coin‐
cida con alguna conocida, de la que dispongamos de tablas. 
       La  forma  en  que  la  estadística  nos  permitirá  conocer  la  DMM  es  a  través  de 
condiciones  o  supuestos:  Si  nuestros  datos  cumplen  lo  que  pide  un  procedimiento 
estadístico,  entonces  ese  procedimiento  estadístico  nos  da  alguna  información  útil. 
Por ejemplo, 
            
            
                         Si…                                   entonces… 
         … tenemos un muestreo aleatorio,…
                                                  … los parámetros de la DMM son 
         … y las observaciones son indepen‐                   µX = µX
    1 
         dientes,…                                                         
                                                             σX =σX n
         … y el tamaño de la muestra es n, 
         … tenemos un muestreo aleatorio,…        … la DMM es normal, con indepen‐
       … y las observaciones son indepen‐         dencia del tamaño de la muestra, n… 
    2  dientes,…                                  … y con parámetros 
         … y la distribución de la variable X                 µX = µX
                                                                                
         es normal,                                            σX =σX      n


                                                                                               
                                                                2. Estimación de parámetros, 7 

                                                  … la DMM se aproximará a la normal, 
         … tenemos un muestreo aleatorio,…        conforme aumenta el tamaño de la 
       … y las observaciones son indepen‐         muestra, n… 
    3  dientes,                                   … y con parámetros 
         … y no conocemos la distribución de                  µX = µX
         la variable X,                                                           
                                                                σX =σX       n
                                                  … la DMM se aproximará a la distri‐
         … estamos en cualquiera de los ca‐       bución t con n – 1 grados de libertad, 
         sos anteriores,…                         … 
    4 
         … y desconocemos σ,                      … y con parámetros 
                                                              µX = µX
                                                                                  
                                                                σ X ≈ Sn−1   n
              
      De (1) obtenemos los parámetros de la DMM: la media y la desviación típica, 
que suele denominarse error típico de la media. 
       De (2) podemos deducir que, si nuestra variable de interés es normal en la po‐
blación, también lo será nuestra DMM. 
      De (3) extraemos que, aunque la distribución de la variable  X en la población 
no sea normal o, lo más frecuente, si no sabemos si es o no normal, la DMM sí será 
normal si el tamaño de la muestra,  n, es lo suficientemente grande (aproximadamen‐
te mayor que 30). 
              
        Gracias a (4) solucionamos un problema bastante común: el no conocer la des‐
viación típica poblacional de la variable  X. En este caso usamos como estimador  Sn‐1, 
pero entonces la DMM sigue la forma de la distribución  t. Las distribuciones normal 
y  t se diferencian visiblemente sólo cuando los grados de libertad son pequeños, co‐
mo  se  observa  en  las  gráficas  siguientes.  Cuando  aumenta  n,  σ    y  Sn‐1  se  van  pare‐
ciendo más y más, y las distribuciones normal y t también. Es por esto que, a un nivel 
práctico, a partir de un n mayor que 30 suelen usarse indistintamente. En las dos grá‐
ficas  que  siguen  se  pueden  ver  las  distribuciones  normal  (azul)  y  t  (rojo)  para  dos 
tamaños de muestra distinto:  n igual a 5 (arriba) y  n igual a 30 (debajo). Para ambas 
se calcula los límites que abarcan un 95% del área total de cada curva. Las discrepan‐
cias son evidentes con n igual a 5, pero inapreciables para n = 30. 




                                                                                                 
                                                                  2. Estimación de parámetros, 8 




                                                                              con n = 5. 
                                                    




                                                                             con n = 30. 
           
        A  efectos  prácticos,  todo  lo  visto  supone  lo  que  detallamos  a  continuación. 
Considérese siempre que el muestreo es aleatorio (los datos proceden de elementos 
representativos) e independiente (es decir, que el haber elegido un elemento no afec‐
ta a la probabilidad de elegir otros). En estas condiciones, puede ocurrir lo siguiente: 
    • Como es difícil conocer  σ, consideraremos siempre de partida que la DMM se 
      distribuirá  segùn  tn‐1,  ya  sea  cuando  sepamos  que  la  variable  X  se  distribuye 
      normalmente o cuando  n sea igual o mayor que 30 o ambas cosas. Como las ta‐
      blas de la distribución t aparecen tipificadas (con media = 0 y desviación típica = 
      1),  para hacer cualquier uso de ella deberemos tipificar el valor de interés, X: 
                                               X−µ
                                     temp =          → t n −1  
                                              Sn−1 n

    • Si, en el caso anterior, conocemos además la desviación típica poblacional, en‐
      tonces la DMM se distribuirá según la  distribución normal: Por la misma razón 
      de antes, para usar las tablas previamente debemos tipificar: 
                                           X−µ
                                    zemp =     → N (0,1)  
                                           σ n
    • Pero si no conocemos la forma de la distribución de la variable X, ni el n es lo 
      suficientemente  grande  como  para  hacer  uso  del  punto  (3),  entonces  no  pode‐


                                                                                                 
                                                              2. Estimación de parámetros, 9 
     mos  utilizar  esta  información.  [Pero  no  todo  está  perdido:  En  ese  caso  habría 
     que estudiar la forma de la distribución de la variable X, transformar las pun‐
     tuaciones  hasta  que  adopten  una  forma  normal  o,  en  última  instancia,  usar 
     pruebas no paramétricas, que no imponen supuestos sobre la forma de la dis‐
     tribución. Todo esto son conceptos que se verán más adelante.] 
       Como regla general utilizaremos siempre la distribución t (rara vez conocere‐
mos  σ), aunque podremos usar la tabla de la distribución normal (siempre que n sea 
suficientemente grande) para localizar valores que no aparezcan en la tabla de la dis‐
tribución t. 
      ¿Qué obtenemos de todo esto? 
      Lo  que  afirmábamos  anteriormente:  que  conociendo  cómo  se  comportan  las 
medias (su distribución muestral o distribución de probabilidad), podemos usar estas 
probabilidades siempre que sea necesario. Una de ellas, que veremos ahora, es la ob‐
tención de intervalos de confianza. Otra aplicación, más adelante, será utilizada en el 
contraste de hipótesis. 

3. Estimación por intervalos 
      Supongamos que conociésemos la población. Podríamos obtener la DMM para 
un determinado tamaño de la muestra, n. Una vez caracterizada la DMM, seríamos 
capaces de decir, con una determinada seguridad, dónde estarán las medias que po‐
dremos obtener si muestreamos. 
      Invirtiendo el razonamiento (y yendo a la realidad), dada una muestra, pode‐
mos calcular la DMM donde, con una cierta seguridad, estará la media poblacional 
que buscamos. Este razonamiento se muestra en la figura siguiente. 
                                                




                                                                                


                                                                                              
                                                                 2. Estimación de parámetros, 10 
       Observando vemos que a partir de la muestra (recuérdese que la población y 
sus parámetros son desconocidos) el IC, al 95%, para la media poblacional es [54.03, 
65.90]. Eso quiere decir que la probabilidad de haber “atrapado” la media poblacio‐
nal es 0.95, la probabilidad de haber acertado. O dicho de otro modo: la probabilidad 
de habernos equivocado, de no haber “atrapado” la media poblacional es 0.05, el 5%. 
       En el caso de la figura anterior, la media poblacional (64.31) cae dentro del in‐
tervalo,  pero  esto  no  siempre  es  así:  si  repetimos  el  proceso,  un  5%  de  las  veces  la 
media poblacional quedará fuera del intervalo propuesto, como se observa en la fi‐
gura siguiente: 
         




                                                                                         
                                                       
    La  obtención  de  un  determinado  intervalo  es  fácil,  dado  que  conocemos  la 
DMM. Basta con: 
    1. Localizar en la distribución de probabilidad (normal o t) los valores que contie‐
       nen el nivel de confianza. 
    2. Traducir esos dos valores a la escala de nuestra variable, X. 
         
         En la práctica, deberemos definir un nivel de confianza (NC), que determinará 
un nivel de riesgo,  α = 1‐NC. A partir de ahí, y asumiendo que se sigue la distribu‐
ción t: 
    1. Obtener los límites inferior y superior, es decir, los valores para tn‐1 que dejan a 
       la izquierda y a la derecha α/2 (la mitad del nivel de riesgo). Estos valores serán 
       tn−1,α 2  y  tn−1,1−α 2 . 
    2. Traducir esos dos valores a la escala de nuestra variable,  X. Así, y teniendo en 
       cuenta que  tn−1,1−α 2 = tn−1,α 2  los límites serían:  

                                                                                                    
                                                                    2. Estimación de parámetros, 11 

                                       ⎧l = X − t          Sn−1
                                       ⎪i
                                       ⎪
                                                  n −1,α 2
                                                             n
                                       ⎨                         
                                       ⎪ls = X + tn−1,α 2 Sn−1
                                       ⎪
                                       ⎩                     n
       Al  término  que  es  sumado  y  restado  de  la  media  suele  denominársele  error 
máximo,  y  se  denota  por  Emax.  En  estos  términos,  los  límites  de  un  intervalo  de  con‐
fianza suelen expresarse genéricamente como 
                                           ⎧ li = X − Emax
                                           ⎪
                                           ⎨                
                                           ⎪ls = X + Emax
                                           ⎩
       En  resumen,  una  vez  obtenido  el  intervalo  de  confianza  se  puede  afirmar  lo 
siguiente: 
                                   P(li < µ < ls ) = 1 − α  
        
       Que significa que la probabilidad de que la media poblacional esté situada de‐
ntro del intervalo obtenido es igual al nivel de confianza especificado (1 – α). 




                                                                                                    
                                                                                     


                           Tema 3. Contraste de hipótesis  

        

1. Contraste de hipótesis 
      Un  contraste  de  hipótesis  es  un  proceso  de  decisión  en  el  que  una  hipótesis 
formulada en términos estadísticos es puesta en relación con los datos empíricos para 
determinar si es o no compatible con ellos. 
       Los datos empíricos siempre provendrán de un  muestra, un subconjunto limi‐
tado de la población de referencia. Las hipótesis, por el contrario, siempre pregunta‐
rán acerca de la  población.   Piénsese que es absurdo preguntar si una media obtenida 
en  una  muestra,  por  ejemplo,  5’8,  es  mayor  que  5.  Por  supuesto  que  lo  es,  y  nadie 
(exceptuando  los  que  estudian  estadística)  puede  hacerse  semejante  pregunta  seria‐
mente.  
      Lo que sí es relevante preguntar es si la  media poblacional, que no conocemos, 
es mayor que 5. En tanto no la conocemos, usaremos la media  muestral como un es‐
timador (una aproximación) de esa media poblacional. 
1.1    Las hipótesis estadísticas (la pregunta, formalizada) 
       Una hipótesis estadística es una afirmación sobre una o más distribuciones de 
probabilidad; más concretamente, sobre la forma de una distribución de probabilidad 
o  sobre  el  valor  de  un  parámetro  de  esa  distribución  de  probabilidad.  En  cuanto  a 
nuestro ejemplo, nos centraremos en una distribución de probabilidad con el  paráme‐
tro  media poblacional igual a 5. El contraste de hipótesis nos dirá si es más o menos 
probable,  bajo  esa  distribución  de  probabilidad,  obtener  en  una  muestra  aleatoria 
una media igual a 5’8. 
     Todo  contraste  necesita  dos  hipótesis:  H0  y  H1,  que  serán  exhaustivas  y  mu‐
tuamente exclusivas. 
       H0 es la hipótesis nula, y es la que se somete a contraste. 
       H1 es la hipótesis alternativa a H0, y es la negación de H0. Mientras que H0 es 
exacta, H1 suele ser inexacta. 
      Un detalle importante: el signo “=” siempre va en la H0, sea exacta o inexacta. 
Es sobre este signo “=” sobre el que se construirá el modelo probabilístico, como ya 
hemos visto. 
1.2    Los supuestos (¿nuestra situación se parece a la del modelo?) 
       Son  un  conjunto  de  afirmaciones  que  necesitamos  establecer  (sobre  la  pobla‐
ción de partida y la muestra utilizada) para conseguir determinar la distribución de 
probabilidad en la que se basará nuestra decisión sobre H0. Si nuestra situación no se 
ajusta a estas condiciones,  necesarias, entonces no debemos usar el modelo. La razón 
es  obvia:  el  modelo  no  nos  sirve,  luego  cualquier  cosa  que  deduzcamos  de  él  será 
inexacta y/o errónea. 
                                                                              3. Contraste de hipótesis, 13 
1.3       El estadístico de contraste y su distribución de probabilidad 
       Un estadístico de contraste no es más que un cálculo o función que cumple lo 
siguiente: (1) expresa de forma adecuada nuestra pregunta psicológica, (2) tiene una 
distribución muestral (de probabilidad) conocida, y (3) viene traducido (o expresado) 
en la escala de esa distribución de probabilidad.  
1.4       La decisión (¿H0 sí o H0 no?) 
       La  decisión  requiere,  en  primer  lugar,  trazar  un  punto  de  corte  (o  dos,  en  el 
contraste bilateral), que definirá dos zonas, una de  rechazo  (o  crítica) y otra de  acepta‐
ción. Ese punto de corte vendrá dada por el nivel de confianza y el nivel de riesgo, α. 
      La decisión consiste en rechazar la H0 si el estadístico de contraste cae en la re‐
gión de rechazo, y mantenerla si cae en la región de aceptación. 
          Mantener la H0 significa que la hipótesis es compatible con los datos. 
          Rechazarla  implica  que  ambos  son  incompatibles,  luego  consideramos  la  H0 
falsa. 
           
                   Caso general                                          Ejemplo específico 
1. Hipótesis                                              
                         ⎧H0 : µ = µ0                    ¿Hay  un  nivel  de  aciertos  mayor  que  el 
•     Contr. Bilateral:  ⎨               
                         ⎩ H1 : µ ≠ µ 0                  esperado  por  azar,  en  20  ensayos?  NC  = 
                                                         0.95; n = 48. 
                           ⎧H0 : µ ≤ µ0
•     Contr. Unil. Der.:  ⎨                                              ⎧ H 0 : µ ≤ 10
                           ⎩ H1 : µ > µ 0                                ⎨               
                                                                         ⎩ H1 : µ > 10
                          ⎧H0 : µ ≥ µ0
•     Contr. Unil. Izq.:  ⎨               
                          ⎩ H1 : µ < µ 0
2. Supuestos                                              
•     Población de partida normal                        Tenemos un  n suficientemente grande pa‐
•     Muestra aleatoria de tamaño n.                     ra garantizar una DMM normal. 
3. Estadístico de contraste                               
                X−µ                                                     10.44 − 10   0.44
•     temp =          → t n −1                                 temp =              =      = 1.2558  
               Sn−1 n                                                   2.41 48 0.3484

4. La decisión                                            
Primero, la zona de rechazo según α                      •   α = 1 – NC = 1 – 0.95 = 0.05; 
                         ⎧ tteor_inf = tn−1,α 2          •   Contraste unilateral derecho, luego 
•     Contr. Bilateral:  ⎨                        
                         ⎩tteor_sup = tn−1,1−α 2                  tteor = tn−1,1−α = t47 ,0.95 = 1.676
                                                                                                        
                                                         •   El estadístico de contraste cae en la re‐
                                                             gión de aceptación: 
                                                                               temp < tteor
                                                                                              
•     Contr. Unil. Der.:  tteor    = tn−1,1−α  



                                                                                                            
                                                                       3. Contraste de hipótesis, 14 




                                                                                      
•   Contr. Unil. Izq.:  tteor = tn−1,α              •   Luego  mantenemos  la  H0:  los  resulta‐
                                                        dos  son  compatibles  con  una  media 
                                                        igual  a  10,  es  decir,  son  compatibles 
                                                        con los aciertos esperados por azar. 
                                   
La regla de decisión 
•   Se  rechaza  H0  si  temp  cae  en  la  zona 
    de rechazo determinada por tteor. 
         
       En las gráficas siguientes se observa la representación de las puntuaciones ob‐
tenidas y, superpuesta, la DMM con la región de rechazo definida por un α = 0.05. En 
la gráfica inferior aparece ampliada la DMM. Obsérvese que los valores están en la 
escala de la variable X, y no tipificada. 




                                                                                                         




                                                                                                         




                                                                                                     
                                                                    3. Contraste de hipótesis, 15 
2. Estimación por intervalos y contraste de hipótesis 
        Es fácil darse cuenta de la relación que existe entre un contraste de hipótesis y 
el intervalo de confianza.  
       Por ejemplo, calculamos un intervalo de confianza, al 95%, para la media espe‐
rada.  Como  resultado,  si  la  media  obtenida  está  dentro  de  ese  intervalo,  considera‐
remos que no se aleja lo suficiente como para considerarla distinta.  
       Eso es justamente lo que hacemos en un contraste de hipótesis bilateral: esta‐
blecemos  dos  puntos  de  corte  y  comprobamos  si  la  media  obtenida  está  dentro  del 
intervalo definido o no. Sobre este hecho realizamos la decisión. 
        Es diferente si consideramos un contraste unilateral. En ese caso, todo el nivel 
de  riesgo  se  sitúa  en  un  lado.  En  tanto  todos  los  intervalos  están  construidos  “de 
forma bilateral”, la equivalencia no es perfecta. Habría que multiplicar el alfa por dos 
para que fuera equivalente.  

3. Errores tipo I y II. Potencia de un contraste. 
       Hemos aprendido a realizar un contrate de hipótesis, y ahora sabemos tomar 
una decisión acerca de si rechazamos o no la H0. Además, conocemos las probabili‐
dades asociadas a cualquiera de las decisiones tomadas. Podemos representar gráfi‐
camente esta situación (ver figura anterior). Pero todas estas decisiones se basan en 
que H0 sea cierta. ¿Qué ocurre, entonces, si H0 es falsa? Esto puede resumirse en la 
siguiente tabla: 
             
                                                          Situación de H0 
                                         H0 Verdadera                        H0 Falsa 
                                       Decisión correcta 
                                                                         Error tipo II 
                Mantener H0                P = 1 – α
                                                                              P = β 
                                     Nivel de confianza 
    Decisión 
                                                                      Decisión correcta 
                                          Error tipo I 
                Rechazar H0                                                  P = 1 ‐ β
                                                 P = α 
                                                                             Potencia 
             
       ¿Cómo podemos representar gráficamente esta nueva perspectiva? Lo primero 
será considerar que, si H0 se considera falsa, adoptaremos como valor de H1 el obte‐
nido  en  nuestra  muestra.  A  partir  de  ahí,  podemos  plantear  una  nueva  DMM,  cen‐
trada precisamente en H1 (donde µ = 10.44): 
             




                                                                                                  
                                                                    3. Contraste de hipótesis, 16 




                                                                                                      
         
         Ahora  podemos  ver  que  ese  punto  de  corte  determina  otras  dos  áreas  en  la 
DMM para H1. Si analizamos la DMM para H1 es fácil saber lo que indican esas dos 
áreas: la de la izquierda (en verde), la probabilidad de que, siendo H0 falsa (es decir, 
adoptando H1 como verdadera), consideremos que H0 es cierta (o H1 es falsa), es de‐
cir, el error tipo II. 
       El área de la derecha (sin relleno), por el contrario, nos indica la probabilidad 
de rechazar H0 (y, por tanto, considerar cierta H1), 1‐ β. 
        Tenemos, por tanto, dos áreas (probabilidades) de error:  α y  β, y dos áreas de 
“acierto”, 1‐α y 1‐β. Pues bien, si  α y  β son los errores tipo I y tipo II, respectivamen‐
te, sus complementarios son el nivel de confianza (1‐ α) y la potencia (1‐ β). 
        Hasta hace poco, sólo se prestaba atención al nivel de riesgo o error tipo I,  α. 
Pero ahora es cada vez más habitual (y siempre recomendable) ver incluida la poten‐
cia en los estudios publicados. 
        ¿Para qué sirve, después de todo? Pues para varias cosas: 
    1. Primero,  su  valor  siempre  es  informativo.  Démonos  cuenta  de  que  también  es 
       importante que, si H1 es cierta, la probabilidad de elegirla (la potencia) sea alta. 
    2. Permite, dado un alfa, aumentar la potencia a través de un “truco”. ¿Cuál? Au‐
       mentando el n.  
        Es habitual obtener la potencia a partir del tamaño del efecto (ver punto siguien‐
te) utilizando las tablas apropiadas. 

4. Nivel crítico y tamaño del efecto 
     Hay dos informaciones más que podemos extraer y que pueden ser extrema‐
damente útiles. 
      Por  un  lado,  el  nivel  crítico,  p:  es  la  probabilidad  asociada  al  estadístico  de 
contraste o, dicho de otro modo, el nivel de significación más pequeño al que una H0 
puede ser rechazada con nuestro estadístico de contraste,  temp. Así, y en el caso de un 
contraste  unilateral  derecho,  p  puede  definirse  como  la  probabilidad  de  encontrar 
valores mayores que nuestro estadístico de contraste: 
                                         p = P(t > temp )  


                                                                                                  
                                                                     3. Contraste de hipótesis, 17 
       Con el nivel crítico se pretende salir de la decisión binaria (sí/no) y proporcio‐
nar al lector la probabilidad asociada al estadístico de contraste obtenido. Así, puede 
observarse la compatibilidad o discrepancia entre la H0 y la evidencia obtenida de la 
muestra (a través del estadístico de contraste). 
      El  siguiente  cuadro  muestra  cuatro  resultados  y  las  diferentes  decisiones  se‐
gún se use (de forma mecánica) un criterio basado en un  α tomado a priori o aten‐
diendo al estadístico de contraste y su nivel crítico o p asociada: 
             
                                               ¿Se rechaza la H0? (α = 0.05) 
       t             p           Contr. Hipótesis             Decisión en función de p 
     0.1517        0.560               No                                  No 
     1.6658        0.051               No                Repetir el contraste con otra muestra 
     1.6861        0.049                Sí               Repetir el contraste con otra muestra 
     3.0177        0.002                Sí                                  Sí 
  
        El tamaño del efecto es otra información interesante. Su utilidad se aprecia an‐
te la siguiente pregunta: ¿Una diferencia significativa implica una diferencia grande? 
            La respuesta es no. 
       Supongamos  el  siguiente  ejemplo:  se  pone  a  prueba  si  un  nuevo  método  de 
enseñanza del inglés es mejor que el anterior. Tras medir a 500 alumnos a los que se 
les ha aplicado el nuevo método y comparar la media obtenida con la anterior, vemos 
que  existen  diferencias  significativas  (t500  =  2.02;  p  <  0.022).  Efectivamente,  la  media 
anterior se situaba en 6.35 puntos y, con el método actual se ha alcanzado una media 
de 6.42. La diferencia es significativa pero, ¿es grande? O lo que es más importante, 
¿es relevante? ¿Cómo para cambiar todo un sistema educativo? Parece que no. 
       En estos casos, el tamaño del efecto nos informa de la diferencia entre el valor 
propuesto (en la H0) y el valor obtenido. Y para evitar diferencias aparentes en fun‐
ción de la escala de la variable medida, esa diferencia se divide por la desviación típi‐
ca de los datos obtenidos: 
                                                   X − µ0
                                              d=           
                                                    Sn−1
        De  esta  forma,  el  tamaño  del  efecto  viene  expresado  en  unidades  de  desvia‐
ción  típica:  un  valor  de  0.5  significa  que  la  diferencia  entre  la  media  obtenida  y  la 
propuesta en la H0 representa 0.5 veces el tamaño de la desviación típica. 
       ¿Cómo  interpretar  el  tamaño  del  efecto?  Cohen  (1977)  propone  unos  valores 
orientativos: 
            Pequeño: d = 0.2; 
            Moderado: d = 0.5; 
            Grande: d = 0.8. 


                                                                                                    
                                                                        3. Contraste de hipótesis, 18 
      Para obtener la potencia a partir del tamaño del efecto debemos calcular pri‐
mero ∆: 
                                              ∆=d n 
        Y luego utilizamos la tabla de potencias, donde a partir de  α y  ∆ podemos ob‐
tener  la  potencia  del  contraste.  Y  de  igual  forma  podríamos  calcular  el  n  necesario 
para alcanzar una determinada potencia: 
                                                   ∆2
                                              n=       
                                                   d2
       Así, dado  d y el  α del contraste, podemos buscar en la tabla de potencias cuál 
es la que desearíamos alcanzar y localizar el valor D correspondiente. Sustituyendo 
en la fórmula anterior obtendríamos el tamaño de la  muestra necesario para conse‐
guirlo. 
         Resumiendo todo esto en una tabla como la anterior: 
5. Nivel crítico                              p asociada al temp =  1.2558  
•   Contr. Bilateral:  p = 2 P(t > temp )          p = P(t > 1.2558) = 1 − 0.8944 = 0.1056  

•   Contr. Unil. Der.:  p = P(t > temp )      Lo que indica que hay un 10.56% de prob. de 
                                              obtener resultados iguales o mayores que los 
•   Contr. Unil. Izq.:  p = P(t < temp )  
                                              nuestros. Muy superior al 5 % establecido 
                                              como para rechazar H0. 
6. Intervalo de confianza                          IC al nivel de confianza de 0.95 
          ⎧ li = X − tn−1,α / 2 Sn−1 / n
          ⎪                                            ⎧ li = 10.44 − ( −1.96 ⋅ ( 2.41/ 48 ) ) = 9.76
                                                       ⎪
•   IC =  ⎨                                            ⎨                                               
          ⎪ls = X + tn−1,α / 2 Sn−1 / n
          ⎩                                            ⎪ls = 10.44 + ( −1.96 ⋅ ( 2.41/ 48 ) ) = 11.12
                                                       ⎩
                                                                P(9.76 < µ < 11.12) = 0.95  
7. Tamaño del efecto                                
         X − µ0                                                        10.44 − 10
•   d=                                                            d=              = 0.18  
          Sn−1                                                            2.41
                                                        (valor pequeño, según Cohen, 1977) 
8. Potencia                                         

•   ∆=d n                                                          ∆ = 0.18 48 = 1.25  
•   Mirar en tabla L, para α y ∆                                       1 − β = 0.35  
Cálculo de n para una potencia dada                Para una potencia de 0.75, ∆ = 2.35 
         ∆ 2
                                                                 2.352     5.52
    n=                                                      n=          =       = 170.45 ≈ 171  
•        d2                                                      0.18 2
                                                                          0.032
 
Apéndice: Solución mediante el SPSS 
      Si utilizáramos el SPSS, lo primero sería introducir los datos (o si ya están in‐
troducidos,  cargarlos  abriendo  el  fichero  correspondiente).  El  aspecto  sería  el  si‐
guiente: 


                                                                                                           
                                                                  3. Contraste de hipótesis, 19 




                                                          
       Realizamos el contraste el contraste mediante el menú Analizar: 
        




                                                                            
                                                  
        Especificamos la variable a analizar (la única presente) y el valor de compara‐
ción  (el  definido  en  la  H0)  para  realizar  el  contraste.  Obsérvese  que  en  ningún  mo‐
mento se indica el nivel de confianza o  α, el nivel de riesgo o también llamado nivel 
de significación del contraste. 
        




                                                                        


                                                                                                
                                                                              3. Contraste de hipótesis, 20 
                                                         
         Damos a aceptar y obtenemos los siguientes resultados: 
          
Prueba T
                 Estadísticos para una muestra

                                      Desviación            Error típ. de
                N        Media           típ.                la media
    Aciertos        48    10.44             2.414                    .348


                                Prueba para una muestra

                                         Valor de prueba = 10
                                                                              95% Intervalo de
                                                                              confianza para la
                                                             Diferencia           diferencia
                t          gl        Sig. (bilateral)        de medias      Inferior     Superior
    Aciertos    1.256           47              .215               .438          -.26        1.14



 
        Inicialmente,  el  procedimiento  ofrece  unos  descriptivos  básicos  en  el  primer 
recuadro, y los resultados del contraste en el segundo. En este último, si atendemos 
al recuadro “Sig. (bilateral)” vemos cómo SPSS nos ofrece el nivel crítico, p, de forma 
bilateral  por  defecto.  Como  nuestro  contraste  es  unilateral,  deberemos  dividirlo  por 
dos (p = 0.1075) para conocer nuestro verdadero nivel crítico (también llamado proba‐
bilidad asociada al estadístico de contraste, o significación del estadístico de contraste). 
     Como  se  observa,  la  salida  del  SPSS  no  proporciona  información  sobre  el  ta‐
maño del efecto ni la potencia, pero podemos calcularlo tal como hemos visto. 
       En cuanto a la interpretación de estos resultados, es idéntica a la que hicimos: 
Este resultado nos llevaría a mantener la H0 a un nivel  α (también llamado nivel de 
riesgo o nivel de significación) de 0.05, ya que p es superior (0.1075; la significación 
bilateral, 0.215, dividida por 2).  
       En términos estadísticos, el nivel crítico, p, obtenido nos indica que la probabi‐
lidad  de  obtener  unos  resultados  como  los  nuestros,  supuesta  cierta  la  H0,  es  de 
0.1075,  es  decir,  algo  más  de  un  10%  de  las  veces  (si  repitiéramos  indefinidamente 
este experimento sobre una H0 cierta). Por tanto, es razonable considerar este resul‐
tado demasiado probable como para llevarnos a pensar que la H0 es falsa. 
          
          
                                                         




                                                                                                            

More Related Content

What's hot

Selección de la Muestra en Investigación Cuantitativa
Selección de la Muestra en Investigación CuantitativaSelección de la Muestra en Investigación Cuantitativa
Selección de la Muestra en Investigación Cuantitativagambitguille
 
Presentación capítulo 8 sampieri
Presentación capítulo 8 sampieriPresentación capítulo 8 sampieri
Presentación capítulo 8 sampieriSochil Martinez
 
estadistica inferencial
estadistica inferencialestadistica inferencial
estadistica inferencialnayibe430
 
Muestra en la Investigación Cuantitativa
Muestra en la Investigación CuantitativaMuestra en la Investigación Cuantitativa
Muestra en la Investigación Cuantitativagambitguille
 
conceptos básicos de estadística
conceptos básicos de estadísticaconceptos básicos de estadística
conceptos básicos de estadísticagreciadaena
 
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...Población, muestra y elaboración de instrumentos en investigaciones cuantitat...
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...Evelyn Acevedo
 
Selección de la muestra Metodologia
Selección de la muestra MetodologiaSelección de la muestra Metodologia
Selección de la muestra MetodologiaDaysi Briseida
 
Población y Muestra
Población y MuestraPoblación y Muestra
Población y Muestrauci2c
 
Sampieri capitulo 8
Sampieri capitulo 8 Sampieri capitulo 8
Sampieri capitulo 8 cernnea
 
08 seleccion de muestra
08 seleccion de muestra08 seleccion de muestra
08 seleccion de muestraCarlos Rojas
 
Elementos del muestreo. UGMA
Elementos del muestreo. UGMAElementos del muestreo. UGMA
Elementos del muestreo. UGMAalcala1203
 
Calculo de la muestra
Calculo de la muestraCalculo de la muestra
Calculo de la muestraguest62e60f
 
Estadística inferencial. sociodemografia (1)
Estadística inferencial. sociodemografia (1)Estadística inferencial. sociodemografia (1)
Estadística inferencial. sociodemografia (1)Kalitokaiba7
 

What's hot (19)

Selección de la Muestra en Investigación Cuantitativa
Selección de la Muestra en Investigación CuantitativaSelección de la Muestra en Investigación Cuantitativa
Selección de la Muestra en Investigación Cuantitativa
 
Presentación capítulo 8 sampieri
Presentación capítulo 8 sampieriPresentación capítulo 8 sampieri
Presentación capítulo 8 sampieri
 
estadistica inferencial
estadistica inferencialestadistica inferencial
estadistica inferencial
 
Muestra en la Investigación Cuantitativa
Muestra en la Investigación CuantitativaMuestra en la Investigación Cuantitativa
Muestra en la Investigación Cuantitativa
 
conceptos básicos de estadística
conceptos básicos de estadísticaconceptos básicos de estadística
conceptos básicos de estadística
 
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...Población, muestra y elaboración de instrumentos en investigaciones cuantitat...
Población, muestra y elaboración de instrumentos en investigaciones cuantitat...
 
Estadistica ii
Estadistica iiEstadistica ii
Estadistica ii
 
Selección de la muestra Metodologia
Selección de la muestra MetodologiaSelección de la muestra Metodologia
Selección de la muestra Metodologia
 
Población y Muestra
Población y MuestraPoblación y Muestra
Población y Muestra
 
Métodos Estadísticos
Métodos Estadísticos Métodos Estadísticos
Métodos Estadísticos
 
El muestreo desde un enfoque cuantitativo
El muestreo desde un enfoque cuantitativoEl muestreo desde un enfoque cuantitativo
El muestreo desde un enfoque cuantitativo
 
Sampieri capitulo 8
Sampieri capitulo 8 Sampieri capitulo 8
Sampieri capitulo 8
 
08 seleccion de muestra
08 seleccion de muestra08 seleccion de muestra
08 seleccion de muestra
 
INFERENCIA ESTADISTICA
INFERENCIA ESTADISTICAINFERENCIA ESTADISTICA
INFERENCIA ESTADISTICA
 
Métodos cuantitativos en
Métodos  cuantitativos  enMétodos  cuantitativos  en
Métodos cuantitativos en
 
Elementos del muestreo. UGMA
Elementos del muestreo. UGMAElementos del muestreo. UGMA
Elementos del muestreo. UGMA
 
Calculo de la muestra
Calculo de la muestraCalculo de la muestra
Calculo de la muestra
 
Estadística inferencial. sociodemografia (1)
Estadística inferencial. sociodemografia (1)Estadística inferencial. sociodemografia (1)
Estadística inferencial. sociodemografia (1)
 
Investigacion ii
Investigacion iiInvestigacion ii
Investigacion ii
 

Similar to Introduccion a la estadistica inferencial

La importancia de la investigacion cientifica
La importancia de la investigacion cientificaLa importancia de la investigacion cientifica
La importancia de la investigacion cientificaRosina Duran
 
D pac3 casañ_garcia
D pac3 casañ_garciaD pac3 casañ_garcia
D pac3 casañ_garciaZara Casañ
 
Metodos y tecnicas de la investigacion cientifica
Metodos y tecnicas de la investigacion cientificaMetodos y tecnicas de la investigacion cientifica
Metodos y tecnicas de la investigacion cientificaJorge Vásquez
 
Fundamentacion metodologica
Fundamentacion metodologicaFundamentacion metodologica
Fundamentacion metodologicaedidson fuentes
 
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...Novato de la Weeb Fox Weeb
 
Intercambio de la información
Intercambio de la información Intercambio de la información
Intercambio de la información ROSANNA GUILLEN
 
1.Proceso de investigación cualitativa
1.Proceso de investigación cualitativa1.Proceso de investigación cualitativa
1.Proceso de investigación cualitativaEdison Coimbra G.
 
Slideshare angelica mic
Slideshare angelica micSlideshare angelica mic
Slideshare angelica micMariaParedes78
 
Tarea iii, objeto virtual de aprendizaje (1)
Tarea iii, objeto virtual de aprendizaje (1)Tarea iii, objeto virtual de aprendizaje (1)
Tarea iii, objeto virtual de aprendizaje (1)winton4
 
Sesión 8 de marzo de 2010
Sesión 8 de marzo de 2010Sesión 8 de marzo de 2010
Sesión 8 de marzo de 2010COMPHOR
 
Formulación del problema de investigación
Formulación del problema de investigaciónFormulación del problema de investigación
Formulación del problema de investigaciónNorka Segura
 
estadistica inferencial 11.docxYYYYYYYYY
estadistica inferencial 11.docxYYYYYYYYYestadistica inferencial 11.docxYYYYYYYYY
estadistica inferencial 11.docxYYYYYYYYYSANDRALUCEROVASQUEZP1
 

Similar to Introduccion a la estadistica inferencial (20)

Investigacion 1
Investigacion 1Investigacion 1
Investigacion 1
 
La importancia de la investigacion cientifica
La importancia de la investigacion cientificaLa importancia de la investigacion cientifica
La importancia de la investigacion cientifica
 
Fundamentacion metodologica
Fundamentacion metodologicaFundamentacion metodologica
Fundamentacion metodologica
 
D pac3 casañ_garcia
D pac3 casañ_garciaD pac3 casañ_garcia
D pac3 casañ_garcia
 
Metodos y tecnicas de la investigacion cientifica
Metodos y tecnicas de la investigacion cientificaMetodos y tecnicas de la investigacion cientifica
Metodos y tecnicas de la investigacion cientifica
 
Wppsi123
Wppsi123Wppsi123
Wppsi123
 
Wppsi
WppsiWppsi
Wppsi
 
Fundamentacion metodologica
Fundamentacion metodologicaFundamentacion metodologica
Fundamentacion metodologica
 
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...
44966951 tipo-de-investigacion-exploratoria-descriptiva-correlacional-o-expli...
 
Intercambio de la información
Intercambio de la información Intercambio de la información
Intercambio de la información
 
Diapo tesis i cornejo
Diapo tesis i   cornejoDiapo tesis i   cornejo
Diapo tesis i cornejo
 
1.Proceso de investigación cualitativa
1.Proceso de investigación cualitativa1.Proceso de investigación cualitativa
1.Proceso de investigación cualitativa
 
Tarea de métodos 2
Tarea de métodos 2Tarea de métodos 2
Tarea de métodos 2
 
Slideshare angelica mic
Slideshare angelica micSlideshare angelica mic
Slideshare angelica mic
 
Tarea iii, objeto virtual de aprendizaje (1)
Tarea iii, objeto virtual de aprendizaje (1)Tarea iii, objeto virtual de aprendizaje (1)
Tarea iii, objeto virtual de aprendizaje (1)
 
Sesión 8 de marzo de 2010
Sesión 8 de marzo de 2010Sesión 8 de marzo de 2010
Sesión 8 de marzo de 2010
 
Capitulo v
Capitulo vCapitulo v
Capitulo v
 
SesióN 1
SesióN 1SesióN 1
SesióN 1
 
Formulación del problema de investigación
Formulación del problema de investigaciónFormulación del problema de investigación
Formulación del problema de investigación
 
estadistica inferencial 11.docxYYYYYYYYY
estadistica inferencial 11.docxYYYYYYYYYestadistica inferencial 11.docxYYYYYYYYY
estadistica inferencial 11.docxYYYYYYYYY
 

Introduccion a la estadistica inferencial

  • 1.       Una introducción a la  ESTADÍSTICA INFERENCIAL  José Chacón              Esta obra está bajo una licencia Reconocimiento‐No comercial‐Compartir bajo la misma licencia 2.5 de  Creative Commons. Para ver una copia de esta licencia, visite    http://creativecommons.org/licenses/by‐nc‐sa/2.5/  o envie una carta a Creative Commons, 559 Nathan Abbott Way, Stanford, California 94305, USA. 
  • 2.                    
  • 3.       Tema 1. Introducción  Esta asignatura ha sido orientada a entender los principios en los que se basa  la estadística inferencial. Entender significa que es posible saber, en primer lugar, qué  razones han llevado a elegir un determinado cálculo y, no menos importante, la rele‐ vancia real de los resultados de ese cálculo.  La  estadística  inferencial  no  es  más  que  un  argumento.  Un  buen  argumento  hace creíble una afirmación. En nuestro caso, cualquier estudio necesitará, al menos  dos argumentos sólidos: el estadístico y el relativo al diseño de investigación (lo que  se puede aprender en Métodos I y II). Desde este punto de vista, nuestra tarea es po‐ der  entender  (y  calibrar)  los  argumentos  estadísticos  y  también  poder  construirlos  nosotros mismos.  La estadística  inferencial es necesaria cuando  queremos hacer alguna afirmación  sobre más elementos de los que vamos a medir. La estadística inferencial hace que ese sal‐ to de la parte al todo se haga de una manera “controlada”. Aunque nunca nos ofrecerá  seguridad absoluta, sí nos ofrecerá una respuesta probabilística. Esto es importante:  la estadística no decide; sólo ofrece elementos para que el investigador o el lector deci‐ dan.  En  muchos  casos,  distintas  personas  perciben  diferentes  conclusiones  de  los  mismos datos.  El proceso será siempre similar. La estadística dispone de multitud de modelos  que  están  a  nuestra  disposición.  Para  poder  usarlos  hemos  de  formular,  en  primer  lugar, una pregunta en términos estadísticos. Luego hemos de comprobar que nues‐ tra situación se ajusta a algún modelo (si no se ajusta no tendría sentido usarlo). Pero  si se ajusta, el modelo nos ofrecerá una respuesta estadística a nuestra pregunta esta‐ dística. Es tarea nuestra devolver a la psicología esa respuesta, llenándola de conte‐ nido psicológico.   1. Definiciones e ideas previas  En el ámbito científico, la estadística, en general, y la estadística inferencial, en  particular,  es  el  camino  que  hay  que  recorrer  para  llegar  de  una  pregunta  a  la  res‐ puesta  adecuada.  Así,  la  estadística  no  es  más  que  un  argumento  para  defender  nuestras ideas.  ¿Cuándo  es  necesaria  la  estadística  inferencial?  Cuando  queremos  hacer  alguna  afirmación sobre más elementos de los que vamos a medir.  La estadística descriptiva, como indica su nombre, tiene por finalidad descri‐ bir. Así, si queremos estudiar diferentes aspectos de, por ejemplo, un grupo de per‐ sonas, la estadística descriptiva nos puede ayudar. Lo primero será tomar medidas,  en todos los miembros del grupo, de esos aspectos o variables para, posteriormente,  indagar en lo que nos interese. Por ejemplo, para saber cuál es la “edad del grupo”,  podemos  resumir  el  conjunto  de  todas  las  edades  mediante  la  media.  Eso  nos  dice,  aproximadamente,  alrededor  de  qué  edad  se  sitúan  todos.  Ya  sabemos,  pongamos,  que la edad media es 40 años. Pero además podemos utilizar la desviación típica, si 
  • 4.     1. Introducción, 2  queremos saber si el grupo tiene edades muy dispares (por ejemplo, una desviación  típica de 12 años) o si, por el contrario, tienen edades parecidas (una desviación típi‐ ca  de  2  años).  Sólo  con  esos  indicadores  ya  podemos  hacernos  una  idea,  podemos  describir a ese conjunto de personas, al menos en referencia a su edad.  Pero el tamaño de los grupos que suelen interesar es demasiado grande, a ve‐ ces tan grande como “todo el mundo”. Y esto, más que ser una rareza, es en muchos  campos la norma. Por ejemplo, cuando se afirma que las personas tenemos una agu‐ deza visual menor que la de los halcones, podemos estar seguros de que no  hemos  medido la agudeza visual de todos los humanos ni la de todos los halcones.   Pues bien, la estadística inferencial es la que va a permitir dar ese salto de los  resultados obtenidos para un grupo a la totalidad.   Planteemos  una  cuestión  concreta:  Un  profesor  de  estadística  afirma  que  se  aprende mejor estadística inferencial utilizando los ordenadores para mostrar lo que  se  estudia.  ¿Cómo  podemos  decidir  si  esta  afirmación  es  cierta?  Una  posible  forma  sería  seleccionando  dos  grupos  de  alumnos  (equivalentes)  que  estudien  estadística  inferencial,  y  dar  las  mismas  clases  a  ambos,  incluido  el  mismo  profesor,  idénticos  ejercicios, etc., excepto que uno de ellos utilizan los ordenadores en su aprendizaje y  otro no.   Veamos  las  definiciones  en  relación  a  este  ejemplo,  suponiendo  que  realiza‐ mos el estudio con los alumnos de los grupos F (con ordenador) y G (sin ordenador):    Grupo F (con ordenador)  Grupo G (sin ordenador)  Población: un conjunto de elementos (generalmente personas, en psicología) que  comparten al menos una característica bien definida.  Estudiantes de primero de psicología que  Estudiantes de primero de psicología que cur‐ cursan estadística inferencial con ordenador  san estadística inferencial sin ordenador  Muestra: es un subconjunto de elementos extraídos de una población.  Los estudiantes de primero de psicología de la  Los estudiantes de primero de psicología de la  UCM, grupo F  UCM, grupo G  Variable: Característica de los elementos de una población que puede tomar diversos  valores (al menos, dos).  Nivel de conocimientos en estadística II, me‐ Nivel de conocimientos en estadística II, me‐ didos a través de un examen.  didos a través de un examen.  Datos: Valores obtenidos al medir una variable en una muestra.  Conjunto de notas obtenidas en el examen de  Conjunto de notas obtenidas en el examen de  estadística para los alumnos del grupo F  estadística para los alumnos del grupo G  Estadístico: Es un valor numérico que expresa una característica de una muestra.  Formalmente, un estadístico es una función definida sobre una variable.  Media ( X ) de las notas obtenidas en el exa‐ Media ( X ) de las notas obtenidas en el exa‐ men de estadística para alumnos del grupo F  men de estadística para alumnos del grupo G       
  • 5.     1. Introducción, 3  Parámetro: Es un valor numérico que expresa una característica de una población.  Media (µ) de las notas obtenidas en el exa‐ Media (µ) de las notas obtenidas en el examen  men de estadística para todos los estudiantes  de estadística para todos los estudiantes de  de primero de psicología que cursan estadís‐ primero de psicología que cursan estadística  tica inferencial con ordenador.  inferencial sin ordenador.  2. El azar y la probabilidad  La  estadística  inferencial  resulta  de  aplicar  la  probabilidad  a  los  estadísticos  que  ya  conocemos  por  la  estadística  descriptiva.  Los  resultados  de  esa  aplicación  vendrán expresados, pues, en lenguaje probabilístico.  Y esto no ayuda precisamente a sentirse cómodo con la estadística inferencial.  Además  de  ser  matemática,  tiene  la  fea  costumbre  de  no  decir  sí  o  no.  En  lugar  de  ello, sus respuestas suenan a veces a excusas, eso sí, muy diplomáticas, como “no hay  suficiente  evidencia”  o  “esa  afirmación  es  altamente  improbable”.  Pero  en  lenguaje  matemático. El resultado es quizás extraño, difuso pero preciso;  no se decanta pero  nos da cuatro decimales: “a partir de los datos que me ofrece, la probabilidad de que  ocurra eso que usted afirma es 0.2381”1.  Pero aun así nos permite incrementar nuestro conocimiento. Las afirmaciones  anteriores  pretenden  ilustrar  algo  fundamental:  las  afirmaciones  que  nos  permite  hacer  la  estadística  inferencial  tienen  un  riesgo,  y  quien  la  usa  debe  saberlo.  No  es  difícil,  de  todas  maneras,  porque  todas  estas  afirmaciones  están  formuladas  en  tér‐ minos de riesgo, de seguridad e inseguridad: de probabilidad.  El azar es, por definición, lo impredecible. ¿Cómo es posible entonces utilizar  lo impredecible para obtener información? La clave está en que incluso lo impredeci‐ ble, para poder serlo, ha de cumplir algunas normas. El conjunto de esas normas, y  las técnicas para extraer información del azar, es lo que llamamos probabilidad.  No hay nada mágico en el azar; resulta de una sucesión de circunstancias no  controlables que lleva a no poder predecir el resultado. Fijémonos en la moneda de  toda la vida. Lo que hace que lanzarla sea un experimento aleatorio es que es imposible  controlar la fuerza con la que se lanza, los giros que da y los ángulos con que golpea  el suelo una y otra vez hasta detenerse2. Basta situar la moneda de canto en una mesa  y empujarla deliberadamente en una dirección para que desaparezca el azar. Pero si  estando  de  canto  la  hacemos  girar  rápidamente  volvemos  a  disponer  de  un  experi‐ mento aleatorio.  Pero, ¿podemos realmente utilizar esta información para decidir sobre algo re‐ al?  Supongamos que lanzamos la moneda al aire. ¿Cuáles son esas normas que po‐                                                   1  Las  respuestas  que  obtendremos  serán  ligeramente  diferentes,  pero  esa  frase  sirve  para  ilustrar  el  estilo.  Esto no es completamente cierto: hay prestidigitadores que se entrenan hasta controlar el lanzamien‐ 2  to de las monedas. Controlan la fuerza, los giros y el momento justo de detener el movimiento para  conseguir cierto resultado. El truco consiste, por tanto, en que no hay azar.       
  • 6.     1. Introducción, 4  demos utilizar? En este caso, que la moneda tiene dos caras, y que no hay preferencia  por una u otra a la hora de posarse. Es decir: las dos únicas posibilidades se reparten  por igual el “derecho” a ser el resultado final. Si aplicamos los conceptos básicos de  la probabilidad, y recordando que la probabilidad total es 1, tenemos que las proba‐ bilidades de que salga cara o cruz son:  ⎧ P(cara) = 0.5   ⎨   ⎩ P(cruz ) = 0.5 Lo  que suele ser  difícil de digerir para nuestro entendimiento son cuestiones  como, por ejemplo, que aunque un determinado suceso tenga una probabilidad ínfi‐ ma, como 0.01 (un 1 por ciento), también puede ocurrir.  Aunque  todo  el  que  lea  esto  esté  realmente  convencido  de  que  es  verdad,  la  experiencia demuestra que no aplicamos este conocimiento.  3. El muestreo  Para  extraer  conclusiones  de  una  población  a  partir  de  una  muestra,  es  vital  que la muestra sea representativa.  Hay  dos  tipos  de  muestreo:  probabilístico  (se  conoce,  o  puede  calcularse,  la  probabilidad de cada elemento, por tanto, de cada muestra posible) y no probabilísti‐ co (se desconoce o no interesa la probabilidad de cada elemento; el investigador se‐ lecciona aquella muestra que considera más representativa o que le resulta más fácil).  Cuidado: no es que el muestreo no probabilístico no permita generar muestras  representativas; lo que ocurre es que no tenemos ninguna información sobre el grado  de representatividad de la muestra elegida.  El  muestreo  probabilístico  puede  darse  de  diferentes  formas,  según  estemos  considerando poblaciones finitas (los votantes de la Comunidad de Madrid, los pa‐ cientes con insomnio) o infinitas (los posibles tiempos de reacción ante una tarea de  búsqueda visual), y según consideremos (en las finitas) un muestreo con o sin reposi‐ ción.   El muestreo aleatorio simple se da cuando se cumple la igualdad de distribuciones  (cualquier  valor  tiene  la  misma  probabilidad  de  salir  en  cada  extracción)  e  indepen‐ dencia (la probabilidad de obtener un determinado valor no se modifica por los valo‐ res ya obtenidos).  Otros tipos de muestreo probabilístico son el m. a. sistemático, el m. a. estrati‐ ficado y el m. a. por conglomerados.       
  • 7.       Tema 2. Estimación de parámetros   Cuando  queremos  estimar  el  valor  de  un  parámetro,  disponemos  de  dos  aproximaciones: La estimación puntual y la estimación por intervalos.  1. Estimación puntual  La estimación puntual asigna directamente al parámetro el valor obtenido pa‐ ra el estadístico.   [La  estimación  por  intervalos,  en  cambio,  proporciona  un  intervalo,  un  rango  de  valores entre los que estará situado el parámetro con una cierta probabilidad. Para poder co‐ nocer esa probabilidad debemos conocer previamente la distribución de probabilidad del esta‐ dístico que estemos usando como estimador: la distribución muestral del estadístico. En  los puntos 2 y 3 veremos estas dos cuestiones con más detalle.]   La estimación puntual constituye la inferencia más simple que podemos reali‐ zar: asignar al parámetro el valor del estadístico que mejor sirva para estimarlo. Pero  para  que  un  estadístico  sea  considerado  un  buen  estimador  ha  de  cumplir  ciertas  ˆ condiciones.  Si  usamos  los  símbolos θ   para  un  parámetro  cualquiera,  y  θ ,  para  un  posible estimador de  θ , podemos enunciar las propiedades de la siguiente forma:  ˆ • Carencia de sesgo: Un estimador, θ , será insesgado si su valor esperado coinci‐ de con el del parámetro a estimar, θ .  ˆ E (θ ) = θ   ˆ • Consistencia: Un estimador, θ , será consistente si, conforme aumenta el tamaño  muestral, n, su valor se va aproximando a  θ . Expresado más formalmente, in‐ dica que dada una cantidad arbitrariamente pequeña,  δ , cuando n tiende a in‐ finito,   ˆ P (| θ − θ |< δ ) → 1   ˆ ˆ ˆ • Eficiencia: Dados dos posibles estimadores  θ1  y  θ 2 , diremos que  θ1  es un esti‐ ˆ mador más eficiente que  θ  si se cumple que  2 σ θ2 < σ θ2   ˆ ˆ 1 2 ˆ • Suficiencia: Un estimador, θ , será suficiente si utiliza toda la información mues‐ tral disponible.  La tabla a continuación muestra los estimadores de algunos parámetros:    Estimadores  Parámetros  Insesgados  Consistentes  Eficientes  X  X  X  µ  2 Sn−1   2 Sn   2 2 Sn−1 ,  Sn   σ2  P  P  P  π 
  • 8.     2. Estimación de parámetros, 6  Y el siguiente gráfico puede ilustrar el significado de esas propiedades:      2. Distribución muestral de la media  La distribución muestral (de la media o de cualquier otro estadístico) es fun‐ damental:  si  la  conocemos  podemos  saber con  qué  probabilidad  puede  adoptar  de‐ terminados  valores.  Eso  nos  permitirá  responder  a  ciertas  cuestiones,  por  ejemplo,  obtener el intervalo de confianza para la media, hacer un contraste de hipótesis o cal‐ cular la potencia de un contraste de hipótesis.  Conocer  la  distribución  muestral  de  un  estadístico  (de  aquí  en  adelante,  la  media) implica conocer su forma y sus parámetros. Por ejemplo, saber si su forma es  la de la distribución normal, y saber que los parámetros son: media, 30 y desviación  típica, 6.5. A fin de cuentas, lo que nos interesa es que la distribución muestral coin‐ cida con alguna conocida, de la que dispongamos de tablas.  La  forma  en  que  la  estadística  nos  permitirá  conocer  la  DMM  es  a  través  de  condiciones  o  supuestos:  Si  nuestros  datos  cumplen  lo  que  pide  un  procedimiento  estadístico,  entonces  ese  procedimiento  estadístico  nos  da  alguna  información  útil.  Por ejemplo,        Si…  entonces…  … tenemos un muestreo aleatorio,… … los parámetros de la DMM son  … y las observaciones son indepen‐ µX = µX 1  dientes,…    σX =σX n … y el tamaño de la muestra es n,  … tenemos un muestreo aleatorio,… … la DMM es normal, con indepen‐ … y las observaciones son indepen‐ dencia del tamaño de la muestra, n…  2  dientes,…  … y con parámetros  … y la distribución de la variable X  µX = µX   es normal,  σX =σX n      
  • 9.     2. Estimación de parámetros, 7  … la DMM se aproximará a la normal,  … tenemos un muestreo aleatorio,… conforme aumenta el tamaño de la  … y las observaciones son indepen‐ muestra, n…  3  dientes,  … y con parámetros  … y no conocemos la distribución de  µX = µX la variable X,    σX =σX n … la DMM se aproximará a la distri‐ … estamos en cualquiera de los ca‐ bución t con n – 1 grados de libertad,  sos anteriores,…  …  4  … y desconocemos σ,  … y con parámetros    µX = µX   σ X ≈ Sn−1 n   De (1) obtenemos los parámetros de la DMM: la media y la desviación típica,  que suele denominarse error típico de la media.  De (2) podemos deducir que, si nuestra variable de interés es normal en la po‐ blación, también lo será nuestra DMM.  De (3) extraemos que, aunque la distribución de la variable  X en la población  no sea normal o, lo más frecuente, si no sabemos si es o no normal, la DMM sí será  normal si el tamaño de la muestra,  n, es lo suficientemente grande (aproximadamen‐ te mayor que 30).    Gracias a (4) solucionamos un problema bastante común: el no conocer la des‐ viación típica poblacional de la variable  X. En este caso usamos como estimador  Sn‐1,  pero entonces la DMM sigue la forma de la distribución  t. Las distribuciones normal  y  t se diferencian visiblemente sólo cuando los grados de libertad son pequeños, co‐ mo  se  observa  en  las  gráficas  siguientes.  Cuando  aumenta  n,  σ    y  Sn‐1  se  van  pare‐ ciendo más y más, y las distribuciones normal y t también. Es por esto que, a un nivel  práctico, a partir de un n mayor que 30 suelen usarse indistintamente. En las dos grá‐ ficas  que  siguen  se  pueden  ver  las  distribuciones  normal  (azul)  y  t  (rojo)  para  dos  tamaños de muestra distinto:  n igual a 5 (arriba) y  n igual a 30 (debajo). Para ambas  se calcula los límites que abarcan un 95% del área total de cada curva. Las discrepan‐ cias son evidentes con n igual a 5, pero inapreciables para n = 30.       
  • 10.     2. Estimación de parámetros, 8   con n = 5.     con n = 30.    A  efectos  prácticos,  todo  lo  visto  supone  lo  que  detallamos  a  continuación.  Considérese siempre que el muestreo es aleatorio (los datos proceden de elementos  representativos) e independiente (es decir, que el haber elegido un elemento no afec‐ ta a la probabilidad de elegir otros). En estas condiciones, puede ocurrir lo siguiente:  • Como es difícil conocer  σ, consideraremos siempre de partida que la DMM se  distribuirá  segùn  tn‐1,  ya  sea  cuando  sepamos  que  la  variable  X  se  distribuye  normalmente o cuando  n sea igual o mayor que 30 o ambas cosas. Como las ta‐ blas de la distribución t aparecen tipificadas (con media = 0 y desviación típica =  1),  para hacer cualquier uso de ella deberemos tipificar el valor de interés, X:  X−µ   temp = → t n −1   Sn−1 n • Si, en el caso anterior, conocemos además la desviación típica poblacional, en‐ tonces la DMM se distribuirá según la  distribución normal: Por la misma razón  de antes, para usar las tablas previamente debemos tipificar:  X−µ zemp = → N (0,1)   σ n • Pero si no conocemos la forma de la distribución de la variable X, ni el n es lo  suficientemente  grande  como  para  hacer  uso  del  punto  (3),  entonces  no  pode‐      
  • 11.     2. Estimación de parámetros, 9  mos  utilizar  esta  información.  [Pero  no  todo  está  perdido:  En  ese  caso  habría  que estudiar la forma de la distribución de la variable X, transformar las pun‐ tuaciones  hasta  que  adopten  una  forma  normal  o,  en  última  instancia,  usar  pruebas no paramétricas, que no imponen supuestos sobre la forma de la dis‐ tribución. Todo esto son conceptos que se verán más adelante.]  Como regla general utilizaremos siempre la distribución t (rara vez conocere‐ mos  σ), aunque podremos usar la tabla de la distribución normal (siempre que n sea  suficientemente grande) para localizar valores que no aparezcan en la tabla de la dis‐ tribución t.  ¿Qué obtenemos de todo esto?  Lo  que  afirmábamos  anteriormente:  que  conociendo  cómo  se  comportan  las  medias (su distribución muestral o distribución de probabilidad), podemos usar estas  probabilidades siempre que sea necesario. Una de ellas, que veremos ahora, es la ob‐ tención de intervalos de confianza. Otra aplicación, más adelante, será utilizada en el  contraste de hipótesis.  3. Estimación por intervalos  Supongamos que conociésemos la población. Podríamos obtener la DMM para  un determinado tamaño de la muestra, n. Una vez caracterizada la DMM, seríamos  capaces de decir, con una determinada seguridad, dónde estarán las medias que po‐ dremos obtener si muestreamos.  Invirtiendo el razonamiento (y yendo a la realidad), dada una muestra, pode‐ mos calcular la DMM donde, con una cierta seguridad, estará la media poblacional  que buscamos. Este razonamiento se muestra en la figura siguiente.           
  • 12.     2. Estimación de parámetros, 10  Observando vemos que a partir de la muestra (recuérdese que la población y  sus parámetros son desconocidos) el IC, al 95%, para la media poblacional es [54.03,  65.90]. Eso quiere decir que la probabilidad de haber “atrapado” la media poblacio‐ nal es 0.95, la probabilidad de haber acertado. O dicho de otro modo: la probabilidad  de habernos equivocado, de no haber “atrapado” la media poblacional es 0.05, el 5%.  En el caso de la figura anterior, la media poblacional (64.31) cae dentro del in‐ tervalo,  pero  esto  no  siempre  es  así:  si  repetimos  el  proceso,  un  5%  de  las  veces  la  media poblacional quedará fuera del intervalo propuesto, como se observa en la fi‐ gura siguiente:        La  obtención  de  un  determinado  intervalo  es  fácil,  dado  que  conocemos  la  DMM. Basta con:  1. Localizar en la distribución de probabilidad (normal o t) los valores que contie‐ nen el nivel de confianza.  2. Traducir esos dos valores a la escala de nuestra variable, X.    En la práctica, deberemos definir un nivel de confianza (NC), que determinará  un nivel de riesgo,  α = 1‐NC. A partir de ahí, y asumiendo que se sigue la distribu‐ ción t:  1. Obtener los límites inferior y superior, es decir, los valores para tn‐1 que dejan a  la izquierda y a la derecha α/2 (la mitad del nivel de riesgo). Estos valores serán  tn−1,α 2  y  tn−1,1−α 2 .  2. Traducir esos dos valores a la escala de nuestra variable,  X. Así, y teniendo en  cuenta que  tn−1,1−α 2 = tn−1,α 2  los límites serían:        
  • 13.     2. Estimación de parámetros, 11  ⎧l = X − t Sn−1 ⎪i ⎪ n −1,α 2 n ⎨   ⎪ls = X + tn−1,α 2 Sn−1 ⎪ ⎩ n Al  término  que  es  sumado  y  restado  de  la  media  suele  denominársele  error  máximo,  y  se  denota  por  Emax.  En  estos  términos,  los  límites  de  un  intervalo  de  con‐ fianza suelen expresarse genéricamente como  ⎧ li = X − Emax ⎪ ⎨   ⎪ls = X + Emax ⎩ En  resumen,  una  vez  obtenido  el  intervalo  de  confianza  se  puede  afirmar  lo  siguiente:  P(li < µ < ls ) = 1 − α     Que significa que la probabilidad de que la media poblacional esté situada de‐ ntro del intervalo obtenido es igual al nivel de confianza especificado (1 – α).       
  • 14.       Tema 3. Contraste de hipótesis     1. Contraste de hipótesis  Un  contraste  de  hipótesis  es  un  proceso  de  decisión  en  el  que  una  hipótesis  formulada en términos estadísticos es puesta en relación con los datos empíricos para  determinar si es o no compatible con ellos.  Los datos empíricos siempre provendrán de un  muestra, un subconjunto limi‐ tado de la población de referencia. Las hipótesis, por el contrario, siempre pregunta‐ rán acerca de la  población.   Piénsese que es absurdo preguntar si una media obtenida  en  una  muestra,  por  ejemplo,  5’8,  es  mayor  que  5.  Por  supuesto  que  lo  es,  y  nadie  (exceptuando  los  que  estudian  estadística)  puede  hacerse  semejante  pregunta  seria‐ mente.   Lo que sí es relevante preguntar es si la  media poblacional, que no conocemos,  es mayor que 5. En tanto no la conocemos, usaremos la media  muestral como un es‐ timador (una aproximación) de esa media poblacional.  1.1 Las hipótesis estadísticas (la pregunta, formalizada)  Una hipótesis estadística es una afirmación sobre una o más distribuciones de  probabilidad; más concretamente, sobre la forma de una distribución de probabilidad  o  sobre  el  valor  de  un  parámetro  de  esa  distribución  de  probabilidad.  En  cuanto  a  nuestro ejemplo, nos centraremos en una distribución de probabilidad con el  paráme‐ tro  media poblacional igual a 5. El contraste de hipótesis nos dirá si es más o menos  probable,  bajo  esa  distribución  de  probabilidad,  obtener  en  una  muestra  aleatoria  una media igual a 5’8.  Todo  contraste  necesita  dos  hipótesis:  H0  y  H1,  que  serán  exhaustivas  y  mu‐ tuamente exclusivas.  H0 es la hipótesis nula, y es la que se somete a contraste.  H1 es la hipótesis alternativa a H0, y es la negación de H0. Mientras que H0 es  exacta, H1 suele ser inexacta.  Un detalle importante: el signo “=” siempre va en la H0, sea exacta o inexacta.  Es sobre este signo “=” sobre el que se construirá el modelo probabilístico, como ya  hemos visto.  1.2 Los supuestos (¿nuestra situación se parece a la del modelo?)  Son  un  conjunto  de  afirmaciones  que  necesitamos  establecer  (sobre  la  pobla‐ ción de partida y la muestra utilizada) para conseguir determinar la distribución de  probabilidad en la que se basará nuestra decisión sobre H0. Si nuestra situación no se  ajusta a estas condiciones,  necesarias, entonces no debemos usar el modelo. La razón  es  obvia:  el  modelo  no  nos  sirve,  luego  cualquier  cosa  que  deduzcamos  de  él  será  inexacta y/o errónea. 
  • 15.     3. Contraste de hipótesis, 13  1.3 El estadístico de contraste y su distribución de probabilidad  Un estadístico de contraste no es más que un cálculo o función que cumple lo  siguiente: (1) expresa de forma adecuada nuestra pregunta psicológica, (2) tiene una  distribución muestral (de probabilidad) conocida, y (3) viene traducido (o expresado)  en la escala de esa distribución de probabilidad.   1.4 La decisión (¿H0 sí o H0 no?)  La  decisión  requiere,  en  primer  lugar,  trazar  un  punto  de  corte  (o  dos,  en  el  contraste bilateral), que definirá dos zonas, una de  rechazo  (o  crítica) y otra de  acepta‐ ción. Ese punto de corte vendrá dada por el nivel de confianza y el nivel de riesgo, α.  La decisión consiste en rechazar la H0 si el estadístico de contraste cae en la re‐ gión de rechazo, y mantenerla si cae en la región de aceptación.  Mantener la H0 significa que la hipótesis es compatible con los datos.  Rechazarla  implica  que  ambos  son  incompatibles,  luego  consideramos  la  H0  falsa.    Caso general  Ejemplo específico  1. Hipótesis    ⎧H0 : µ = µ0 ¿Hay  un  nivel  de  aciertos  mayor  que  el  • Contr. Bilateral:  ⎨   ⎩ H1 : µ ≠ µ 0 esperado  por  azar,  en  20  ensayos?  NC  =  0.95; n = 48.  ⎧H0 : µ ≤ µ0 • Contr. Unil. Der.:  ⎨   ⎧ H 0 : µ ≤ 10 ⎩ H1 : µ > µ 0 ⎨   ⎩ H1 : µ > 10 ⎧H0 : µ ≥ µ0 • Contr. Unil. Izq.:  ⎨   ⎩ H1 : µ < µ 0 2. Supuestos    • Población de partida normal  Tenemos un  n suficientemente grande pa‐ • Muestra aleatoria de tamaño n.  ra garantizar una DMM normal.  3. Estadístico de contraste    X−µ 10.44 − 10 0.44 • temp = → t n −1   temp = = = 1.2558   Sn−1 n 2.41 48 0.3484 4. La decisión    Primero, la zona de rechazo según α  • α = 1 – NC = 1 – 0.95 = 0.05;  ⎧ tteor_inf = tn−1,α 2 • Contraste unilateral derecho, luego  • Contr. Bilateral:  ⎨   ⎩tteor_sup = tn−1,1−α 2 tteor = tn−1,1−α = t47 ,0.95 = 1.676   • El estadístico de contraste cae en la re‐ gión de aceptación:    temp < tteor   • Contr. Unil. Der.:  tteor = tn−1,1−α        
  • 16.     3. Contraste de hipótesis, 14      • Contr. Unil. Izq.:  tteor = tn−1,α   • Luego  mantenemos  la  H0:  los  resulta‐ dos  son  compatibles  con  una  media  igual  a  10,  es  decir,  son  compatibles  con los aciertos esperados por azar.    La regla de decisión  • Se  rechaza  H0  si  temp  cae  en  la  zona  de rechazo determinada por tteor.    En las gráficas siguientes se observa la representación de las puntuaciones ob‐ tenidas y, superpuesta, la DMM con la región de rechazo definida por un α = 0.05. En  la gráfica inferior aparece ampliada la DMM. Obsérvese que los valores están en la  escala de la variable X, y no tipificada.           
  • 17.     3. Contraste de hipótesis, 15  2. Estimación por intervalos y contraste de hipótesis  Es fácil darse cuenta de la relación que existe entre un contraste de hipótesis y  el intervalo de confianza.   Por ejemplo, calculamos un intervalo de confianza, al 95%, para la media espe‐ rada.  Como  resultado,  si  la  media  obtenida  está  dentro  de  ese  intervalo,  considera‐ remos que no se aleja lo suficiente como para considerarla distinta.   Eso es justamente lo que hacemos en un contraste de hipótesis bilateral: esta‐ blecemos  dos  puntos  de  corte  y  comprobamos  si  la  media  obtenida  está  dentro  del  intervalo definido o no. Sobre este hecho realizamos la decisión.  Es diferente si consideramos un contraste unilateral. En ese caso, todo el nivel  de  riesgo  se  sitúa  en  un  lado.  En  tanto  todos  los  intervalos  están  construidos  “de  forma bilateral”, la equivalencia no es perfecta. Habría que multiplicar el alfa por dos  para que fuera equivalente.   3. Errores tipo I y II. Potencia de un contraste.  Hemos aprendido a realizar un contrate de hipótesis, y ahora sabemos tomar  una decisión acerca de si rechazamos o no la H0. Además, conocemos las probabili‐ dades asociadas a cualquiera de las decisiones tomadas. Podemos representar gráfi‐ camente esta situación (ver figura anterior). Pero todas estas decisiones se basan en  que H0 sea cierta. ¿Qué ocurre, entonces, si H0 es falsa? Esto puede resumirse en la  siguiente tabla:        Situación de H0      H0 Verdadera  H0 Falsa  Decisión correcta  Error tipo II  Mantener H0  P = 1 – α P = β  Nivel de confianza  Decisión  Decisión correcta  Error tipo I  Rechazar H0  P = 1 ‐ β P = α  Potencia    ¿Cómo podemos representar gráficamente esta nueva perspectiva? Lo primero  será considerar que, si H0 se considera falsa, adoptaremos como valor de H1 el obte‐ nido  en  nuestra  muestra.  A  partir  de  ahí,  podemos  plantear  una  nueva  DMM,  cen‐ trada precisamente en H1 (donde µ = 10.44):         
  • 18.     3. Contraste de hipótesis, 16      Ahora  podemos  ver  que  ese  punto  de  corte  determina  otras  dos  áreas  en  la  DMM para H1. Si analizamos la DMM para H1 es fácil saber lo que indican esas dos  áreas: la de la izquierda (en verde), la probabilidad de que, siendo H0 falsa (es decir,  adoptando H1 como verdadera), consideremos que H0 es cierta (o H1 es falsa), es de‐ cir, el error tipo II.  El área de la derecha (sin relleno), por el contrario, nos indica la probabilidad  de rechazar H0 (y, por tanto, considerar cierta H1), 1‐ β.  Tenemos, por tanto, dos áreas (probabilidades) de error:  α y  β, y dos áreas de  “acierto”, 1‐α y 1‐β. Pues bien, si  α y  β son los errores tipo I y tipo II, respectivamen‐ te, sus complementarios son el nivel de confianza (1‐ α) y la potencia (1‐ β).  Hasta hace poco, sólo se prestaba atención al nivel de riesgo o error tipo I,  α.  Pero ahora es cada vez más habitual (y siempre recomendable) ver incluida la poten‐ cia en los estudios publicados.  ¿Para qué sirve, después de todo? Pues para varias cosas:  1. Primero,  su  valor  siempre  es  informativo.  Démonos  cuenta  de  que  también  es  importante que, si H1 es cierta, la probabilidad de elegirla (la potencia) sea alta.  2. Permite, dado un alfa, aumentar la potencia a través de un “truco”. ¿Cuál? Au‐ mentando el n.   Es habitual obtener la potencia a partir del tamaño del efecto (ver punto siguien‐ te) utilizando las tablas apropiadas.  4. Nivel crítico y tamaño del efecto  Hay dos informaciones más que podemos extraer y que pueden ser extrema‐ damente útiles.  Por  un  lado,  el  nivel  crítico,  p:  es  la  probabilidad  asociada  al  estadístico  de  contraste o, dicho de otro modo, el nivel de significación más pequeño al que una H0  puede ser rechazada con nuestro estadístico de contraste,  temp. Así, y en el caso de un  contraste  unilateral  derecho,  p  puede  definirse  como  la  probabilidad  de  encontrar  valores mayores que nuestro estadístico de contraste:  p = P(t > temp )        
  • 19.     3. Contraste de hipótesis, 17  Con el nivel crítico se pretende salir de la decisión binaria (sí/no) y proporcio‐ nar al lector la probabilidad asociada al estadístico de contraste obtenido. Así, puede  observarse la compatibilidad o discrepancia entre la H0 y la evidencia obtenida de la  muestra (a través del estadístico de contraste).  El  siguiente  cuadro  muestra  cuatro  resultados  y  las  diferentes  decisiones  se‐ gún se use (de forma mecánica) un criterio basado en un  α tomado a priori o aten‐ diendo al estadístico de contraste y su nivel crítico o p asociada:        ¿Se rechaza la H0? (α = 0.05)  t  p  Contr. Hipótesis   Decisión en función de p  0.1517  0.560  No  No  1.6658  0.051  No  Repetir el contraste con otra muestra  1.6861  0.049  Sí  Repetir el contraste con otra muestra  3.0177  0.002  Sí  Sí     El tamaño del efecto es otra información interesante. Su utilidad se aprecia an‐ te la siguiente pregunta: ¿Una diferencia significativa implica una diferencia grande?  La respuesta es no.  Supongamos  el  siguiente  ejemplo:  se  pone  a  prueba  si  un  nuevo  método  de  enseñanza del inglés es mejor que el anterior. Tras medir a 500 alumnos a los que se  les ha aplicado el nuevo método y comparar la media obtenida con la anterior, vemos  que  existen  diferencias  significativas  (t500  =  2.02;  p  <  0.022).  Efectivamente,  la  media  anterior se situaba en 6.35 puntos y, con el método actual se ha alcanzado una media  de 6.42. La diferencia es significativa pero, ¿es grande? O lo que es más importante,  ¿es relevante? ¿Cómo para cambiar todo un sistema educativo? Parece que no.  En estos casos, el tamaño del efecto nos informa de la diferencia entre el valor  propuesto (en la H0) y el valor obtenido. Y para evitar diferencias aparentes en fun‐ ción de la escala de la variable medida, esa diferencia se divide por la desviación típi‐ ca de los datos obtenidos:  X − µ0 d=   Sn−1 De  esta  forma,  el  tamaño  del  efecto  viene  expresado  en  unidades  de  desvia‐ ción  típica:  un  valor  de  0.5  significa  que  la  diferencia  entre  la  media  obtenida  y  la  propuesta en la H0 representa 0.5 veces el tamaño de la desviación típica.  ¿Cómo  interpretar  el  tamaño  del  efecto?  Cohen  (1977)  propone  unos  valores  orientativos:  Pequeño: d = 0.2;  Moderado: d = 0.5;  Grande: d = 0.8.       
  • 20.     3. Contraste de hipótesis, 18  Para obtener la potencia a partir del tamaño del efecto debemos calcular pri‐ mero ∆:  ∆=d n  Y luego utilizamos la tabla de potencias, donde a partir de  α y  ∆ podemos ob‐ tener  la  potencia  del  contraste.  Y  de  igual  forma  podríamos  calcular  el  n  necesario  para alcanzar una determinada potencia:  ∆2 n=   d2 Así, dado  d y el  α del contraste, podemos buscar en la tabla de potencias cuál  es la que desearíamos alcanzar y localizar el valor D correspondiente. Sustituyendo  en la fórmula anterior obtendríamos el tamaño de la  muestra necesario para conse‐ guirlo.  Resumiendo todo esto en una tabla como la anterior:  5. Nivel crítico  p asociada al temp =  1.2558   • Contr. Bilateral:  p = 2 P(t > temp )   p = P(t > 1.2558) = 1 − 0.8944 = 0.1056   • Contr. Unil. Der.:  p = P(t > temp )   Lo que indica que hay un 10.56% de prob. de  obtener resultados iguales o mayores que los  • Contr. Unil. Izq.:  p = P(t < temp )   nuestros. Muy superior al 5 % establecido  como para rechazar H0.  6. Intervalo de confianza   IC al nivel de confianza de 0.95  ⎧ li = X − tn−1,α / 2 Sn−1 / n ⎪ ⎧ li = 10.44 − ( −1.96 ⋅ ( 2.41/ 48 ) ) = 9.76 ⎪ • IC =  ⎨   ⎨   ⎪ls = X + tn−1,α / 2 Sn−1 / n ⎩ ⎪ls = 10.44 + ( −1.96 ⋅ ( 2.41/ 48 ) ) = 11.12 ⎩ P(9.76 < µ < 11.12) = 0.95   7. Tamaño del efecto    X − µ0 10.44 − 10 • d=   d= = 0.18   Sn−1 2.41 (valor pequeño, según Cohen, 1977)  8. Potencia    • ∆=d n  ∆ = 0.18 48 = 1.25   • Mirar en tabla L, para α y ∆  1 − β = 0.35   Cálculo de n para una potencia dada  Para una potencia de 0.75, ∆ = 2.35  ∆ 2 2.352 5.52 n= n= = = 170.45 ≈ 171   • d2   0.18 2 0.032   Apéndice: Solución mediante el SPSS  Si utilizáramos el SPSS, lo primero sería introducir los datos (o si ya están in‐ troducidos,  cargarlos  abriendo  el  fichero  correspondiente).  El  aspecto  sería  el  si‐ guiente:       
  • 21.     3. Contraste de hipótesis, 19    Realizamos el contraste el contraste mediante el menú Analizar:        Especificamos la variable a analizar (la única presente) y el valor de compara‐ ción  (el  definido  en  la  H0)  para  realizar  el  contraste.  Obsérvese  que  en  ningún  mo‐ mento se indica el nivel de confianza o  α, el nivel de riesgo o también llamado nivel  de significación del contraste.           
  • 22.     3. Contraste de hipótesis, 20    Damos a aceptar y obtenemos los siguientes resultados:    Prueba T Estadísticos para una muestra Desviación Error típ. de N Media típ. la media Aciertos 48 10.44 2.414 .348 Prueba para una muestra Valor de prueba = 10 95% Intervalo de confianza para la Diferencia diferencia t gl Sig. (bilateral) de medias Inferior Superior Aciertos 1.256 47 .215 .438 -.26 1.14   Inicialmente,  el  procedimiento  ofrece  unos  descriptivos  básicos  en  el  primer  recuadro, y los resultados del contraste en el segundo. En este último, si atendemos  al recuadro “Sig. (bilateral)” vemos cómo SPSS nos ofrece el nivel crítico, p, de forma  bilateral  por  defecto.  Como  nuestro  contraste  es  unilateral,  deberemos  dividirlo  por  dos (p = 0.1075) para conocer nuestro verdadero nivel crítico (también llamado proba‐ bilidad asociada al estadístico de contraste, o significación del estadístico de contraste).  Como  se  observa,  la  salida  del  SPSS  no  proporciona  información  sobre  el  ta‐ maño del efecto ni la potencia, pero podemos calcularlo tal como hemos visto.  En cuanto a la interpretación de estos resultados, es idéntica a la que hicimos:  Este resultado nos llevaría a mantener la H0 a un nivel  α (también llamado nivel de  riesgo o nivel de significación) de 0.05, ya que p es superior (0.1075; la significación  bilateral, 0.215, dividida por 2).   En términos estadísticos, el nivel crítico, p, obtenido nos indica que la probabi‐ lidad  de  obtener  unos  resultados  como  los  nuestros,  supuesta  cierta  la  H0,  es  de  0.1075,  es  decir,  algo  más  de  un  10%  de  las  veces  (si  repitiéramos  indefinidamente  este experimento sobre una H0 cierta). Por tanto, es razonable considerar este resul‐ tado demasiado probable como para llevarnos a pensar que la H0 es falsa.