Your SlideShare is downloading. ×
Guía de interpretación de resultados en el contraste de hipótesis estadísticas
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Guía de interpretación de resultados en el contraste de hipótesis estadísticas

5,731
views

Published on

Guía que explica el proceso para contrastar hipótesis estadísticas e interpretar los resultados obtenidos

Guía que explica el proceso para contrastar hipótesis estadísticas e interpretar los resultados obtenidos

Published in: Education

2 Comments
3 Likes
Statistics
Notes
No Downloads
Views
Total Views
5,731
On Slideshare
0
From Embeds
0
Number of Embeds
4
Actions
Shares
0
Downloads
511
Comments
2
Likes
3
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. GUÍA PARA LA INTERPRETACIÓN DE RESULTADOS EN EL CONTRASTE DE HIPÓTESIS ESTADÍSTICAS (Estadística Paramétrica y No Paramétrica) Autor: Enrique Navarro Asencio (@eduktive) https://eduktive.wordpress.com/ Versión 5 26/01/2015
  • 2. Enrique Navarro Asencio (@eduktive) 1 ÍNDICE 1. ESTADÍSTICA DESCRIPTIVA E INFERENCIA ESTADÍSTICA .......................................................................2 1.1 Variables en la investigación ..........................................................................................................................3 1.2 Formulación de hipótesis estadísticas...........................................................................................................5 1.3 Distribución Muestral.....................................................................................................................................6 1.4 Estadísticos de contraste y probabilidad asociada........................................................................................ 7 Nivel de significación .......................................................................................................................................9 1.5 Clasificación de Análisis estadísticos para el contraste de hipótesis. ........................................................ 10 Grupos Relacionados vs. Grupos Independientes........................................................................................ 12 1.6 Software para el contraste de hipótesis y análisis de datos........................................................................ 13 2. PRUEBAS ESTADÍSTICAS (PARAMÉTRICAS Y NO PARAMÉTRICAS) ...................................................... 14 2.1 Pruebas paramétricas de Diferencias entre grupos .................................................................................... 14 2.1.1 Diferencias entre las puntuaciones de DOS grupos INDEPENDIENTES. Prueba T de Student...... 14 2.1.2 Diferencias entre las puntuaciones de TRES o más grupos INDEPENDIENTES. Análisis de Varianza (ANOVA)......................................................................................................................................... 16 2.1.3 Diferencias entre las puntuaciones de DOS grupos RELACIONADOS. Prueba T de Student.......... 18 2.1.4 Comparación de un único grupo. Prueba T de Student ...................................................................... 19 2.2 Pruebas paramétricas de Relación entre variables.....................................................................................20 2.2.1 Correlación entre dos variables cuantitativas. Pearson ......................................................................20 2.3 Pruebas No paramétricas de Diferencias entre grupos..............................................................................23 2.3.1 Diferencias entre las puntuaciones de DOS grupos INDEPENDIENTES. Prueba U de Mann- Whitney...........................................................................................................................................................23 2.3.2 Diferencias entre las puntuaciones de TRES o más grupos independientes. Prueba H de Kruskal- Wallys..............................................................................................................................................................25 2.3.3 Diferencias entre las puntuaciones de DOS grupos relacionados. Prueba W de Wilcoxon..............26 2.3.4 Diferencias entre las puntuaciones de DOS grupos relacionados. Prueba McNemar ......................27 2.3.5 Comparación de un único grupo. Chi-Cuadrado como bondad de ajuste. ........................................28 2.4 Pruebas No Paramétricas de relaciones entre variables ............................................................................29 2.4.1 Correlación entre dos variables cualitativas ordinales. Spearman, tau-b, tau-c y gamma ...............30 2.4.2 Correlación entre dos variables cualitativas nominales. Chi-Cuadrado para la independencia...... 31 2.4.2 Correlación entre una variable cualitativa nominal dicotómica y una variable cuantitativa ...........33
  • 3. Enrique Navarro Asencio (@eduktive) 2 Esta guía pretende llevar a cabo una introducción a los conceptos básicos del contraste de hipótesis estadístico. Con su lectura se puede dar respuesta a dos preguntas fundamentales: ¿Qué tipo de análisis estadístico es adecuado para analizar los datos? y ¿cómo se interpreta esa información estadística? 1. ESTADÍSTICA DESCRIPTIVA E INFERENCIA ESTADÍSTICA El análisis estadístico puede agruparse en dos vertientes diferenciadas. Por un lado, la estadística descriptiva, que se encarga de describir las características de los sujetos que forman parte del estudio para presentar la información de forma organizada y resumida, por ejemplo, qué cantidad o proporción de mujeres y hombres, sus edades, sus niveles en las variable de interés, etc. Y, por otro, la estadística inferencial que trata de contrastar hipótesis partir de los datos de la muestra para que puedan generalizarse a la población. Esta generalización de los resultados dependerá en parte del proceso de selección muestral y su tamaño. No obstante, contar con muestras pequeñas no es un impedimento para realizar contrastes estadísticos utilizando una metodología rigurosa y correcta. Figura 1. Clasificación de análisis estadísticos Esta guía se centra en el segundo grupo de análisis estadísticos que se utilizan para llevar a cabo el contraste de hipótesis. También se incluyen los estadísticos para analizar la relación entre variables, aunque usualmente se clasifican dentro del grupo de estadísticos descriptivos y se denominan estadísticos descriptivos bivariados. La estadística descriptiva incluye una parte de análisis de cada variable por separado (univariada) y otra para establecer relaciones entre pares de variables (bivariada). La estadística descriptiva bivariada también se puede considerar estadística inferencial si la finalidad de la investigación es generalizar los resultados de correlación a la población. Si la Estadística Descriptiva Univariada Bivariada (Correlaciones) Inferencial (Contraste de Hipótesis) Pruebas Paramétricas Pruebas No Paramétricas
  • 4. Enrique Navarro Asencio (@eduktive) 3 investigación no tiene ese objetivo y solo pretende describir un grupo de sujetos, las correlaciones son estadísticos descriptivos. Esa inferencia, por tanto, permite la generalización de los resultados de una muestra a la población en términos de probabilidad. Esta generalización de los resultados dependerá principalmente del proceso de selección muestral que debe garantizar la representatividad de la muestra. Antes de comenzar con la descripción de las diferentes pruebas que se utilizan para el contraste de hipótesis en estudios con datos empíricos, conviene introducir algunos conceptos básicos. 1.1 VARIABLES EN LA INVESTIGACIÓN Cada vez que se observa un fenómeno o se administra un determinado test, cuestionario o encuesta a un sujeto, se está llevando a cabo un proceso de medición de variables. Una variable es una característica que varía entre los diferentes individuos de una población. La información que disponemos de cada individuo es resumida en variables. Las variables se pueden manipular, medir o controlar. Y, por definición, una variable es lo opuesto a una constante. La información cualitativa se recoge mediante técnicas de recogida de información cualitativa, principalmente la entrevista en sus diversos formatos (grupos de discusión, biográficas, delphi…), y el producto es contenido textual, en cambio, la información cuantitativa se extrae mediante técnicas de recogida de información cuantitativa (cuestionarios, tests…) y se puede codificar de forma numérica para cuantificarla. Esa información cuantitativa se pude medir a través de diferentes escalas (escalas nominales, ordinales, intervalo y razón). Y cada escala es adecuada para medir un tipo de variable determinado. FIGURA 2. ESCALA DE MEDIDA DE VARIABLES Las escalas nominales y ordinales miden variables de naturaleza cualitativa y las de intervalo y razón las de naturaleza cuantitativa. Por tanto, la recogida de información cuantitativa puede producir variables de naturaleza cuantitativa y cualitativa: •Los números representan cantidades iguales •El cero significa ausencia del atributo o varible •Permiten cualquier tipo de operación matemática. •Ejemplos: ead, euros, velocidad, tamaño del aula... Razón •Las distancias iguales entre dos números de la escala representan la misma diferencia en la varible. •El cero no es absoluto •Ejemplos: temperatura, puntuaciones de test... Intervalo: •Las cateogrías pueden ordenarse de mayor a menor o viceversa. •Ejemplos: tipo Likert, clase social... Ordinal •los números no representan cantidades., sólo distinguen entre categorías. •La asignación de los números a las categorías es aleatoria •Ejemplos: género, raza, tipo de lateralidad... Nominal:
  • 5. Enrique Navarro Asencio (@eduktive) 4 A) Cualitativas: sus valores (niveles) no se pueden asociar naturalmente a un número, es decir, no se pueden hacer operaciones algebraicas con ellos como sumar o restar los valores de los diferentes niveles o categorías. Este grupo incluye variables:  Nominales: Si sus valores no se pueden ordenar en función de la cantidad o nivel de la variable. Pueden ser dicotómicas con dos categorías (sexo: hombre-mujer; ítems de verdadero-falso o de sí-no, etc.) o politómicas con más de dos categorías (Grupo Sanguíneo, nacionalidad, etc.). En ocasiones, algunas variables pueden dicotomizarse para convertirlas en cualitativas con dos únicas categorías, por ejemplo, el rendimiento categorizado como alto o bajo.  Ordinales: Si sus valores se pueden ordenar pero no hay la misma distancia entre las diferentes categorías de la variable, es decir, permiten establecer relaciones de mayor, menor o igual. Por ejemplo el grado de satisfacción Intensidad del dolor (leve, moderado, intenso), las notas (suspenso, aprobado, notable, sobresaliente), etc. B) Cuantitativas o Numéricas: son variables que pueden ser medidas de forma numérica y, por tanto, sus valores corresponden a cantidades y tiene sentido hacer operaciones algebraicas con ellos. Este grupo incluye variables:  Discretas: si toma únicamente valores enteros: nº de hijos, edad (nº de años), notas (de 0 a 10), etc.  Continuas: Si entre dos valores, son posibles infinitos valores intermedios: altura, peso, puntuaciones en test estandarizados, presión intraocular, etc. Otra forma de clasificación de variables es según el papel o función que desempeña en una investigación. Desde esta perspectiva es posible diferenciar entre:  Independientes: es una variable que funciona como un estímulo para provocar cambios. También se suele identificar con el agente o con la posible “causa” de que otras variables cambien o varíen. Por ejemplo, si la hipótesis es: “los estudiantes que reciben un programa de mejora de la creatividad obtienen mejores resultados en comprensión lectora que aquellos que siguen la enseñanza tradicional”, es recibir o no el programa de creatividad la variable que antecede a los resultados en comprensión lectora y, por tanto, será la variable independiente que, en este caso, tiene dos valores: método de creatividad o enseñanza tradicional.  Dependientes: es la variable dónde se observan los cambios producidos por la variable independiente y es el objeto de interés de la investigación. En los estudios con variable neuropsicológicas y rendimiento académico, las primeras anteceden a los resultados de rendimiento. Por ejemplo, el tratamiento (causa o variable independiente) provoca cambios en el rendimiento de los estudiantes (efecto o variable dependiente). En esta distinción conviene destacar que es el investigador quien decide el papel de las variables cuando formula las hipótesis.  Intervinientes: son variables que afectan a la dependiente, pero que no producen cambios que interesen para la investigación. Son variables ajenas a la investigación pero que pueden afectar a los resultados. Si se incluyen en el diseño se denominan variables de control y si no se incluyen variables extrañas. También conviene tener en cuenta que cuando se estudia únicamente la relación entre variables mediante coeficientes de correlación, no se diferencia entre dependiente e independiente porque un coeficiente de correlación no indica que variable antecede a otra o cuál es la causa. Finalmente, las variables independientes también reciben una doble categorización: Son variables activas si el investigador puede manipular de forma directa, es decir, es el investigador
  • 6. Enrique Navarro Asencio (@eduktive) 5 quien decide qué niveles o modalidades tiene esa variable y permite distribuir a los sujetos de forma aleatoria en esos niveles, como diferentes dosis de medicamento o diferentes modalidades de un programa de intervención (control, experimental). En cambio, son variables asignadas si no pueden ser manipuladas por el investigador, es decir, son características propias de los sujetos como el género, nivel educativo, edad, etc. 1.2 FORMULACIÓN DE HIPÓTESIS ESTADÍSTICAS El análisis estadístico inferencial se lleva a cabo para probar algún tipo de hipótesis, ya sea para encontrar diferencias entre grupos, probar la relación entre variables, o análisis más complejos como la predicción (regresión) o la causalidad (análisis de ecuaciones estructurales). En todos los casos se debe formular una hipótesis que se confirmará (o no), en función de los resultados de estos análisis. Una hipótesis es una afirmación sobre un posible resultado que el investigador espera encontrar en su investigación y el contraste de hipótesis (también denominado prueba de significación o prueba estadística) es el método que se utiliza para averiguar si esa hipótesis debe aceptarse o rechazarse. La lógica del contraste de hipótesis estadístico consiste en aceptar o rechazar la hipótesis formulada en términos de probabilidad de ocurrencia, es decir, una hipótesis se rechaza porque tienen poca probabilidad de que se produzca. De lo que se trata es de probar con datos empíricos esa hipótesis y comprobar si el resultado se puede generalizar a la población. Las hipótesis de una investigación neuropsicológica suelen referirse a correlaciones entre variables o a comparaciones de grupo, aunque existen otro tipo de hipótesis (de predicción, de causalidad, etc.). Por ejemplo, un investigador formula la siguiente hipótesis de investigación: No existen diferencias entre las puntuaciones de creatividad de chicos y chicas El investigador quiere comprobar si los resultados en creatividad de los chicos y las chicas son estadísticamente iguales. Esta hipótesis para ser contrastada en primer lugar se formula en términos estadísticos. Una hipótesis estadística es una afirmación sobre las características de una distribución de probabilidad y surge de la hipótesis de investigación formulada. Siguiendo con el ejemplo anterior y considerando que la creatividad se ha medido en una escala de intervalo, el investigador quiere probar si las medias de chicos y chicas son iguales. La hipótesis de investigación es el origen de las hipótesis estadísticas, pero no son exactamente lo mismo. Mientras que la hipótesis de investigación hace referencia a algún aspecto observado de la realidad, las estadísticas hacen referencia a la distribución de probabilidad que, en este caso, como se cuenta con una variable cuantitativa (distribución normal), se formula sobre la distribución de la media: Mediachicos= Mediachicas Las hipótesis estadísticas son siempre 2: Nula (representada por H0) y alternativa (representada p La hipótesis nula es siempre la hipótesis que se somete a contraste y siempre se formula en términos de igualdad cuando se comparan los resultados de dos o más grupos o de negación cuando se trata de correlación, es decir, indica que no hay correlación entre variables o que el valor de la correlación es igual a cero. En cambio la hipótesis alternativa incluye el resto de resultados posible que no se establecen en la nula. Las hipótesis estadísticas se formulan de esta manera para que rechazar la hipótesis nula suponga automáticamente la confirmación de la alternativa, Ambas son complementarias y mutuamente excluyentes. Por ejemplo, en el caso de buscar la relación entre dos variables la hipótesis nula (H0) quedaría formulada de la siguiente forma:
  • 7. Enrique Navarro Asencio (@eduktive) 6  No existe relación entre el rendimiento en matemáticas y el rendimiento en lengua (o la correlación entre las variables es igual a cero). H0: ρ= 0 Y la hipótesis alternativa (H1) sería así:  Las variables rendimiento en matemáticas y rendimiento en lengua están relacionadas. H1: ρ≠ 0 Para el caso en el que la hipótesis trata de analizar las diferencias entre grupos de sujetos distintos, por ejemplo, diferencias en matemáticas en función del género, quedaría formulada de la siguiente forma:  Hipótesis Nula (H0): No existen diferencias en el rendimiento en matemáticas de mujeres y hombres (o las puntuaciones de hombres y mujeres son iguales). H0: µchicos= µchicas  Hipótesis Alterna (H1): Sí existen diferencias en el rendimiento en matemáticas de mujeres y hombres (o las puntuaciones de hombres y mujeres son diferentes). H1: µchicos≠ µchicas Mediante el análisis estadístico adecuado se busca evidencia para aceptar o rechazar la hipótesis nula. En caso de ser rechazada, la hipótesis alternativa debe aceptarse. 1.3 DISTRIBUCIÓN MUESTRAL Para definir una variable aleatoria se deben determinar los diferentes valores que puede tomar y con qué probabilidad pueden ocurrir esos valores. Cada valor de una variable tiene una probabilidad de ocurrencia, de la misma forma que cuando lanzamos una moneda al aire sabemos que existe un 50% de probabilidades de que salga cara y otro 50% de que salga cruz. A esa función de probabilidad se la denomina distribución muestra o densidad de probabilidad. Las probabilidades de ocurrencia de los niveles de una variable son equivalentes a sus frecuencias relativas o porcentajes, es decir, cuántas veces ocurre un fenómeno del total de casos. En las variables con dos únicos niveles, como el lanzamiento de una moneda o el género de los sujetos, acertar o fallar un ítem, etc. los niveles pueden tener o no la misma probabilidad de ocurrencia, este tipo de distribuciones se denominan distribuciones binomiales 5000 LANZAMIENTOS FIGURA 3. DISTRIBUCIÓN BINOMIAL CON IGUAL PROBABILIDAD 0 0,25 0,5 1 0,75 50% 50%
  • 8. Enrique Navarro Asencio (@eduktive) 7 Cuando se trabaja con variables cuantitativas y se cuenta con un tamaño suficiente, su distribución muestral adquiere forma de campana de Gauss que se denomina distribución normal o también conocida como distribución Z. FIGURA 4. DISTRIBUCIÓN NORMAL Con esta distribución es posible saber exactamente cuál es la probabilidad de que un sujeto obtenga un valor determinado en la variable y también que habrá más probabilidades de que se obtengan valores próximos a la media que los valores extremos, es decir, un mayor número de casos se situará en esos valores cercanos a la media y habrá menos casos en los valores extremos. Y conocer además cuántos casos hay entre dos valores de la variable, por ejemplo, hay un 50% de casos a un lado y otro de la media (en la distribución normal media, mediana y moda tienen el mismo valor), entre la puntuación de -1,96 y la de +1,96 se encuentran el 95% de los sujetos. El valor representativo o esperado de las variables cuantitativas, es decir, el valor que tiene una mayor probabilidad de ocurrencia, es la media. Y en consecuencia, cuando se contrastan hipótesis con variables cuantitativas se utiliza ese estadístico como referencia: la media. Por ejemplo, una de las posibles hipótesis que podría comprobarse es si las chicas y los chicos difieren en sus resultados de creatividad y, para averiguarlo, se compararían los resultados medios de ambos grupos para comprobar esas diferencias. La media tiene su distribución muestral que se asemeja a la curva normal, pero no es el único tipo de distribución existente. Cuando se trabaja con variables cualitativas nominales se comparan las frecuencias o proporciones, si se emplean variables ordinales se analizan rangos, etc. Incluso cuando se calcula una correlación, también cuenta con una distribución muestral asociada a los valores obtenidos. Otras distribuciones conocidas son la binomial, F de Senedor, chi-cuadrado, T de Student, etc. Por tanto, cuando contrastamos hipótesis utilizando muestras es necesario comparar esos valores con los de la distribución para confirmar que ese resultado se produciría también en la población. Y contar con un tipo de variables u otras determinará la distribución muestral de referencia. 1.4 ESTADÍSTICOS DE CONTRASTE Y PROBABILIDAD ASOCIADA Los estadísticos son esas distribuciones que se utilizan como referencia para contrastar las hipótesis formuladas. En esta guía se describen aquellos que tienen el objetivo de, por un lado, encontrar diferencias entre dos o más grupos y, por otro, analizar la relación entre distintas variables. 68,28% -1 +1 95% -1,96 +1,96 99% -2,58 +2,580
  • 9. Enrique Navarro Asencio (@eduktive) 8 Utilizar variables cuantitativas que cumplen con los requisitos de normalidad, como ya se mencionó en el tema anterior, es uno de los supuestos que se deben cumplir para utilizar pruebas estadísticas paramétricas. En cambio, si la distribución de puntuaciones no cumple con la normalidad se deberán emplear pruebas no paramétricas.  Pruebas Paramétricas: se utilizan con variables cuantitativas y con una muestra suficiente de sujetos (al menos 30 casos por grupo). Estos requisitos son necesarios para obtener una distribución normal de las puntuaciones en la variable analizada.  Pruebas NO Paramétricas: se utilizan con variables dependientes cualitativas, ya sean ordinales o nominales. También cuando se cuenta con variables cuantitativas pero no se alcanza el tamaño mínimo recomendado. La decisión de emplear un tipo de pruebas u otras depende de las características de las variables que forman parte de la investigación. Para utilizar pruebas paramétricas las variables deben cumplir una serie de supuestos:  Variables dependientes cuantitativas: medidas en escalas de intervalo o razón. En algunas ocasiones variables ordinales pueden considerarse cuantitativas si cumplen con el supuesto de normalidad  Normalidad de las puntuaciones: las variables objeto de estudio deben tener distribución normal, es decir, con forma de campana de Gauss. Este supuesto puede comprobarse con la prueba de Kolmogorov-Smirnov, pero si se cuenta con variables cuantitativas y un tamaño muestral suficiente (30 casos). FIGURA 5. DISTRIBUCIÓN NORMAL DE PUNTUACIONES  Homocedasticidad: cuando se comparan las puntuaciones de dos o más grupos es necesario que la varianza de esos grupos sea homogénea, es decir, que las varianzas de los grupos sean iguales1. Es posible comprobar este supuesto con la prueba de Levene o de Box. También es necesario garantizar un tamaño suficiente de los grupos (30 casos por grupo a comparar).  Independencia de las observaciones: en la recogida de información, las respuestas de un sujeto a un determinado test no deben depender de las respuestas de otro sujeto.  Linealidad: para el estudio de correlación con pruebas paramétricas (índice de Pearson) es necesario que la relación entre el par de variables analizadas sea lineal. Por tanto, además del tipo de hipótesis a contrastar (relación o diferencias entre grupos), es la naturaleza de las variables (cuantitativa o cualitativa) y el tamaño muestral, los que determinan la prueba estadística adecuada para analizar la información. En función de esa naturaleza, los estadísticos se clasifican dentro de esas dos categorías generales: A. Estadísticos Paramétricos 1. Diferencias entre grupos: T de Student y F de Snedecor (ANOVA) 1 Conviene recordad que la varianza es un estadístico descriptivo de dispersión
  • 10. Enrique Navarro Asencio (@eduktive) 9 2. Correlación: Pearson B. No Paramétricos 1. Diferencias entre grupos: U de Mann-Whitney, H de Kruskal-Wallys y W de Wilcoxon 2. Correlación: Spearman, Tau b, Tau c, Gamma y Chi-cuadrado, biserial-puntual El estadístico siempre va acompañado de un valor de probabilidad asociado. Normalmente se nombra como sig. (bilateral) o P-valor. Este valor es el que determina si el estadístico calculado ha resultado significativo. NIVEL DE SIGNIFICACIÓN Cada estadístico estimado en un contraste de hipótesis, ya sea paramétrico o no paramétrico, de correlación o comparación, siempre se acompaña de su probabilidad de ocurrencia de la hipótesis nula (p-valor). Esta probabilidad asociada al estadístico indica el número de ocasiones (cuántas veces de cada 100, es una proporción) que se cumplirá la hipótesis nula. Ese valor se debe comparar con un valor de probabilidad, elegido por el investigador, que establece el límite para considerar que una hipótesis se cumple. Ese valor de comparación es el nivel de significación o nivel de error que se espera cometer (α) y en investigación social no debe superar el 5%, es decir, una probabilidad de 0,05. Para aceptar la hipótesis nula deberá cumplirse más del 5% de las ocasiones, por tanto, debe tener una probabilidad asociada que supere el 0,05. Unos valores bajos de probabilidad asociada al estadístico inferior o igual al nivel de error (5% o inferior o igual a 0,05) señalarán que la hipótesis nula no se cumple el número suficiente de ocasiones y, en consecuencia, deberá rechazarse y, por tanto, aceptar la hipótesis alternativa. En cambio, si la probabilidad supera ese valor deberá aceptarse. Ese 5% (α=,05) es el límite establecido por consenso en investigación. No obstante, si el resultado de la probabilidad es igual o inferior al 1% (p = ,01) indica que la hipótesis nula solo ocurre una de cada 100 veces. Si esa probabilidad es del 0,1% (p= ,001) nos indica que ocurre una de cada 1000 ocasiones. Cuanto más bajo sea el nivel de significación más seguridad habrá al rechazar la hipótesis nula. Siempre que se realiza un contraste de hipótesis estadístico hay cierta probabilidad de error. Ese 5% indica también el error que se asume en el contraste de hipótesis. Utilizar este punto de corte del valor de la probabilidad conlleva asumir un 95% de nivel de confianza, pero es posible aunque poco probable que rechacemos una hipótesis nula cuando es cierta, o que la aceptemos cuando es falta. Los distintos tipos de error que pueden cometerse se resumen en la siguiente tabla: Realidad H0 cierta H0 Falsa No Rechazo H0 Correcto El tratamiento no tiene efecto y así se decide. Robustez estadística Error de tipo II El tratamiento si tiene efecto pero no lo percibimos. Probabilidad β Rechazo H0 Acepto H1 Error de tipo I El tratamiento no tiene efecto pero se decide que sí. Probabilidad α Correcto El tratamiento tiene efecto y el experimento lo confirma. Potencia estadística Tabla 1. Tipos de error en un contraste de hipótesis
  • 11. Enrique Navarro Asencio (@eduktive) 10 Por tanto, cuando se rechaza la hipótesis nula es porque tiene poca probabilidad de ocurrencia. En un análisis de correlación la hipótesis nula se formula en términos de negación de la relación entre las variables de rendimiento. Y, por tanto, la obtención de un valor de probabilidad inferior a 0,05 quiere decir que esa falta de relación, la hipótesis nula, ocurre menos del 5% de las veces y debe ser rechazada. En el otro 95% de los casos la relación es significativa. De forma opuesta, cuando el valor de probabilidad supera ese 0,05 la hipótesis nula tiene una probabilidad de ocurrencia suficiente para no ser rechazada. 1.5 CLASIFICACIÓN DE ANÁLISIS ESTADÍSTICOS PARA EL CONTRASTE DE HIPÓTESIS. En este apartado se presentan los estadísticos más habituales para contrastar hipótesis de correlación o de comparación de grupos, diferenciando entre paramétricos y no paramétricos. Los distintos análisis de correlación que se incluyen en esta guía están representados en la Figura 6. El coeficiente Pearson se emplea con variables cuantitativas y tamaños muestrales grandes (por encima de 30 casos). El coeficiente Spearman (también tau-b, tau-c y gamma) se emplean cuando no se alcanza ese tamaño muestral o cuando las variables analizadas tienen naturaleza ordinal. Cuando se correlaciona una variable cualitativa dicotómica y otra cuantitativa se utiliza la correlación biserial-puntual. Finalmente, el coeficiente chi-cuadrado analiza la relación entre variables cualitativas nominales o entre una variable nominal y otra ordinal. El estadístico chi-cuadrado tiene variantes en función del número de niveles de la variable nominal. Si las variables tienen el mismo número de categorías, especialmente si las variables a correlacionar tienen dos únicas categorías, se utiliza el coeficiente de contingencia. En cambio, si el número de niveles es distinto se emplearía chi-cuadrado. Figura 6. Clasificación de análisis de correlación Las pruebas estadísticas para la comparación de grupos, además de la distinción entre paramétricas y no paramétricas, también pueden variar en función del número de grupos a comparar y si esos grupos están relacionados o son independientes, como muestra la Figura 7 y Figura 8. Descriptiva Bivariada (Correlación) Paramétrica Variables Cuantitativas (Pearson) No Paramétrica Cualitativas Ordinales (Spearman, taub, tauc, gamma) Nominal dicotómica y cuantitativa (biserial- puntual) Cualitativas Nominales chi-cuadrado, phi y v de Cramer (distinto número de categorías) Coeficiente de contingencia, phi y v de Cramer (mismo número de categorías
  • 12. Enrique Navarro Asencio (@eduktive) 11 Figura 7. Pruebas paramétricas para la comparación de grupos Figura 8. Pruebas No Paramétricas para la comparación de grupos Paramétrica 1 grupo T de Student para una muestra 2 grupos Independientes (T de Student) Relacionados (T de Student) Más de dos grupos Independientes (ANOVA) Relacionados (ANOVA de medidas repetidas) No Paramétrica 1 grupo VD. Ordinal o Nominal (Chi- Cuadrado como bondad de ajuste) 2 grupos Independientes VD. Ordinal (U de Mann- Whitney) VD. Nominal (Chi-cuadrado para la independencia) VD y VI dicotómicas (Coeficiente de Contingencia) Relacionados VD. Ordinal (W de Wilcoxon) Variables dicotómicas (Mc Nemar) Más de dos grupos Independientes VD. Ordinal (H de Kruskal Wallis) VD Nominal (Chi-cuadrado para la independencia) Relacionados VD. Ordinal (Q de Cochran) VD y VI nominal (Friedman)
  • 13. Enrique Navarro Asencio (@eduktive) 12 Todas las pruebas paramétricas y no paramétricas se describen en esta guía excepto aquellas que se utilizan para comparar más de dos grupos relacionados (ANOVA de medidas repetidas, Friedman y Q de Cochran). Se excluyen debido a su alta complejidad de interpretación y porque son poco utilizadas en este campo de estudio. Las pruebas para grupos relacionados, tanto paramétricas como no paramétricas, normalmente comparan únicamente dos grupos: un pretest con un postest. GRUPOS RELACIONADOS VS. GRUPOS INDEPENDIENTES La diferencia principal entre estos dos tipos de grupos son las características de los sujetos que los componen. En los grupos independientes los sujetos tienen características distintas y las comparaciones se llevan a cabo utilizando esas variables distintivas. Por ejemplo, comparar los resultados en función del género (chicos y chicas), en función de su nivel de rendimiento (alto- bajo), de su lateralidad, etc. En cambio, en los grupos relacionados se compara a los mismos sujetos en momentos temporales distintos. El ejemplo más claro de grupos relacionados es cuando se mide a los mismos casos en dos ocasiones distintas (pretest-postest), pero también es posible formar grupos relacionados emparejando a los sujetos en función de alguna característica, por ejemplo, que tengan el mismo nivel de razonamiento espacial (ver Figura 10). Supongamos que queremos comprobar el efecto de un programa de enseñanza de las matemáticas. Para ello, formamos dos grupos uno va a recibir el programa y el otro no. Existen dos posibilidades de construir estos grupos. La primera de ellas se muestra la Figura 9, y distribuye a los sujetos de forma aleatoria en los dos grupos. Si se actúa de esta manera es posible que los grupos no sean equivalentes, es decir, que tengan alguna característica diferente y que influya en los resultados de matemáticas, por ejemplo, el razonamiento espacial. En este caso, esa variable es distinta entre los grupos y puede afectar a los resultados de matemáticas, independientemente del tratamiento experimental que se aplica. Figura 9. Grupos Independientes Para evitar este problema se mide inicialmente a los sujetos en razonamiento verbal y se distribuyen en los grupos en función de sus niveles. Cada grupo cuenta con un individuo de cada nivel de razonamiento verbal, están emparejados (ver Figura 10) y los grupos son equivalentes, están relacionados. De esta forma, la media en razonamiento verbal es igual en ambos grupos y no afectará a los resultados de matemáticas.
  • 14. Enrique Navarro Asencio (@eduktive) 13 Figura 10. Grupos relacionados en función de su Razonamiento Espacial La otra opción, ya mencionada, para forma grupos relacionados es la utilización de los mismo sujetos en varias ocasiones de medida, es decir, la comparación de los resultados de un pretest con un postest. 1.6 SOFTWARE PARA EL CONTRASTE DE HIPÓTESIS Y ANÁLISIS DE DATOS. Para llevar a cabo el análisis de la información con la finalidad de contrastar hipótesis estadísticas, van a utilizarse dos herramientas informáticas:  EZAnalyze: es un complemento gratuito de Microsoft Excel. Permite realizar análisis descriptivo de las variables y las pruebas paramétricas de contraste de hipótesis. Puede conseguirse en la siguiente página web: http://www.ezanalyze.com  SPSS: es un paquete estadístico para el análisis de datos. No es una herramienta gratuita pero es posible conseguir una versión por 15 días en la siguiente dirección: https://www14.software.ibm.com/download/data/web/en_US/trialprograms/W110742E0 6714B29.html. Con este software puede realizarse cualquier tipo de análisis estadístico pero en esta guía se emplea para la estadística no Paramétrica.  PSPP: alternativa gratuita a SPSS. Es posible hacer los análisis estadísticos más habituales en investigación. La desventaja es que los gráficos no son editables. Hay versiones para Windows (http://pspp.awardspace.com/), Mac (http://lavergne.gotdns.org/projects/pspp/) y Linux (http://mirrors.nfsi.pt/gnu/pspp/)
  • 15. Enrique Navarro Asencio (@eduktive) 14 2. PRUEBAS ESTADÍSTICAS (PARAMÉTRICAS Y NO PARAMÉTRICAS) Como ya se ha mencionado, las pruebas paramétricas se emplean cuando la variable dependiente analizada sigue una distribución normal. Normalidad estadística quiere decir que la distribución de frecuencias de esa variable tiene la forma de campana de Gauss. Este tipo de distribución tiene un mayor número de caso en torno a los valores medios o centrales y un menor número en los extremos de la distribución. Para cumplir con los requisitos de normalidad las variables deben ser cuantitativas. Normalmente, las puntuaciones de test estandarizados cumplen con ese requisito. No obstante, en ocasiones cuando se cuenta con poca muestra (inferior a 30 casos) las variables cuantitativas tampoco cumplen ese supuesto de normalidad. Por tanto, cuando se cuenta con poca muestra y también cuando la variable dependiente es cualitativa, deben aplicarse pruebas estadísticas no paramétricas para el análisis de los datos. 2.1 PRUEBAS PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS El objetivo de este tipo de pruebas es encontrar diferencias estadísticamente significativas entre las puntuaciones de una variable cuantitativa (variable dependiente) de varias muestras o grupos (variable independiente). Es una prueba de comparación y permite obtener la respuesta a la cuestión ¿existen diferencias entre las puntuaciones medias de los grupos? Veamos un ejemplo: La hipótesis nula que se prueba con este tipo de análisis es la siguiente:  NO existen diferencias significativas en las puntuaciones de la variable inteligencia emocional (variable dependiente) en función de la variable género (variable independiente, la que forma los grupos) También se puede formular de la siguiente forma:  Las puntuaciones de la variable inteligencia emocional de los chicos es igual a la de las chicas Conviene recordar, que toda hipótesis nula tiene una hipótesis alternativa en el caso de que sea rechazada. En este caso:  SÍ existen diferencias significativas en las puntuaciones de la variable inteligencia emocional (variable dependiente) en función de la variable género (variable independiente, la que forma los grupos). El tipo de prueba estadística podrá variar en función del número de grupos a comparar, en el ejemplo anterior la variable género tiene dos únicos grupos (mujer-hombre). Y también en función de si los grupos son relacionados o independientes. 2.1.1 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS INDEPENDIENTES. PRUEBA T DE STUDENT La variable independiente debe tener únicamente dos categorías independientes. Es decir, solo pueden compararse dos grupos distintos y sus niveles o categorías deben ser mutuamente excluyentes. Por ejemplo, el género (hombre-mujer), rendimiento categorizado (alto-bajo),
  • 16. Enrique Navarro Asencio (@eduktive) 15 lateralidad (izquierda-derecha), asistencia a preescolar (Sí-No), recibir un tratamiento o programa experimental (grupo experimental-grupo control), etc. El estadístico adecuado para analizar las diferencias entre las medias de dos grupos es T de Student. Su objetivo es analizar las diferencias entre las medias de dos grupos en una variable dependiente con distribución normal. Por ejemplo, diferencias entre chicas y chicos en el rendimiento en matemáticas. Supongamos que se desean analizar las diferencias entre varones y mujeres en las puntuaciones de una prueba que mide el conocimiento de otras culturas y religiones. Las hipótesis quedarían formuladas de la siguiente manera:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes.  Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes. Los resultados proporcionados por el complemento de Excel para el análisis de datos EZAnalyze aparecen en la Tabla 2 y la Figura 11 La primera parte de los resultados muestra los estadísticos descriptivos (media, desviación típica y tamaño de los grupos (N)) para cada grupo. En este caso el grupo uno son las mujeres y el dos los varones. Se observa que la media de las mujeres (7,750) es mayor a la de los varones (4,385). Para conocer si esas diferencias entre las medias de ambos grupos, que muestran los estadísticos descriptivos, son significativas debe observarse la probabilidad asociada al estadístico T, es decir, su probabilidad de ocurrencia. En la tabla aparece con la letra P y su valor es de 0,000. Como el valor de la probabilidad asociada al estadístio T es inferior al nivel de error (0,05) debe rechazarse la hipótesis nula y aceptar la alternativa. Es decir, se confirman las diferencias en las puntuaciones medias de mujeres y varones en el nivel de conocimientos de otras culturas. La tabla también informa sobre la diferencia entre las medias de los dos grupos (mean difference). En este caso hay 3,365 puntos de diferencia a favor de las mujeres. Por tanto, las mujeres tienen un mayor conocimiento de otras culturas que los varones. EZAnalyze Results Report - Independent T-Test of group 1 and 2 on INFORMA SEXO 1 (Mujeres) 2 (Varones) Mean: 7,750 4,385 Std. Dev: 1,212 2,180 N: 48 52 Mean Difference: 3,365 T-Score: 9,434 Eta Squared: ,471 P: ,000 The observed difference between the group means is significant Tabla 2. Prueba T de diferencias entre dos grupos. Resultados EZAnalyze La tabla de resultados se acompaña de un gráfico de barras que representa las puntuaciones medias de los dos grupos comparados (ver la Figura 11) Probabilidad asociada
  • 17. Enrique Navarro Asencio (@eduktive) 16 Figura 11. Medias de los grupos. 2.1.2 DIFERENCIAS ENTRE LAS PUNTUACIONES DE TRES O MÁS GRUPOS INDEPENDIENTES. ANÁLISIS DE VARIANZA (ANOVA) Cuando la variable independiente tiene más de dos grupos, por ejemplo, el nivel socioeconómico (alto-medio-bajo) el tipo de prueba debe adaptarse a estas características. El estadístico que se calcula en el ANOVA es F d Snedecor. Esta prueba estadística es similar a la prueba T pero compara las medias de tres o más grupos. El estadístico F, de la misma forma que en pasaba con T de Student, va acompañado de una probabilidad asociada que determina si las diferencias entre los grupos son significativas. La manera de llevar a cabo la interpretación y tomar la decisión de aceptación o rechazo de la hipótesis nula es igual que con las pruebas anteriores. Cuando el valor de esa probabilidad asociada al estadístico, en esta caso F de Snedecor, es inferior a 0,05, la hipótesis nula deberá rechazarse y se podrá confirmar las diferencias entre los grupos. Si el valor supera ese 0,05 la hipótesis nula deberá aceptarse. Esto quiere decir que las puntuaciones de los grupos son tienen medias iguales. Esta prueba también se acompaña de los denominados contrastes posteriores (post hoc) que determinan entre qué grupos se dan esas diferencias. Por ejemplo, si el objetivo es analizar las diferencias en las puntuaciones obtenidas en un test de xenofobia en función de los contactos con otras culturas (es una variable con tres grupos 1. Nulos, 2. Sistemáticos, 3. Ocasionales), las hipótesis quedarían formuladas de la siguiente forma:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional).  Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional). Los resultados que arroja el programa EZAnalyze se muestran en la Tabla 3, Tabla 4 y Figura 12. En la primera de ellas (Tabla 3) aparecen los estadísticos descriptivos de cada grupo (media, desviación típica y tamaño de los grupos) y también una media global de xenofobia (grand mean). Se observa que la media global es de 35 puntos aproximadamente. Si se analizan los grupos por separado, el grupo 2 (contactos sistemáticos) obtienen la menor puntuación media en xenofobia con un valor de 30 puntos. El grupo con contacto nulo (grupo 1) tiene menor media (35,459) que los que tienen un contacto ocasional (grupo3).
  • 18. Enrique Navarro Asencio (@eduktive) 17 Esta misma tabla se muestra también los resultados del ANOVA. Para comprobar si existen diferencias entre los grupos se observa el valor de la probabilidad asociada al estadístico F de Snedecor (P). Esta probabilidad tiene un valor de 0,001, valor inferior a 0,05. Como la probabilidad de ocurrencia de la hipótesis nula es muy baja debe ser rechazada y, por tanto, aceptar la alternativa y afirmar diferencias entre los grupos. EZAnalyze ANOVA Report - ANOVA of AXENOFO by CONTACT 0 cases were removed due to missing data Grand Mean 35,050 N 100 CONTACT(group) N Group Mean Std Deviation 1 37 35,459 9,873 2 32 30,000 9,333 3 31 39,774 10,459 ANOVA Table Source of Variance SS DF MS F Between Groups 1514,141 2,000 757,071 7,738 Within Groups 9490,609 97,000 97,841 Total 11004,750 P ,001 Eta Squared ,138 The ANOVA results indicate that at least two of the groups differed significantly Tabla 3. Prueba F de Snedecor (ANOVA) Como en este caso se cuenta con más de dos grupos, la prueba F de Snedecor no informa entre qué grupos se producen las diferencias. Para averiguarlo debe observarse la tabla de contrastes posteriores (Tabla 4). En esta tabla se comparan las diferencias entre cada grupo por separado, es decir, el grupo 1 con el grupo 2, el grupo 1 con el grupo 3 y el grupo 2 con el grupo 3. La forma de interpretar los contrastes posteriores es igual que la de cualquier otro contraste de hipótesis. En realidad, no son más que pruebas T de Student para cada par de grupos observados. Debe observarse por tanto, la probabilidad asociada a ese estadístico T (P-Unadjusted). Si ese valor es inferior a 0,05, las diferencias entre las puntuaciones de los dos grupos son significativas. En este ejemplo se han encontrado diferencias significativas entre los grupos 1 y 2 y entre los grupos 2 y 3. En cambio, las diferencias no son estadísticamente significativas entre los grupos 1 y 3. Esta tabla también ofrece información sobre el valor exacto de esa diferencia de medias en la columna “mean difference” Post Hoc tests Comparison Mean Difference T-Value P - Unadjusted P - Bonferroni Eta Squared Group_1 1 and 2 5,459 2,349 ,022 ,065 ,076 1 and 3 4,315 1,747 ,085 ,256 ,044 Group_2 2 and 3 9,774 3,917 ,000 ,001 ,201 Tabla 4. Contrastes posteriores (post hoc) Finalmente los resultados se acompañan de un gráfico de barras que muestra las medias en xenofobia de los tres grupos comparados (Figura 12).
  • 19. Enrique Navarro Asencio (@eduktive) 18 Figura 12. Medias de los grupos 2.1.3 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS. PRUEBA T DE STUDENT Cuando se comparan las puntuaciones de los mismos sujetos en una variable determinada pero en dos momentos temporales distintos (pretest y postest) o cuando los grupos están equiparados en función de alguna característica de los sujetos, por ejemplo, que los niveles medios de inteligencia sean iguales en los grupos a comparar, es necesario aplicar una prueba estadística adecuada a estas características. La prueba idónea en este caso es T de Student para grupos relacionados. El nombre de la prueba es el mismo que en el caso de los grupos independientes, pero la forma de calcular el estadístico varía ligeramente. No obstante, ese cambio en el cálculo no afecta a la manera de interpretar los resultados. Por ejemplo, si el objetivo es conocer si la aplicación de un programa de educación intercultural mejora los conocimientos sobre otras culturas y religiones, las hipótesis quedarían formuladas de la siguiente forma:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de conocimientos sobre otras culturas antes y después del programa. o Otra posibilidad es: No existen diferencias estadísticamente significativas entre el pretest y postest de la variable conocimientos sobre otras culturas y religiones.  Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de conocimientos sobre otras culturas antes y después del programa. o Otra posibilidad es: Sí existen diferencias estadísticamente significativas entre el pretest y postest de la variable conocimientos sobre otras culturas y religiones. Los resultados de la prueba T para grupos relacionados aparecen en la Tabla 5 y Figura 13. La información que incluye esta tabla es similar al resto de contrastes. En primer lugar, las medias y desviaciones típicas de las puntuaciones en el pretest y en el postest. Puede comprobarse que la puntuación es más alta en el postest (11,690). De la misma forma que en los casos anteriores, para verificar si esas diferencias entre pretest y postest son estadísticamente significativas debe observarse el valor de probabilidad asociado al estadístico, es decir, P. Al estar por debajo de 0,05, concretamente es igual 0,000, la hipótesis nula tiene poca probabilidad de ocurrencia y debe rechazarse. Por tanto, las diferencias entre pretest y
  • 20. Enrique Navarro Asencio (@eduktive) 19 postest son significativas, siendo más altas en el postest. Esto quiere decir que el programa de educación intercultural ha mejorado el nivel de conocimientos sobre otras culturas y religiones. EZAnalyze Results Report - Paired T-Test of INFORMA2 with INFORMA3 INFORMA2 (pretest) INFORMA3 (postest) Mean: 8,850 11,690 Std. Dev.: 2,409 2,770 N Pairs: 100 Mean Difference: -2,840 SE of Diff.: ,208 Eta Squared: ,650 T-Score: 13,636 P: ,000 The difference between INFORMA2 and INFORMA3 is significant Tabla 5. Resultados prueba T para dos grupos relacionados Los resultados se acompañan de un gráfico de barras que plasma las medias de las puntuaciones pretest y postest. Figura 13. Gráfico de medias pretest y postest 2.1.4 COMPARACIÓN DE UN ÚNICO GRUPO. PRUEBA T DE STUDENT También existe la posibilidad de comparar los resultados obtenidos por la muestra en una variable determinada, por ejemplo, inteligencia, con una puntuación de esa variable que sirva como referente. Esta puntuación de referencia es un dato conocido, es decir, se ha encontrado en algún trabajo de investigación con características similares, es el dato de la población, etc. Si el investigador pretende averiguar si la media en nivel de vocabulario de los sujetos de la muestra difiere de los resultados obtenidos en otra investigación o en la población de referencia. Por ejemplo, trata de confirmar que la media de su muestran en nivel vocabulario es igual a la de la población, que fue igual a 15. Por tanto, las hipótesis se formularían de la siguiente manera:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de vocabulario de la muestra y un nivel de vocabulario igual 15.
  • 21. Enrique Navarro Asencio (@eduktive) 20  Hipótesis Alterna: Sí No existen diferencias estadísticamente significativas en el nivel de vocabulario de la muestra y un nivel de vocabulario igual 15. Los resultados de esta prueba se presentan mediante una tabla y un gráfico (Tabla 6 y ¡Error! No se encuentra el origen de la referencia.). La tabla incluye los estadísticos descriptivos de la muestra en la variable objeto de estudio (nivel de vocabulario). Incluye la media (16,583), la desviación típica (6,344) y el número de sujetos (36). El valor de la columna NTV es el valor de comparación, en este caso, una media de 15 puntos en nivel de vocabulario. Para confirmar que las dos medias son distintas se debe poner atención en el valor de T (T-score) y su probabilidad asociada (P). Una probabilidad inferior a 0,05 indica que las diferencias son estadísticamente significativas. Pero no ocurre así, el valor de probabilidad es 0,143 y supera, por tanto, el 0,05. EZAnalyze Results Report - One Sample T-Test Nivel de vocabulario previo (0- 30) NTV N Valid: 36 N Missing: 0 Mean: 16,583 15,00 0 Std. Dev: 6,344 Mean Diff: 1,583 T-Score: 1,497 Eta Squared: ,060 P: ,143 Tabla 6 y Figura 14. Resultados prueba T para una muestra. Se debe aceptar por tanto la hipótesis nula formulada. No es posible afirmar la existencia de diferencias estadísticamente significativas entre las dos medias comparadas. 2.2 PRUEBAS PARAMÉTRICAS DE RELACIÓN ENTRE VARIABLES El análisis de correlación se utiliza con el objetivo estudiar la relación entre dos variables. En este tipo de análisis no se diferencia entre variable dependiente e independiente, ambas tienen el mismo papel. La hipótesis nula que se pone a prueba en este análisis es la siguiente:  Las variables (nombres de las variables) analizadas no están relacionadas. Y, por tanto, la hipótesis alternativa es la que afirma la existencia de relación entre las variables:  Las variables (nombres de las variables) analizadas sí están relacionadas. De la misma forma que en los análisis de diferencias entre grupos, el tipo de prueba estadística dependerá de las características de las variables analizadas y del tamaño muestral. Cuando las dos variables correlacionadas son cuantitativas y se cuenta con al menos 30 casos, el estadístico adecuado es la correlación de Pearson. 2.2.1 CORRELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS. PEARSON
  • 22. Enrique Navarro Asencio (@eduktive) 21 Este estadístico puede tomar valores entre -1 y +1. El cero quiere decir ausencia de correlación. A medida que el valor se acerca a los extremos (-1 o +1) la correlación es más potente. El signo señala la direccionalidad de la correlación. Un valor negativo quiere decir que a medida que aumentan los valores de una variable disminuyen los de la otra (correlación inversa). En cambio, si el valor es positivo, a medida que aumentan unos también lo hacen los otros y viceversa (correlación directa). Por ejemplo, si se seleccionan 30 individuos y se mide su peso y altura. Utilizando estas dos variables como referencia es posible elaborar un gráfico de dispersión como el siguiente (Figura 15): Figura 15. Gráfico de dispersión con las variables peso y altura Este gráfico representa con un punto a cada uno de los sujetos estudiados. Este punto representa su altura y peso concretos y observando su forma de agrupación es posible averiguar la existencia de cierta tendencia en los datos, como se muestra en el Figura 16. Figura 16. Gráfico de dispersión con línea de tendencia.
  • 23. Enrique Navarro Asencio (@eduktive) 22 A simple vista puede observarse una relación directa entre las variables peso y altura, es decir, a media que la altura es mayor también lo es el peso. Aunque los gráficos de dispersión permiten observar el sentido de la relación (ver Figura 17), para conocer el grado exacto de la relación es necesario calcular un índice de correlación. Figura 17. Tipos de relación entre variables En la Tabla 7 aparecen los resultados de un análisis de correlación de Pearson entre las puntuaciones de una escala de xenofobia y las de otra escala de dogmatismo, ambas son variables cuantitativas. Las hipótesis correspondientes son:  Hipótesis Nula: Las variables xenofobia y dogmatismo NO están relacionadas.  Hipótesis Alternativa: Las variables xenofobia y dogmatismo SÍ están relacionadas. EZAnalyze Results Report - Correlation of AXENOFO with DOGMAT Pearson Correlation ,500 N 100,000 P ,000 The observed correlation is statistically significant Tabla 7. Correlación de Pearson entre xenofobia y dogmatismo El valor de la correlación entre las dos variables analizadas es de 0,5. Es por tanto un valor de relación positivo y con intensidad media. La correlación se complementa con la probabilidad asociada al estadístico (P), que en este caso es de 0,000. De la misma forma que en los contrastes de medias, es necesario que esta probabilidad asociada se encuentre por debajo de 0,05 para concluir que el valor de la correlación es significativo. En caso de que la probabilidad supere el 0,05 la correlación no sería significativa, independientemente del valor del coeficiente de Pearson.
  • 24. Enrique Navarro Asencio (@eduktive) 23 Figura 18. Gráfico de dispersión entre xenofobia y dogmatismo La tabla de correlación se acompaña del gráfico de dispersión (Figura 18) de las dos variables analizadas. En este gráfico puede observarse la tendencia de la relación. En este caso positiva y media. 2.3 PRUEBAS NO PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS A continuación se describen las pruebas estadísticas para la comparación de grupos cuando las variables dependientes analizadas no son cuantitativas o cuando el número de casos de la muestra no alcanza los 30. Cada prueba no Paramétrica tiene su equivalente no Paramétrica. 2.3.1 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS INDEPENDIENTES. PRUEBA U DE MANN-WHITNEY. Cuando la variable dependiente no es cuantitativa y tiene un carácter ordinal o no se cuenta con variables con una distribución normal, hay un estadístico equivalente a T de Student denominado U de Mann Whitney. También se utiliza cuando el tamaño de los grupos es reducido (inferior o igual a 30 casos), aunque se cuente con variables dependientes cuantitativas. Su función es la misma que la prueba T pero en lugar de comparar las medias de los grupos compara rangos. Los rangos son una transformación de las puntuaciones de la variable analizada para poder llevar a cabo ese análisis no paramétrico. La interpretación es similar a una media, un mayor rango indica valores mayores en los resultados de ese grupo.
  • 25. Enrique Navarro Asencio (@eduktive) 24 Figura 19. Proceso de transformación de puntuación a rango Uno de los casos en los que se aplica este tipo de prueba es cuando los dos grupos a comparar tienen menos de 30 casos. A continuación se incluye un ejemplo concreto. El objetivo es comparar los resultados en la variable comprensión lectora en función de sí los estudiantes han asistido o no a educación preescolar. La variable comprensión lectora es una variable cuantitativa obtenida a partir de un test, pero sólo se cuenta con 16 sujetos que han asistido a preescolar y 18 que no. Las hipótesis a contrastar son las siguientes:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel lectora en función de la asistencia o no a educación preescolar.  Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel lectora en función de la asistencia o no a educación preescolar. Los resultados del análisis se presentan en dos tablas distintas (Tabla 8 y Tabla 9). La primera de ellas muestra los resultados descriptivos para los dos grupos analizados. Es posible identificar el rango promedio en la variable comprensión lectora de ambos grupos. En este caso, los estudiantes que si asistieron a preescolar obtienen un mayor rango en compresión lectora (22,56), frente al 13 obtenido por los que no asisten. Como ya se ha mencionado un mayor rango equivale a una mayor puntuación en esa variable. No obstante, para conocer si esas diferencias iniciales son significativas debe observarse la Tabla 9. Asistencia a Preescolar N Mean Rank Sum of Ranks Comprensión lectora (0-30) Sí 16 22,56 361,00 No 18 13,00 234,00 Total 34 Tabla 8. Rangos. Prueba U El rechazo o aceptación de la hipótesis nula depende del valor del estadístico calculado, en esta caso U, y su probabilidad asociada. De la misma forma que el resto de pruebas estadística, para que los resultados sean significativos, es decir, rechazar la hipótesis nula y afirmar la diferencia entre las puntuaciones de la variable dependiente, el valor de esa probabilidad debe ser inferior a 0,05.
  • 26. Enrique Navarro Asencio (@eduktive) 25 Esto índica que la hipótesis nula planteada tiene pocas probabilidades de ocurrencia y, por tanto, debe ser rechazada. Comprensión lectora (0-30) Mann-Whitney U 63,000 Wilcoxon W 234,000 Z -2,799 Asymp. Sig. (2-tailed) ,005 a. Not corrected for ties. Tabla 9. Prueba U de Mann-Whitney En este caso se pueden afirmar diferencias en la variable dependiente (comprensión lectora) entre los grupos. El valor de la probabilidad asociada es igual a 0,005, inferior al 0,05 que se utiliza como margen de error. Para conocer qué grupo ha obtenido mayores puntuaciones en la variable dependiente debe observarse la tabla de rangos. Un mayor rango índica que ese grupo obtiene mayores puntuaciones en la variable dependiente. 2.3.2 DIFERENCIAS ENTRE LAS PUNTUACIONES DE TRES O MÁS GRUPOS INDEPENDIENTES. PRUEBA H DE KRUSKAL-WALLYS El equivalente no paramétrico del ANOVA es la prueba H de Kruskal-Wallis que tiene una lógica similar a la prueba U de Mann-Whitney. En lugar de medias se analizan los rangos de los grupos. La forma de interpretar los resultados es la misma que en los casos anteriores. Valores de probabilidad asociados al estadístico de H de Kruskal-Wallis inferiores a 0,05 indican diferencias entre los rangos y, por tanto, diferencias en las puntuaciones de los grupos. Las hipótesis a contrastar son las siguientes:  Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel lectora en función del nivel socioeconómico (alto-medio-bajo)  Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel lectora en función del nivel socioeconómico (alto-medio-bajo) En este caso se cuenta con tres grupos de comparación pero los resultados son los mismos que se obtienen con la prueba U de Mann-Whitney. Una primera tabla de rangos que describe las puntuaciones medias de los tres grupos (Tabla 10) y otra para los resultados concretos del contraste de hipótesis (Tabla 11). Nivel socioeconómico N Mean Rank Comprensión lectora (0-30)Alto 12 23,00 Medio 12 18,83 Bajo 12 13,67 Total 36 Tabla 10. Rangos. Prueba H Se aplica la prueba no Paramétrica porque los grupos a comparar únicamente cuentan con 12 casos cada uno. En la tabla anterior se observa que el grupo de nivel socioeconómico alto es el que mayor rango promedio obtiene, con un valor de 23. Para comprobar si las diferencias encontradas en la tabla de rangos son estadísticamente significativas, se debe observar la Tabla 11.
  • 27. Enrique Navarro Asencio (@eduktive) 26 Test Statisticsa Comprensión lectora (0-30) Chi-Square 4,738 df 2 Asymp. Sig. ,094 a. Kruskal Wallis Test Tabla 11. Prueba H de Kruskal Wallis Aunque en la tabla aparezca el estadístico Chi-square (chi-cuadrado), el estadístico utilizado es H de Kruskal Wallis. Chi-cuadrado es solo una transformación porque H no tiene distribución de probabilidad conocida y, por ese motivo, se transforma en chi para poder asignar esos valores de probabilidad. En este caso la probabilidad asociada al estadístico H es de 0,094. Valor que supera el 0,05 establecido como límite. Por tanto, no se pueden asumir diferencias estadísticamente significativas entre los grupos comparados. Debe aceptarse la hipótesis nula. 2.3.3 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS. PRUEBA W DE WILCOXON. En el caso de contar con dos grupos relacionados, como las puntuaciones pretest y postest de un mismo estudiante, pero no se cumplen los requisitos para aplicar pruebas paramétricas o las variables analizadas son ordinales, la prueba W de Wilcoxon es el equivalente no paramétrico. La prueba de Wilcoxon, de la misma forma que las pruebas no paramétricas U de Mann-Whitney y H de Kruskal Wallis también utiliza rangos en lugar de medias para llevar a cabo la comparación. Las hipótesis a contrastar son las siguientes:  Hipótesis Nula: No existen diferencias estadísticamente significativas entre el pretest y postest de la variable nivel de vocabulario recodificada (alto-medio-bajo)  Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el pretest y postest de la variable nivel de vocabulario recodificada (alto-medio-bajo) Los resultados del contraste aparecen en dos tablas (Tabla 12 y Tabla 13). En la primera se muestran los rangos diferenciados en tres categorías. En primer lugar los rangos negativos que indican los casos en los que la puntuación del pretest es mayor que la del postest; en segundo lugar, los rangos positivos que indican cuando la puntuación del postest es mayor a la del pretest; y, finalmente, los empates. En este ejemplo hay 0 rangos negativos, 3 positivos y 33 empates. Por tanto, en ningún caso la puntuación del pretest es mayor que la del postest; en 3 casos ocurre al revés, es mayor el postest; y en la mayoría de los casos (33) se obtiene la misma puntuación en el pretest y en el postest. N Media de Rangos Suma de Rangos Nivel de Vocabulario (postest) - Nivel de Vocabulario (pretest) Rangos Negativosa 0a ,00 ,00 Rangos Positivosb 3b 2,00 6,00 Empatesc 33c Total 36
  • 28. Enrique Navarro Asencio (@eduktive) 27 N Media de Rangos Suma de Rangos Nivel de Vocabulario (postest) - Nivel de Vocabulario (pretest) Rangos Negativosa 0a ,00 ,00 Rangos Positivosb 3b 2,00 6,00 Empatesc 33c Total 36 a. Nivel de Vocabulario (postest) < Nivel de Vocabulario (pretest) b. Nivel de Vocabulario (postest) > Nivel de Vocabulario (pretest) c. Nivel de Vocabulario (postest) = Nivel de Vocabulario (pretest) Tabla 12. Rangos. Prueba W de Wilcoxon Es necesario analizar la Tabla 13 para comprobar la existencia de diferencias estadísticamente significativas entre pretest y postest. Test Statisticsb Nivel de Vocabulario (postest) - Nivel de Vocabulario (pretest) Z -1,732a Asymp. Sig. (2-tailed) ,083 a. Basado en rangos negativos. b. Wilcoxon Signed Ranks Test Tabla 13. Prueba W de Wilcoxon El valor de probabilidad asociada al estadístico calculado es de 0,083, valor que se encuentra por encima de 0,05. Por tanto, debe aceptarse la hipótesis nula y no se pueden afirmar diferencias entre las puntuaciones de pretest y postest. 2.3.4 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS. PRUEBA MCNEMAR Cuando se comparan dos grupos relacionados y la variable dependiente es cualitativa con dos únicas categorías el estadístico adecuado es McNemar. Esta prueba equivale a la comparación de dos proporciones de casos de la misma variable en dos momentos temporales distintos, por ejemplo, si hay el mismo número de casos que aprueben la asignatura de matemáticas en la primera y en la segunda evaluación. Las hipótesis a contrastar son las siguientes:  Hipótesis Nula: No existen diferencias estadísticamente significativas entre el número de casos que supera el pretest y los que superan el postest de la variable nivel de vocabulario recodificada (No supera-Supera)  Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el número de casos que supera el pretest y los que superan el postest de la variable nivel de vocabulario recodificada (No supera-Supera) Los resultados del contraste aparecen en dos tablas (Tabla 14 y Tabla 15). La primera es una tabla de contingencia que analiza el número de casos que hay en las distintas categorías de las variables (cuántos casos no superan el pretest y postest; cuántos no superan el pretest y sí el postest; cuántos casos superan el pretest y el postest; cuántos casos superan el pretest, pero no el postest). La segunda tabla indica si los cambios entre pretest y postest son significativos. Tabla de contingencia VOCA_Pre * VOCA_Post
  • 29. Enrique Navarro Asencio (@eduktive) 28 VOCA_Post TotalNo Supera Supera VOCA_Pr e No Supera Recuento 10 7 17 % dentro de COM2 58,8% 41,2% 100,0% Supera Recuento 5 8 13 % dentro de COM2 38,5% 61,5% 100,0% Total Recuento 15 15 30 % dentro de COM2 50,0% 50,0% 100,0% Tabla 14. Tabla de contingencia Para comprobar si los cambios entre pretest y postest son estadísticamente significativos debe observarse la siguiente tabla: Pruebas de chi-cuadrado Valor Sig. exacta (bilateral) Prueba de McNemar ,774a N de casos válidos 30 a. Utilizada la distribución binomial Tabla 15. Prueba de mcnemar El resultado de la prueba indica que la probabilidad asociada al estadístico (o,774) supera al nivel de error asumido (0,05) y, por tanto, debe aceptarse la hipótesis nula y afirmar que no hay un mayor número de casos que supere la prueba de vocabulario en el postest que en el pretest. 2.3.5 COMPARACIÓN DE UN ÚNICO GRUPO. CHI-CUADRADO COMO BONDAD DE AJUSTE. Esta prueba de comparación se utiliza cuando el objetivo es comprobar si el número de casos que hay en cada categoría (frecuencias observadas) de una variable cualitativa es el mismo (frecuencia esperada). Esta frecuencia esperada es el número de sujetos que se esperaba obtener en cada categoría de la variable. Puede ser el mismo número en cada categoría o un número concreto establecido por el investigador. Por ejemplo, quiere comprobarse si el número de sujetos de cada categoría de la variable Madurez Lectora es el mismo, es decir, si el mismo número de sujetos obtiene una madurez lectora baja, media y alta. Las hipótesis a contrastar son las siguientes:  Hipótesis Nula: No existen diferencias estadísticamente significativas en las frecuencias (nº de casos) de cada categoría de la variable Madurez Lectora.  Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en las frecuencias (nº de casos) de cada categoría de la variable Madurez Lectora. Los resultados de esta prueba se presentan en dos tablas (Tabla 16 y Tabla 17). En la primera aparecen las frecuencias observadas (Observed N) que es el nº de sujetos en cada categoría de la variable analizada, por ejemplo, hay 9 casos con madurez lectora baja y 19 con media; las frecuencias esperadas (Expected N) si las categorías tuvieran el mismo nº de casos, 12 casos en cada categoría; y el residual que es la diferencia entre las observadas y las esperadas. La segunda tabla incluye los resultados del estadístico chi-cuadrado y su probabilidad asociada: Observed N Expected N Residual
  • 30. Enrique Navarro Asencio (@eduktive) 29 Baja 9 12,0 -3,0 Media 19 12,0 7,0 Alta 8 12,0 -4,0 Total 36 Tabla 16. Frecuencias observadas y esperadas de la variable Madurez Lectora (categorizada) Es necesario observar la probabilidad asociada al estadístico chi-cuadrado (Tabla 17) para confirmar la existencia de diferencias entre las frecuencias observadas y las esperadas. Categorización Madurez Lectora Chi-Square 6,167a df 2 Asymp. Sig. ,046 a. 0 celdas (,0%) tienen una frecuencia esperada inferior 5. La frecuencia minima esperada es 12,0. Tabla 17. Prueba chi-cuadrado como bondad de ajuste. En este ejemplo, la probabilidad asociada al estadístico chi-cuadrado es de 0,046, valor inferior a 0,05. Por tanto, debe rechazarse la hipótesis nula y confirmar que el número de casos de cada categoría no es el mismo en la variable madurez lectora. 2.4 PRUEBAS NO PARAMÉTRICAS DE RELACIONES ENTRE VARIABLES El objetivo del análisis de correlación no paramétrico es el mismo que persigue el análisis paramétrico: cuantificar la relación existente entre dos variables. Las hipótesis, por tanto, coinciden con las formuladas en el análisis de correlación paramétrico  Hipótesis nula: Las variables (nombres de las variables) analizadas no están relacionadas.  Hipótesis alternativa: Las variables (nombres de las variables) analizadas sí están relacionadas. El tipo de estadístico de correlación adecuado dependerá de las características de las variables analizadas. Cuando las dos variables correlacionadas están medidas a nivel de intervalo y siguen una distribución normal el estadístico adecuado es la correlación de Pearson (ver apartado 2.2.1). No obstante, contar con poca muestra o con variables de otra naturaleza son aspectos que determinan el estadístico de correlación. Además de Pearson, otros tipos de coeficientes de correlación no paramétricos son los siguientes:  Rho de Spearman: se utiliza cuando las variables tienen naturaleza cualitativa ordinal o también con variables cuantitativas pero con muestras pequeñas (menos de 30 casos). Otras alternativas a este coeficiente son Tau b y Tau c y gamma.  Chi-cuadrado: se utiliza cuando se analiza la relación entre dos variables cualitativas nominales. Por ejemplo, la relación entre sexo (hombre-mujer) y rendimiento (alto-bajo). También se utiliza para relacionar una variable nominal y otra ordinal.
  • 31. Enrique Navarro Asencio (@eduktive) 30 2.4.1 CORRELACIÓN ENTRE DOS VARIABLES CUALITATIVAS ORDINALES. SPEARMAN, TAU-B, TAU-C Y GAMMA La correlación de Spearman se utiliza cuando las variables tienen naturaleza cualitativa ordinal. También cuando las variables son cuantitativas pero se cuenta con poca muestra. El ejemplo clásico de variables ordinales son los ítems de un cuestionario de opinión: valora de 1 a 5 tu grado de acuerdo con las siguientes afirmaciones (variables tipo Likert). La interpretación es idéntica a la correlación paramétrica. Tau b y Tau c de Kendall y Gamma son una alternativa al coeficiente de correlación de Spearman. La interpretación de estos coeficientes de correlación no paramétricos (Spearman, tau b, tau c y gamma) es idéntica a la de Pearson. Sus valores oscilan entre -1 y +1. Recordemos que el valor cero quiere decir ausencia de correlación. A medida que el valor se acerca a los extremos (-1 o +1) la correlación es más potente. El signo señala la direccionalidad de la correlación. Un valor negativo quiere decir que a medida que aumentan los valores de una variable disminuyen los de la otra (correlación inversa). En cambio, si el valor es positivo, a medida que aumentan unos también lo hacen los otros y viceversa (correlación directa). Veamos un ejemplo. Se quiere analizar la relación entre dos variables ordinales. Son Madurez lectora y nivel de vocabulario que inicialmente eran variables cuantitativas y se han recodificado en tres categorías: baja-media-alta. Las hipótesis a contrastar son las siguientes:  Hipótesis nula: Las variables madurez lectora y nivel de vocabulario, ambas con tres categorías (baja-media-alta) no están relacionadas.  Hipótesis alternativa: Las variables madurez lectora y nivel de vocabulario, ambas con tres categorías (baja-media-alta) SÍ están relacionadas. A modo de ejemplo, se han calculado los cuatro coeficientes posibles entre variables ordinales. En la práctica únicamente se necesita uno de ellos. El más utilizado es Spearman (Tabla 18). Categorización Madurez Lectora Categorización Nivel de Vocabulario Spearman's rho Categorización Madurez Lectora Correlation Coefficient 1,000 ,916** Sig. (2-tailed) . ,000 N 36 36 Categorización Nivel de Vocabulario Correlation Coefficient ,916** 1,000 Sig. (2-tailed) ,000 . N 36 36 **. Correlation is significant at the 0.01 level (2-tailed). Tabla 18. Correlación de Spearman entre Madurez lectora y nivel de vocabulario categorizadas. De la misma forma que en el resto de contraste de hipótesis, debe observarse el valor del coeficiente, junto con el valor de la probabilidad asociada. Si ese valor es inferior a 0,05 el valor de la correlación es significativo. En caso contrario no se podrá confirmar la relación entre las variables estudiadas. En este caso, el coeficiente de Spearman es igual a 0,916 y la probabilidad asociada al estadístico (sig. (2-tailed) es 0,000, valor inferior a 0,05. Por tanto, la correlación es significativa. El programa SPSS marca con un asterisco (*) las correlaciones que son significativas considerando un nivel de error de 0,05 y con dos (**) las que lo son con 0,01, es decir, con un nivel de confianza del 95% o del 99%
  • 32. Enrique Navarro Asencio (@eduktive) 31 En la tabla de resultados (Tabla 18) aparecen dos coeficientes de correlación porque es una tabla simétrica. Incluye los valores de correlación entre madurez lectora y nivel de vocabulario y también entre nivel de vocabulario y madurez lectora. El resto de coeficientes de correlación para variables ordinales (Tabla 19) muestran valores muy similares: Value Asymp. Std. Error Approx. T Approx. Sig. Ordinal by Ordinal Kendall's tau-b ,902 ,051 8,947 ,000 Kendall's tau-c ,813 ,091 8,947 ,000 Gamma 1,000 ,000 8,947 ,000 N of Valid Cases 36 Tabla 19. Correlación tau-b, tau-c y gamma entre Madurez lectora y nivel de vocabulario categorizadas. Todos los coeficientes resultan significativos. Los valores de probabilidad asociada (Approx. Sig.) son inferiores a 0,05. Un análisis en profundidad de cada uno de ellos indican que tau-b es el que obtiene un valor más parecido a Spearman (Tau-b= 0,902 y Spearman= 0,916). El coeficiente Gamma indica una correlación perfecta entre las variables, con un valor de 1. En cambio, tau-c es el más conservador de los tres, con un valor de 0,813. No obstante, las diferencias entre coeficientes son mínimas. En todos los casos la intensidad de la correlación es alta. 2.4.2 CORRELACIÓN ENTRE DOS VARIABLES CUALITATIVAS NOMINALES. CHI- CUADRADO PARA LA INDEPENDENCIA Finalmente, el coeficiente de correlación chi-cuadrado se utiliza cuando las variables analizadas tienen naturaleza cualitativa (por ejemplo, lateralidad (izquierda-derecha) o sexo (mujer-varón), etc.). También se emplea cuando se correlaciona una variable cualitativa nominal con otra ordinal. El coeficiente chi-cuadrado se interpreta de forma distinta al resto de coeficientes de correlación porque no hay valores negativos. En los coeficientes de Pearson, Spearman, tau-b, tau-c y gamma los valores oscilan entre -1 y +1. En el caso de chi-cuadrado únicamente puede indicarse si la correlación es significativa o no, en función de la probabilidad asociada. Si es inferior a 0,05 será una relación significativa. Únicamente pueden compararse coeficientes chi-cuadrado entre sí y, en ese caso, un mayor valor quiere decir una relación más potente entre las variables. Las hipótesis a contrastar son las siguientes:  Hipótesis nula: Las variables asistencia a preescolar y nivel de vocabulario categorizada (baja-media-alta) son independientes (o no están relacionadas).  Hipótesis alternativa: Las variables asistencia a preescolar y nivel de vocabulario categorizada (baja-media-alta) están relacionadas. Los resultados se distribuyen en dos tablas. La primera (Tabla 20) es una tabla de contingencia que muestra el número de sujetos con los que cuenta cada una de las categorías de las variables. O más bien, del cruce de categorías de las dos variables analizadas. En este ejemplo, cuántos alumnos han asistido a preescolar y tienen un nivel de vocabulario bajo (1 caso), cuántos medio (9 casos) y cuántos un nivel alto (6 casos). La tabla también proporciona la misma información para los que no han asistido a preescolar, 6 casos tienen un nivel de vocabulario bajo, 11 medio y 1 alto.
  • 33. Enrique Navarro Asencio (@eduktive) 32 Analizando la tabla de contingencia se observa cierta tendencia. Hay un mayor número de casos con nivel de vocabulario alto y que han asistido a preescolar. En cambio, los que no han asistido a preescolar tienen un mayor número de casos con nivel de vocabulario bajo. Categorización Nivel de Vocabulario TotalBaja Media Alta Asistencia a Preescolar Sí 1 9 6 16 No 6 11 1 18 Total 7 20 7 34 Tabla 20. Tabla de contingencia de Asistencia a preescolar y nivel de vocabulario Los resultados también incluyen un gráfico de barras (Figura 20) con la misma información que la tabla de contingencia: Figura 20. Grafico de barras desagregado Para confirmar está relación debe observarse la tabla de chi-cuadrado (Tabla 21). Este coeficiente no analiza rangos, estudia el número de casos de casos de cada categoría y su posible tendencia. En la tabla aparecen varios coeficientes pero debe observare únicamente chi-cuadrado (chi-square). La manera de conocer si el estadístico chi-cuadrado ha resultado significativo es la misma que en el resto de contrastes de hipótesis. Valores de probabilidad (Asymp. Sig. (2-sided)) inferiores a 0,05 indican que la relación ha resultado significativa. Por tanto, las dos variables cualitativas estudiadas están correlacionadas. En este ejemplo la probabilidad asociada a chi-cuadrado es de 0,027, un valor inferior al 0,05. Por tanto, las variables asistencia a preescolar y nivel de vocabulario están relacionadas. No es posible conocer la intensidad de la relación a no ser que se compare con otros coeficientes chi-cuadrado. Chi-cuadrado no tiene intervalos establecidos como el coeficiente de correlación de Pearson que oscila entre -1 y +1. En ese caso, un mayor de chi indica mayor intensidad de la relación entre variables. Value df Asymp. Sig. (2- sided) Pearson Chi-Square 7,250a 2 ,027 Likelihood Ratio 8,007 2 ,018
  • 34. Enrique Navarro Asencio (@eduktive) 33 Linear-by-Linear Association 6,957 1 ,008 N of Valid Cases 34 a. 4 cells (66,7%) have expected count less than 5. The minimum expected count is 3,29. Tabla 21. Prueba Chi-cuadrado Hay una adaptación del coeficiente de correlación chi-cuadrado que se utiliza cuando las dos variables cualitativas analizadas tienen el mismo número de categorías. Por ejemplo, si tratamos de relacionar el género (Mujer-Hombre) con la variable sociabilidad (alta sociabilidad-baja sociabilidad). Es el coeficiente de contingencia Los resultados también se presentan en dos tablas. La primera es una tabla de contingencia (Tabla 22) que representa las frecuencias de cada categoría obtenida con el cruce de las dos variables. En este caso: mujeres con alta sociabilidad, mujeres con baja sociabilidad, varones con alta sociabilidad y varones con baja sociabilidad. La segunda (Tabla 23) muestra los resultados concretos del coeficiente de contingencia y su probabilidad asociada. Extroversión y sociabilidad TotalAlta sociabilidad Baja sociabilidad SEXO Mujer 30 18 48 Varón 25 27 52 Total 55 45 100 Tabla 22. Tabla de contingencia de sexo y sociabilidad Los valores del coeficiente de contingencia oscilan entre 0 y 1. Valores cercanos a 1 indican una relación muy potente entre las variables y cercanos a 0 indican ausencia de relación. No es posible diferenciar entre relación directa o inversa. No obstante, para que el coeficiente resulte significativo el valor de la probabilidad asociada debe ser inferior a 0,05. Value Approx. Sig. Nominal by Nominal Contingency Coefficient ,143 ,148 N of Valid Cases 100 Tabla 23. Coeficiente de Contingencia. En este ejemplo, el valor del coeficiente de contingencia es 0,143 y la probabilidad asociada es igual a 0,148. Este valor de probabilidad es superior a 0,05 y, por tanto, la relación entre las variables sexo y sociabilidad no resulta significativa. 2.4.2 CORRELACIÓN ENTRE UNA VARIABLE CUALITATIVA NOMINAL DICOTÓMICA Y UNA VARIABLE CUANTITATIVA Cuando contamos con una variable cualitativa con dos categorías (dicotómica), por ejemplo, acertar o fallar un ítem, ser fumador o no fumador, superar o no superar una prueba, etc. y se pretende correlacionar con las puntuaciones de una variable cuantitativa. En este caso, la correlación adecuada es la biserial-puntual. Este estadístico de correlación es un caso particular de Pearson que se aplica cuando una de las variables tiene valores de 0 y 1. Sus resultados se interpretan de la misma forma que Pearson. El estadístico puede tomar valores entre -1 y +1 y el cero quiere decir ausencia de correlación. A medida que el valor se acerca a los extremos (-1 o +1) la correlación es más potente y el signo señala la direccionalidad de la correlación.

×