Pruebas no paramétricas en SPSS

4,958 views

Published on

Published in: Education
0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
4,958
On SlideShare
0
From Embeds
0
Number of Embeds
183
Actions
Shares
0
Downloads
53
Comments
0
Likes
2
Embeds 0
No embeds

No notes for slide

Pruebas no paramétricas en SPSS

  1. 1. PRUEBAS NO PARAMÉTRICAS1. PRUEBAS DE NORMALIDAD Para evaluar la normalidad de un conjunto de datos tenemos el Test de Kolmogorov- Smirnov y el test de Shapiro-Wilks La opción NNPLOT del SPSS permite la evaluación del ajuste de una variable continua a una curva normal, tanto de forma gráfica como analítica. Las pruebas analíticas de que dispone esta opción son: Kolmogorov-Smirnov con la modificación de Lillierfors y la prueba de Shapiro-Wilks. Esta última la realiza el SPSS si el tamaño muestral es inferior a 50, es decir, da por defecto las dos pruebas; mientras que si el nº de individuos es superior a 50, sólo da como resultado la de Kolmogorov-Smirnov. 1.1 La prueba de Kolmogorov-Smirnov con la modificación de Lillierfors es la más utilizada y se considera uno de los test más potentes para muestra mayores de 30 casos. En este test la Hipótesis nula Ho: es que el conjunto de datos siguen una distribución normal. Y la Hipótesis Alternativa H1: es que no sigue una distribución normal. Este test se basa en evaluar un estadístico: Dn = ⎟Fn (x) – F(x)⎟
  2. 2. Fn (x): es la distribución empírica F (x): s la distribución teórica, que en este caso es la normal Si el valor del estadístico supera un determinado valor, que depende del nivel de significación con el que uno quiera rechazar la hipótesis nula, diremos que esa colección de datos no se distribuye según una distribución normal. Lillierfors tabuló este estadístico para el caso más habitual en el que desconocemos la media y la varianza poblacional y las estimamos a partir de los datos muestrales. El SPSS ya utiliza esta prueba modificada.1.3 La prueba de Shapiro-Wilks se basa en estudiar el ajuste de los datos graficados sobre un gráfico probabilístico en el que cada dato es un punto cuyo valor de abscisa el valor observado de probabilidad para un valor determinado de la variable, y el de ordenada el valor esperado de probabilidad. En este test la Ho y la H1 son iguales que para la prueba anterior. El estadístico W de Shapiro-Wilks mide la fuerza del ajuste con una recta. Cuanto mayor sea este estadístico mayor desacurdo habrá con la recta de normalidad, por lo que
  3. 3. podremos rechazar la hipótesis nula. La prueba de Shapiro-Wilks está considerada como la prueba más potente para muestra inferiores a 30 casos. 1.3 Test de Chi Cuadrado (χ2). Para comparar si un grupo de frecuencias observadas con unas frecuencias esperadas y decidir si existen diferencias. Grados de libertad : K -1 AQUÍ es donde se elige esta opción de χ2; como os dais cuenta es dentro de NO PARAMÉTRICASAQUÍ nos da la opción de decirde dónde toma los datosesperados, es decir, losTEÓRICOS para comparar ladistribución.
  4. 4. El otro gráfico que SPSS denominado DETRENTED normal Plot, se basaen que si los datos sedistribuyen normalmente los puntos deben distribuirse aleatoriamente alrededor del “0”. ¿Qué hacemos si comprobamos que una distribución no sigue una curva normal? Tenemos dos opciones: Podemos intentar tansformar la variable para que se distribuya según una normal Podemos utilizar otra metodología estadística que presupongan poco acerca de la distribución de la población muestreada. Tales métodos se denominan de Distribución Libre o No ParamétricosII CONTRASTE DE POSICIÓN: UNA MUESTRA CONTRASTE DE LOS SIGNOS PARA LA MEDIANA para variables continuas evaluamos las diferencias entre la mediana de la muestra y la poblacional, a través de su signo: +, - ó 0 TEST DE LOS RANGOS CON SIGNO DE WILCOXON similar al test de los signos por aumento o disminución de la mediana según la poblacional; pero teniendo además en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos.III CONTRASTE DE POSICIÓN: DATOS APAREADOS PARA DOS MUESTRASVARIABLES CUALITATIVAS: TEST DE Mc NEMAR: evalúa las variaciones de una variable dicotómica antes y después de algoVARIABLES CUANTITATIVAS CONTRASTE DE LOS SIGNOS PARA LA MEDIANA DE LAS DIFERENCIAS: para variables continuas evaluamos las diferencias de antes y después de algo pero a través de su signo: +, - ó 0 TEST DE LOS RANGOS CON SIGNO DE WILCOXON: DATOS APAREADOS: similar al test de los signos por aumento o disminución de la variable; pero teniendo además en cuenta “la magnitud del cambio”. Por tanto es más potente este test que el test de los signos. Se elige AQUÍ
  5. 5. Con este botón se pasan las parejas elegidas a la otra ventana AQUÍ se eligen los estadísticos descriptivos y de posición de todas las variables elegidasAQUÍ es donde seeligen las parejas AQUÍ se eligen los diferentes test a realizar PARA MÁS DE DOS MUESTRAS (K MUESTRAS) VARIABLES CUANTITATIVAS TEST DE FRIEDMAN: tenemos k variables en columnas y n elementos en filas. Ordenamos cada fila de menor a mayor según las diferentes columnas desde 1 hasta k (esto sería el rango que ocupa cada variable para ese caso). Si no hubiera diferencias entre las variables esperamos que los rangos estén repartidos en cada columna de manera uniforme y solo encontraremos entre ellas pequeñas diferencias debidas al azar. La hipótesis nula es que los rangos sumados para cada columna (cada variable) sean iguales; y la hipótesis alternativa es que al menos uno es diferente. El estadístico sigue una distribución de χ2 con grados de libertad K-1. VARIABLES CUALITATIVAS TEST DE KENDALL O COEFICIENTE DE CONCORDANCIA: este coeficiente mide el grado de concordancia entre un grupo de elementos (K) y un grupo de características (n). La respuesta es ordinal. La hipótesis nula es que no hay concordancia : W=0; y la Hipótesis Alternativa es que si la hay (W > 0). Este estadístico sigue una χ2 con grados de libertad: n- 1 TEST DE COCHRAN: válido para evaluar si la respuesta de un grupo de “n” elementos (filas) ante un conjunto de K características (columnas) es homogénea, siendo la respuesta dicotómica. La hipótesis nula es que las características son iguales a lo largo de los n elementos y la hipótesis alternativa: es que las características no son iguales. El estadístico es “Q” y si este toma un valor superior a un valor crítico, concluimos que la respuesta a las características estudiadas es significativamente distinta. Nos informa si hay acuerdo o no; pero no nos informa sobre la magnitud del mismo. III CONTRASTE DE POSICIÓN: DATOS NO APAREADOS DOS MUESTRAS TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las dos poblaciones son distintas. Esta prueba es adecuada para comparar dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las dos medianas son iguales, la proporción de casos de cada muestra que son mayores o menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al
  6. 6. categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana de B; mientras que la hipótesis alternativa, H1: es que son diferentes. TEST DE MANN-WHITNEY: este prueba es aplicable para comparar 2 variables continuas independientes. Las dos muestras pueden tener dos tamaños diferentes. Es la prueba no paramétrica considerada más potente para comparar 2 variables continuas independientes. La Ho: es que no hay diferencias y la H1: es que si hay diferencias. AQUÍ es donde se elige la prueba NO PARAMÉTRICA para comparación de dos muestras independientesAQUÍ nos da la opción derealizar otros testestadísticos para compararestas dos medianas El test de Kolmogorov-Smirnov lo que está evaluando es si las dos distribuciones son iguales (Ho) El test de rachas de Wald_Wolfowitz, también es un test para comparar dos distribuciones cuantitativas independientes, donde puede detectar diferencias entre dichas distribuciones en relación a la tendencia central, dispersión y oblicuidad El test de los valores extremos de Moses trata de determinar si los valores extremos, mayores y menores, de las dos variables son iguales o distintos. La Ho: es que no hay diferencias entre los valores extremos de dos distribuciones PARA MÁS DE DOS MUESTRAS (K MUESTRAS) TEST DE KRHUSKALL WALLIS: Para la comparación de una misma variable cuantitativa en más de tres grupos. Es la prueba no paramétrica considerada más potente para comparar >2 variables continuas independientes. Es el “similar” al test de ANOVA para un factor.
  7. 7. TEST DE LA MEDIANA la prueba se fundamenta en analizar si las medianas de las más de dos poblaciones son distintas. Esta prueba es adecuada para comparar más de dos variables cuantitativas y los tamaños poblacionales pueden ser distintos. El test se basa en que si las dos medianas son iguales, la proporción de casos de cada muestra que son mayores o menores que la mediana global serán iguales. Pero por el contrario, si ambas medianas son diferentes, la proporción de casos por encima o por debajo de la mediana global serán significativamente diferentes en ambas muestras. Es decir, realiza tablas de contingencia al categorizar la variable continua en dos categorías según el valor de la mediana. Por tanto, la hipótesis nula: Ho es que la Mediana de A = Mediana de B=...= Mediana de n; mientras que la hipótesis alternativa, H1: es que al menos 1 es diferente. AQUÍ se elige esta opción AQUÍ se ponen los rangos de la variable de agrupaciónAQUÍ se elige el test a realizar

×