Construccion de puebas que es la confiabilidad

1,186 views
1,030 views

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,186
On SlideShare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
43
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Construccion de puebas que es la confiabilidad

  1. 1. CONFIABILIDADClaudia Pisconti BravoLaura Villanueva Cabrera
  2. 2. Es el grado de consistencia que posee el instrumento de medición La confiabilidad más que ser una característica de la prueba es una propiedad de las puntuaciones obtenidas cuando se administra a un grupo particular de personas en una ocasión particular y bajo condiciones especificas.
  3. 3. La falta de confiabilidad es el resultado de errores de medición producidospor estados internos temporalesMientras más reactivos tenga el instrumento, mayor debe ser la confiabilidadde este.
  4. 4. 1.- CONFIABILIDAD A TRAVÉS DEL TIEMPO. • Se utiliza en un grupo, donde se le va a administrar el instrumento en dos tiempos diferentes. • Mientras más tiempo pase entre la primera y la segunda administración, menor puede ser el coeficiente de confiabilidad. • Los intervalos de tiempo pueden generar problemas de mortalidad, efectos de aprendizaje o memoria y maduración.
  5. 5. 2.- COEFICIENTE TEST-RETEST. • Se calcula un coeficiente test-retest para determinar si un instrumento mide de manera consistente de una ocasión a otra. • Se le administra el instrumento a un grupo de personas, se deja pasar un tiempo y luego se administra el mismo instrumento al mismo grupo. • la magnitud de un coeficiente de confiabilidad test-retest tiende a ser mayor cuando el intervalo entre la prueba inicial y el retest es corto (unos cuantos días o semanas) que cuando es largo (meses o años).
  6. 6. 3.- COEFICIENTE DE FORMAS PARALELAS O COEFICIENTE DE EQUIVALENCIASCuando el intervalo entre la prueba inicial y el retest es corto, losexaminados recuerdan, por lo general, muchas de las preguntas yrespuestas de la prueba inicial. esto afecta sus respuestas en la segunda aplicación Lo que parece necesitarse para superar esta fuente de error es una forma paralela del instrumento, esto es, una que conste de reactivos similares pero no de los mismos reactivos.
  7. 7. 4.- CONSISTENCIA INTERNADetermina el grado de interrelación que existe entre los reactivos de un instrumento.No refleja los errores de medición causados por diferentes condiciones o momentosde aplicación.No es considerada verdadero equivalente del método de coeficiente test-re test o deformas paralelas. Incluye el método de división por mitades de Spearman, las fórmulas de Kuder Richardson y el coeficiente alfa de Cronbach.
  8. 8. SPEARMAN BROWNPuede dividirse la prueba en dos mitades colocando los reactivos impares a un ladoy los pares al otro. A continuación, se deben correlacionar los resultados de ambasmitades, las cuales deben contar con medias y varianzas iguales.R= kr ´ r’ = la confiabilidad de la escala inicial, 1+(k-1) k = es el tamaño de la nueva escala con respecto a la escala inicial R = la confiabilidad de la nueva escala.Ejm: Si la confiabilidad del test de treinta items es 0.85, la confiabilidadestimada del nuevo test será: R= (2/3) (0.85) = 79 1+ (2/3 – 1) (0.85)En que k = 20/30 = 2/3. El nuevo test tendrá una confiabilidad de 0.79.
  9. 9. KUDER RICHARDSON El numerador, o varianza verdadera, lo expresamos a través de la suma de las covarianzas de los ítems. La covarianza es lo mismo que la correlación; r 1 1 = σ 2v σ 21La varianza verdadera la definimos operativamente como la suma de las covarianzasde los ítems. La covarianza entre dos ítems expresa lo que dos ítems discriminan porestar relacionados, esto es lo que denominamos en estas fórmulas varianzaverdadera, por lo tanto la fórmula podemos expresarla poniendo en el numerador lasuma de las covarianzas entre los ítems: r11 = Σr xy σx σy σ21
  10. 10.  COEFICIENTE ALFA DE CRONBACH La fiabilidad expresa por lo tanto cuánto hay de diferencias en los totales debidas a respuestas coherentes . Establece una relación entre reactivos y la puntuación total del instrumento.  CONFIABILIDAD ENTRE EVALUADORES  Al evaluar las calificaciones que implican el juicio subjetivo del calificador, es importante conocer el grado en que diferentes calificadores están de acuerdo en las calificaciones y otros valores numéricos dados a las respuestas de diferentes examinados y reactivos.  El enfoque más común para determinar la confiabilidad entre evaluadores es hacer que dos personas califiquen las respuestas de un número considerable de examinados y calcular luego la correlación entre los dos conjuntos de calificaciones.
  11. 11.  Cuando construimos y probamos un instrumento de medición psicológica o educacional nos interesa que su fiabilidad no sea baja y conviene tener a la vista qué podemos hacer para obtener coeficientes altos.
  12. 12. EN GENERAL LOS COEFICIENTES DE FIABILIDAD TIENDEN A AUMENTAR… 1. Cuando la muestra es heterogénea Es más fácil clasificar a los sujetos cuando son muy distintos entre sí. Con muestras de sujetos muy parecidos en el rasgo que queremos medir, todos responderán de manera parecida, y las varianzas de los ítems y sus intercorrelaciones serán pequeñas.
  13. 13. 2. Cuando la muestra es grande Porque en muestras grandes es más probable que haya sujetos muy distintos (es la heterogeneidad de la muestra, y no el número de sujetos, lo que incide directamente en la fiabilidad); aunque también podemos obtener un coeficiente alto en muestras pequeñas si los sujetos son muy diferentes en aquello que es común a todos los ítems y que pretendemos medir.
  14. 14. 3. Cuando las respuestas a los ítems son más de dos Cuando el número de respuestas supera la capacidad de discriminación de los sujetos, la fiabilidad baja porque las respuestas son más inconsistentes; en torno a 6 ó 7, e incluso menos, suele situarse el número óptimo de respuestas. Lo más claro experimentalmente es que la fiabilidad sube al pasar de dos respuestas a tres.
  15. 15. 4. Cuando los ítems son muchos (más oportunidad de que los sujetos queden más diferenciados en la puntuación total) aunque un número de ítems grande puede dar una idea equívoca de la homogeneidad del instrumento como indicaremos más adelante (muchos ítems poco relacionados entre sí pueden tener una fiabilidad alta sin que quede muy claro qué se está midiendo).
  16. 16. 5. Cuando la formulación de los ítems es muy semejante, muy repetitiva (Si hay diferencias entre los sujetos, aparecerán en todos los ítems y subirán sus intercorrelaciones) aunque ésta no es una característica necesariamente deseable en un instrumento (que mediría un constructo definido con límites muy estrechos). En general los constructos o rasgos definidos con un nivel alto de complejidad requerirán ítems más diversificados y la fiabilidad tenderá a ser menor.
  17. 17.  1º Nos confirman en principio que todos los ítems miden lo mismo, y de hecho estos coeficientes se utilizan como un control de calidad, aunque esta interpretación es discutible y habrá que entenderla y relativizarla . 2º Los coeficientes de fiabilidad permiten calcular el error típico de las puntuaciones individuales; este error típico puede incluso ser de un interés mayor que el coeficiente de fiabilidad porque tiene aplicaciones prácticas como veremos en su lugar. 3º Los coeficientes de fiabilidad obtenidos nos permiten estimar los coeficientes de correlación que hubiéramos obtenido entre dos variables si su fiabilidad fuera perfecta.

×