Confiabilidad y Validez

2,842 views

Published on

confiabilidad y validez

Published in: Education
1 Comment
4 Likes
Statistics
Notes
  • Buen trabajo, bien definido.Exitos
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
No Downloads
Views
Total views
2,842
On SlideShare
0
From Embeds
0
Number of Embeds
3
Actions
Shares
0
Downloads
98
Comments
1
Likes
4
Embeds 0
No embeds

No notes for slide

Confiabilidad y Validez

  1. 1. Integrantes: Francisco Durán Omar Raldíriz
  2. 2. Toda medición o instrumento de recolección de los datos debe reunir dos requisitos esenciales: validez y confiabilidad. La validez, en términos generales, se refiere al grado en que un instrumento realmente mide la variable que pretende medir. La confiabilidad de un instrumento de medición se refiere al grado en que su aplicación repetida al mismo sujeto u objeto, produce iguales resultados. Una medición es “válida” si mide lo que en realidad trata de medir. Por ejemplo, una prueba de matemática no es válida para medir el rendimiento de alfabetización de los estudiantes. Tampoco sería válida una prueba culturalmente sesgada. Una medición es “confiable” si podemos esperar en forma razonable que los resultados de dicha medición sean sistemáticamente precisos. Esto requiere que el instrumento usado para realizar la medición (como por ejemplo una prueba o examen a estudiantes) sea confiable.
  3. 3. Es una condición necesaria de todo diseño de investigación y significa que, dicho diseño “permite detectar la relación real que pretendemos analizar”, es decir, que sus resultados deben contestar las preguntas formuladas y no otro asunto.
  4. 4. La validez de contenido, se refiere a que los instrumentos de medición estén construidos de tal modo que realmente midan los aspectos que se quiere medir. Una manera de lograrlo es mediante la operacionalización de las variables en el cuadro técnico-metodológico. En el caso de las pruebas de conocimiento, puede construirse el mayor número posible de reactivos para cada variable o asunto a medir y luego elegir mediante un sorteo las preguntas que constituirán la prueba. Además, se aconseja recurrir a una evaluación externa de los instrumentos, mediante su revisión por expertos y advierten que “la validez de contenido está basada, esencialmente y por necesidad, en el discernimiento y debe formularse un juicio independiente en cada situación”.
  5. 5. El criterio queda definido como la medida externa que existe con anterioridad al instrumento en cuestión y que es aceptado por expertos como un índice adecuado o satisfactorio de la característica que el nuevo instrumento pretende medir. Se trata de medir la ejecución futura de un individuo en alguna variable significativa (el criterio). Entre los resultados del instrumento de medición se relacionen más al criterio, la validez del criterio será mayor.
  6. 6. Se refiere a las pruebas que tratan de medir construcciones (combinaciones de conceptos) difíciles de precisar como: inteligencia, motivación, aptitudes, actitudes, autoestima y otras. Para determinar esta validez, se utilizan un método lógico y uno empírico. El primero consiste en preguntarse “si los elementos que mide la prueba son los que integran la construcción”, aunque la respuesta dependerá del sentido que se le ha dado al constructo. Con respecto al método empírico, éste consiste en medir la relación existente entre las puntuaciones de los diferentes elementos componentes del constructo y, si ésta no es positiva, significa que la prueba carece de validez de construcción. También se pueden correlacionar los puntajes relativos a un constructo con los relativos a otro, en cuyo caso, no debe haber relación.
  7. 7. Se puede definir como la estabilidad o consistencia de los resultados obtenidos. Es decir, se refiere al grado en que la aplicación repetida del instrumento, al mismo sujeto u objeto, produce iguales resultados. Se refiere al grado en que su aplicación de un instrumento repetida al mismo sujeto produce iguales resultados” Hernández, Fernández y Bastita (1998) “(p.21) Se refiere a la consistencia de los resultados. En el análisis de la confiabilidad se busca que los resultados de un cuestionario concuerden con los resultados del cuestionario en otra ocasión. Menéndez (2009)Se refiere al grado en que su aplicación repetida al mismo sujeto u objeto produce iguales resultados. Silva (2009)Reproducibilidad Estabilidad y Predictibilidad Seguridad Precisión Consistencia Interna u Homogeneidad
  8. 8. Definición: Se trata de un índice de consistencia interna que toma valores entre 0 y 1 y que sirve para comprobar si el instrumento que se está evaluando recopila información defectuosa y por tanto nos llevaría a conclusiones equivocadas o si se trata de un instrumento fiable que hace mediciones estables y consistentes Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes rasgos, mide la homogeneidad de las preguntas promediando todas las correlaciones entre todos los ítems para ver que, efectivamente, se parecen. Su interpretación será que, cuanto más se acerque el índice al extremo 1, mejor es la fiabilidad, considerando una fiabilidad respetable a partir de 0,80.
  9. 9. Muy baja Baja Regular Aceptable Elevada 0 0% de confiabilidad en la medición (la medición está contaminada de error 1 100% de confiabilidad en la medición (no hay error).
  10. 10. Items I II III Suma de Items Sujetos (1) 3 5 5 13 (2) 5 4 5 14 (3) 4 4 5 13 (4) 4 5 3 12 (5) 1 2 2 5 (6) 4 3 3 10 VARP 1.58 1.14 1.47 ST 2 : 9.14 (Varianza de la Población) S Si 2 : 4.19 Ejemplo Entre más cerca de 1 está α, más alto es el grado de confiabilidad
  11. 11. Definición: Es un indicador de la fidelidad (consistencia interna). Los métodos basados (Rulon, Alfa de Cronbach, Spearman, Brown) en la división en dos porciones (presumiblemente iguales) da desventaja de ser relacionado con las opciones de la partición (véase la mitad igualdad-impar, de la primera y segunda parte, al azar). Kuder y Richardson desarrollaron un procedimiento basado en los resultados obtenidos con cada ítem. De hecho, hay muchas maneras de precisar otra vez los ítems (reactivos) en 2 grupos, que pueden conducir a las estimaciones diferentes de la consistencia interna. Esta es la razón por la cual Kuder y Richardson consideren tantas (n) partes en la prueba de acuerdo a los ítems (n). En los métodos de partición en dos, (conocido también como bisección) supone para cada parte ser equivalente ( las formas paralelas). Para el KR20, la misma lógica se adopta en el nivel de los ítems. Es lo que uno llama unidimensional. El KR20 se aplica en la caja dicotómica de los items
  12. 12. Ejemplo Items I II III IV V sujetos total(1) 1 1 1 1 1 1 5 2 1 1 1 1 1 5 3 0 1 1 1 1 4 4 1 0 1 1 1 4 5 0 1 1 1 1 4 6 1 1 1 1 0 4 7 1 1 1 0 0 3 8 0 0 1 1 1 3 9 0 1 1 0 0 2 vt 0,94 p 0,56 0,78 1 0,78 0,67 q 0,44 0,22 0 0,22 0,33 p*q 0,25 0,17 0 0,17 0,22 0,81 Entre más cerca de 1 está α, más alto es el grado de confiabilidad en este caso el instrumento es poco confiable
  13. 13. Definición: Consiste en que la misma prueba se aplica dos veces para verificar la confiabilidad de la misma. Confiabilidad se refiere al grado en que su aplicación repetida al mismo sujeto u objeto produce resultados iguales. Los valores serán cero (o) a uno (1); el resultado no puede ser negativo. Se refiere a que si el test retest se aplica hoy o dentro de un tiempo, siga siendo válido y fiable, es decir, que se encuentre una relación entre lo que se obtiene hoy y lo que se obtiene más adelante. El investigador debe aplicar el mismo instrumento dos veces al mismo grupo después de cierto periodo; El grupo debe tener características similares a la muestra. Calcular la correlación entre ambas aplicaciones usando el coeficiente de Pearson. El coeficiente de correlación de PEARSON altamente positivo = es un instrumento confiable. FORMULA.
  14. 14. Definición: Requiere que se utilicen dos pruebas o instrumentos paralelos, esto es, que midan lo mismo de forma diferente (por ejemplo, dos tests que con diferentes preguntas midan un determinado rasgo). Después se comparan los dos tests, calculando el coeficiente de correlación de Pearson. Esta correlación será, como hemos visto en el apartado anterior, el coeficiente de fiabilidad. Si la correlación es alta, se considera que hay una buena fiabilidad. Al valor obtenido también se le conoce como coeficiente de equivalencia, en la medida en que supone un indicador del grado de equivalencia entre las dos formas paralelas de un test. La dificultad de este procedimiento radica en conseguir que dos instrumentos sean realmente "paralelos", dada la dificultad que supone realizar dos pruebas que midan exactamente lo mismo, pero con diferentes ítems. No obstante, en condiciones ideales en las que se pueda garantizar el paralelismo de ambas formas, este es el método más recomendable Correlación de Pearson donde d es la defenecía entre X y Y
  15. 15. Definición: El mismo instrumento se divide en dos instrumentos; ósea el instrumento se divide por la mitad o en dos mitades. .Se forma un test con las preguntas pares y otro con las preguntas impares . Requiere solo una aplicación de la medición, el conjunto total de ítems es dividido en dos mitades y se comparan las puntuaciones obtenidas en ambas mediciones con las puntuaciones de ambas mitades fuertemente correlacionadas = instrumento confiable. El instrumento real es el doble de los usados en la prueba, el coeficiente de Pearson se corrige aplicando la fórmula de Spearman Brown.Rttn La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de medición. Cuantos más ítems la confiabilidad aumenta (desde luego, que se refieran a la misma variable)
  16. 16. PROCEDIMIENTO DEL MÉTODO DE LAS MITADES DIVIDIDAS EN ELTRATAMIENTO DE INSTRUMENTO.: MEDIANTE . a) La fórmula de Spearman Brown, b) Flanagan, c) de CronBach Es habitual dividir el test en ítems pares e impares, pero puede dividirse en dos mitades cualesquiera, teniendo ambas el mismo número de ítems. Si emparejamos los ítems según contenido de manera que cada mitad del test conste de ítems muy parecidos, obtendremos una estimación más alta de la fiabilidad. Cuando la mitad de los ítems son positivos y los otros negativos es útil quelas dos mitades estén compuestas una por ítems positivos y otra por los negativos. Una correlación entre los dos subtest en torno a 0,50 o mayor indica suficiente coherencia entre los dos tipos de ítems y no se manifiesta aquí esencia Se parte el test en dos mitades, y para decir que son formas paralelas tienen que tener: a) la misma media, b) la misma varianza. Y si se correlacionan dará la fiabilidad de una parte o de otra (son la misma) y con el coeficiente de Spearman - Brown hallamos la fiabilidad del conjunto. R12 = correlación entre las dos mitades del test Esta fórmula calcula la fiabilidad de todo el test. Supone que las dos mitades tienen medias y varianzas idénticas, por lo que sobre estima la fiabilidad
  17. 17. ESQUEMA DEL PROCEDIMIENTO DE MITADES PARTIDAS 1 2 3 4 5 6 7 8 9 10 1 3 5 7 9 2 4 6 8 10 Resultados (Puntuaciones) Resultados (Puntuaciones) P P1 C(0,1) El instrumento de medición los ítems se dividen en dos mitades. Cada mitad se correlaciona Se aplica a un grupo El instrumento se divide en dos mitades El instrumento se divide en dos mitades Determina la confiabilidad Al dividir los ítems, estos se emparejan en contenido y dificultad

×