Validez y Confiabilidad

911 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
911
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
18
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Validez y Confiabilidad

  1. 1. República Bolivariana de Venezuela Universidad Yacambú Vicerrectorado de Investigación y Postgrado Instituto de Investigación y Postgrado Maestría de Finanzas y Negocios Maracay, Marzo de 2014 Materia: Investigación Cuantitativa Prof: Leonardo Castillo Participante: Lcda. Johana Santana Lcda. Aixa Tovar
  2. 2. 1 2 3 4 5
  3. 3. 6 7 8 9 10 11
  4. 4. Se refiere al juicio sobre el grado en que el instrumento representa la variable objeto de medición, es decir el grado en que representa el universo de la variable objeto de estudio. Ej: una encuesta sobre las fachadas de los hipermercados XYM y acerca de sus instalaciones no sería la más adecuada para investigar la calidad del servicio. Se refiere al juicio que se hace al instrumento en cuanto a la capacidad del mismo para predecir la variable objeto de la medición. Ej: una prueba para determinar la capacidad administrativa de altos ejecutivos podría validarse comparando sus resultados con el futuro desempeño de los ejecutivos medidos.
  5. 5. El Test Retest, es un procedimiento de confiabilidad donde un mismo instrumento de medición (ítems o Indicadores) es aplicado dos o mas veces a un mismo grupo de personas, después de Si la correlación entre los resultados de las diferentes aplicaciones es altamente positiva, el Instrumento se considera confiable , se determina mediante el coeficiente de correlación de Pearson. Hay que tomar muy en cuenta el tiempo de la aplicación entre las prubas porque si es muy largo y las variables son muy suceptibles a cambios, se pueden confundir la interpretacion del coeficiente de confiabilidad. Y si es muy corto las personas pueden recordar las respuestas que dieron en la aplicación anterior
  6. 6. Condiciones para que sean formas paralelas: 1ª Las puntuación empíricas pueden ser diferentes pero las verdaderas son siempre iguales. 2ª La dispersión de los errores o la varianza error debe ser la misma en ambos test. Son dos versiones del mismo test: los ítems son distintos pero se pretende medir lo mismo. Se espera que un sujeto saque en ambos test las mismas puntuaciones verdaderas. La puntuación empírica se divide en la puntuación verdadera y en los errores (modelo lineal de Spearman).
  7. 7. Indicador de equivalencia. Puede ser un indicador de equivalencia entre los dos test: si la correlación es alta, las dos formas del mismo test dan resultados parecidos, es decir, ambas son intercambiables. Si la correlación es baja, miden cosas distintas. Confirmación adicional. Una confirmación adicional para ver que son formas paralelas es comprobar si la correlación media Inter - ítem dentro de cada forma es de magnitud similar y también la correlación de los ítems de una forma con los de la otra versión.
  8. 8. Método de mitades partidas (split-halves). Los procedimientos anteriores (me-dida de estabilidad y método de formas alternas), requieren cuando menos dos administraciones de la medición en el mismo grupo de individuos. En cambio, el método de mitades-partidas requiere sólo una aplicación de la medición. Específicamente, el conjunto total de ítems (o componentes) es dividido en dos mitades y las puntuaciones o resultados de ambas son comparados. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar fuertemente correlacionadas. Un individuo con baja puntuación en una mitad, tenderá a tener también una baja puntuación en la otra mitad.
  9. 9. La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de medición. Cuantos más ítems la confiabilidad aumenta (desde luego, que se refieran a la misma variable). Esto resulta lógico, veámoslo con un ejemplo cotidiano: Si se desea probar qué tan confiable o consistente es la lealtad de un amigo hacia nuestra persona, cuantas más pruebas le pongamos, su confiabilidad será mayor. Claro está que demasiados ítems provocarán cansancio en el respondiente.
  10. 10. Coeficiente alfa de Cronbach. Este coeficiente desarrollado por J. L. Cronbach requiere una sola administración del instrumento de medición y produce valores que oscilan entre O y 1. Su ventaja reside en que no es necesario dividir en dos mitades a los ítems del instrumento de medición, simplemente se aplica la medición y se calcula el coeficiente. El alfa de Cronbach no deja de ser una media ponderada de las correlaciones entre las variables (o ítems) que forman parte de la escala. Puede calcularse de dos formas: a partir de las varianzas (alpha de Cronbach) o de las correlaciones de los ítems (Alpha de Cronbach estandarizado). Hay que advertir que ambas fórmulas son versiones de la misma y que pueden deducirse la una de la otra. El alpha de Cronbach y el alpha de Cronbach estandarizados, coinciden cuando se estandarizan las variables originales (items).
  11. 11. LOGO  Interpretación  El alfa de Cronbach no es un estadístico al uso, por lo que no viene acompañado de ningún p-valor que permita rechazar la hipótesis de fiabilidad en la escala. No obstante, cuanto más se aproxime a su valor máximo, 1, mayor es la fiabilidad de la escala. Además, en determinados contextos y por tácito convenio, se considera que valores del alfa superiores a 0,7 o 0,8 (dependiendo de la fuente) son suficientes para garantizar la fiabilidad de la escala.
  12. 12. LOGO  Coeficiente KR-20. Kuder y Richardson (1937) desarrollaron un coeficiente para estimar la confiabilidad de una medición, su interpretación es la misma que la del coeficiente alfa. El KR20 es un indicador de la fidelidad (consistencia interna). Los métodos basados (Rulon, Alfa de Cronbach, Spearman, Brown) en la división en dos porciones (presumiblemente iguales) da desventaja de ser relacionado con las opciones de la partición (véase la mitad igualdad-impar, de la primera y segunda parte, al azar). Kuder y Richardson desarrollaron un procedimiento basado en los resultados obtenidos con cada ítem. De hecho, hay muchas maneras de precisar otra vez vez los ítems (reactivos) en 2 grupos, que pueden conducir a las estimaciones diferentes de la consistencia interna.
  13. 13. LOGO Esta es la razón por la cual Kuder y Richardson consideren tantas (n) partes en la prueba de acuerdo a los ítems (n). En los métodos de partición en dos, (conocido también como bisección) supone para cada parte ser equivalente ( las formas paralelas). Para el KR20, la misma lógica se adopta en el nivel de los ítems. Es lo que uno llama unidimensional. El KR20 se aplica en la caja dicotómica o binarias de ítems,es decir, puedan codificarse como 1 ó 0 (Correcto – incorrecto, presente – ausente, a favor – en contra, etc.) La fórmula para calcular la confiabilidad de un instrumento de n ítems o KR20será: K=número de ítems del instrumento. p=personas que responden afirmativamente a cada ítem. q=personas que responden negativamente a caca ítem. St2= varianza total del instrumento xi=Puntaje total de cada encuestado.
  14. 14. LOGO

×