2. Contenido
Medición. ¿Enqué consiste?
Definición de Validez.
Validez de contenido.
Validez de criterio.
Validez de constructo.
Definición de Confiabilidad.
Test - Retest.
Formas paralelas.
Split - Halves.
Coeficiente Alfade Cronbach.
Coeficiente KR-20.
3. Medición
Medición. ¿En qué consiste?
Medir: Es el proceso de vincular conceptos
abstractos con indicadores empíricos.
(Carmines y Zeller, 1991).
La medición consiste en determinar que proporción existe
entre una dimensión de algún objeto y una determinada
unidad de medida.
Su función es establecer una correspondencia entre el mundo
real y el mundo conceptual.
4. Validez
Validez. Definición.
Se refiere al grado en que un instrumento mide
la variable que realmente pretende medir. Por
ejemplo, Una prueba sobre conocimientos de
historia tiene que medir esto y no
conocimientos de literatura histórica.
Un método para medir el rendimiento bursátil
tiene que medir precisamente esto y no la
imagen de una empresa.
6. Validez de Contenido
Es el grado en el que la medición representa al concepto o
variable medida (Bohrnstedt, 1976).
Por ejemplo, una prueba de operaciones aritméticas no tendrá
validez de contenido si incluye solo problemas de resta y
excluye problemas de suma, multiplicación o división.
A B M R U S T
J K L D Ñ Z Q
A B M R U S
J K L D Ñ Z
A
Q
InstrumentoconValidezde Contenido InstrumentosinValidezde Contenido
7. Validez de Criterio
Se establece la validez de un instrumento de medición al
compararlo con algún criterio externo que pretende
medir lo mismo.
8. Validez de Criterio
Ejemplo: Fernando trata de medir el grado en que es
aceptado por Laura y decide tomarla de la mano y observara
su reacción. Si ella no retira la mano, esto indica aceptación.
Para asegurarse que su medición es válida, utiliza otra forma
de medición, mirarla fijamente sin apartar la vista de sus
ojos.
Si Laura sostiene la mirada, sería otro indicador de
aceptación. Así, su medición de aceptación se valida mediante
dos métodos al comparar dos criterios
9. Validez de Constructo
La validez de constructo es probablemente la más importante,
desde la perspectiva científica, se refiere a que tan exitosamente
un instrumento representa y mide un concepto teórico (Bostwick
y Kyte, 2005). A esta validez le concierne en particular el
significado del instrumento, esto es, que esta midiendo y como
opera para medirlo.
10. Validez de Constructo
1
• Se establece y especifica la relación teórica entre los conceptos.
2
• Se correlacionan los conceptos y se analiza cuidadosamente la
correlación.
3
• Se interpreta la evidencia empírica de acuerdo con el nivel en el que
clarifica la validez de constructo de una medición en particular.
Según Carmines y Zeller, 1991: La validez de constructo incluye tres
etapas
11. Validez Total
La validez de un instrumento de medición se evalúa sobre la base
de todos los tipos de evidencia. Cuanto mayor evidencia de
validez de contenido, de validez de criterio y de validez de
constructo tenga un instrumento de medición, este se acercara
más a representar la(s) variable(s) que pretende medir.
=ValidezTotal
Validezde
Contenido
Validez de
Criterio
Validezde
Constructo
+ +
12. Confiabilidad del Instrumento de
Medición
La confiabilidad de un
instrumento de medición se
refiere al grado en que su
aplicación repetida al mismo
sujeto u objeto produce
resultados iguales. Por
ejemplo, si midiéramos la
temperatura del ambiente con
un termómetro, y tras
intentos repetidos, nos diera
el mismo valor o la misma
temperatura, sabríamos que
el termómetro es confiable.
1er.
intento
2do.
intento
3er.
intento
Es confiablehttp://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
13. Confiabilidad del Instrumento de
Medición
Por el contrario, si midiéramos la temperatura de un paciente, y en un
primer intento el termómetro nos indicara que su temperatura corporal
es de 38,5 C°, en un segundo intento nos indicara que es de 39,6 C° y en
un tercer intento que es de 36,4 C°, podríamos deducir que ese
instrumento de medición no es confiable.
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
14. La relación entre confiabilidad y validez
Un instrumento de medición puede ser confiable, pero no
necesariamente válido (un aparato, por ejemplo, quizá sea
consistente en los resultados que produce, pero no mida 10 que
pretende).
Por ello es requisito que el instrumento de medición demuestre ser
confiable y valido. De no ser así, los resultados de la investigación no
deben tomarse en serio.
La validez y la confiabilidad No se asumen, se prueban.
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
15. La relación entre confiabilidad y validez
Para ampliar este comentario, recurriremos a una analogía de
Bostwick y Kyte (2005): Supongamos que vamos a probar un arma
con tres tiradores. Cada uno debe realizar cinco disparos, entonces:
EI tirador 1 Sus disparos no impactan en el centro del blanco y se
encuentran diseminados por todo el blanco.
EI tirador 2 Tampoco impacta en el centro del blanco, aunque sus
disparos se encuentran cercanos entre sí, fue consistente, mantuvo
un patrón.
EI tirador 3 Los disparos se encuentran cercanos entre sí e
impactaron en el centro del blanco.
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
16. La relación entre confiabilidad y validez
Sus resultados podrían
visualizarse como en la
figura, en la cual se vinculan
la confiabilidad
y la validez.
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
17. En este procedimiento un mismo instrumento de
medición se aplica dos 0 mas veces a un mismo grupo
de personas, después de cierto periodo. Si la
correlación entre los resultados de las diferentes
aplicaciones es altamente positiva, el instrumento se
considera confiable. Se trata de una especie de diseño
panel. Desde luego, el periodo entre las mediciones es
un factor a considerar. Si el periodo es largo y la
variable susceptible de cambios, ella suele confundir la
interpretación del coeficiente de confiabilidad
obtenido por este procedimiento. Y si el periodo es
corto las personas pueden recordar como
respondieron en la primera aplicación del
instrumento, para aparecer como mas consistentes de
l0 que en realidad son (Bohmstedt, 1976). Algo así
como la "administración de pruebas" en los
experimentos.
Medida de Estabilidad
(Confiabilidad por Test – retest)
1ra.
aplicación
2da.
aplicación
Después de un
período
Correlación
altamente
positiva, entonces
es confiable
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
18. En este procedimiento no se administra el
mismo instrumento de medición, sino dos 0 mas
versiones equivalentes de este. Las versiones son
similares en contenido, instrucciones, duración
y otras características. Las versiones (casi
siempre dos) se administran a un mismo grupo
de personas simultáneamente 0 dentro de un
periodo relativamente corto. EI instrumento es
confiable si la correlación entre los resultados de
ambas administraciones es positiva de manera
significativa. Los patrones de respuesta deben
variar poco entre las aplicaciones. Una variación
de este método es el de las formas alternas
prueba - posprueba (Creswell, 2005), cuya
diferencia reside en que el tiempo que
transcurre entre la administración de las
versiones es mucho mas largo, que es el caso de
algunos experimentos.
Método de Formas Alternativas o Paralelas
Versión Nº 1
1ra. aplicación
Simultáneamente o
período corto
Correlación
altamente
positiva, entonces
es confiable
Versión Nº 2
2da. aplicación
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
19. Los procedimientos anteriores (medida de estabilidad y método de
formas alternas) requieren cuando menos dos administraciones de la
medición en el mismo grupo de individuos. En cambio, el método de
mitades partidas necesita solo una aplicación de la medición.
Específicamente el conjunto total de items 0 reactivos se divide en
dos mitades equivalentes y se comparan las puntuaciones 0 los
resultados de ambas. Si el instrumento es confiable, las puntuaciones
de las dos mitades deben estar muy correlacionadas. Un individuo
con baja puntuación en una mitad tendera a mostrar también una
baja puntuación en la otra mitad. EI procedimiento se diagrama en
siguiente figura.30
Método de Mitades Partidas (Split-halves)
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
20. Método de Mitades Partidas (Split-halves)
Instrumento de
medición se
aplica a un
grupo
Los ítems se
dividen en dos
mitades (el
instrumento se
divide en dos)
1
2
3
4
5
6
7
8
9
10
2
4
6
8
10
1
3
5
7
9
Cada mitad se
califica
independiente
mente
Resultados
(Puntuaciones)
Resultados
(Puntuaciones)
Se
correlacionan
puntuaciones y
se determina la
confiabilidad
P
P´
C (0 a 1)
Al dividir los ítems estos
se emparejan en
contenido y dificultad
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
21. Estos son coeficientes que estiman la confiabilidad: a) el a/fa de Cronbach
(desarrollado por J.L. Cronbach) y b) los coeficientes KR-20 y KR-2l de Kuder y
Richardson (1937). EI método de cálculo en ambos casos requiere una sola
administración del instrumento de medición. Su ventaja reside en que no es necesario
dividir en dos mitades a los items del instrumento, simplemente se aplica la medición
y se calcula el coeficiente.
Medidas de Consistencia interna (Cronbach y
coeficiente KR-20)
Una sola
aplicación
Se calcula el
coeficiente
http://competenciashg.files.wordpress.com/2012/10/sampieri-et-al-metodologia-de-la-investigacion-4ta-edicion-sampieri-2006_ocr.pdf
22. El método de consistencia interna basado en el alfa de Cronbach permite
estimar la confiabilidad de un instrumento de medida a través de un
conjunto de ítems que se espera que midan el mismo constructo o
dimensión teórica.
La medida de la confiabilidad mediante el alfa de Cronbach asume que los
ítems (medidos en escala tipo Likert) miden un mismo constructo y que
están altamente correlacionados (Welch & Comer, 1988). Cuanto más cerca
se encuentre el valor del alfa a 1 mayor es la consistencia interna de los ítems
analizados. La fiabilidad de la escala debe obtenerse siempre con los datos
de cada muestra para garantizar la medida fiable del constructo en la
muestra concreta de investigación.
Alfa de Cronbach
http://www.uv.es/~friasnav/AlfaCronbach.pdf
23. Como criterio general, George y Mallery (2003, p. 231) sugieren las
recomendaciones siguientes para evaluar los coeficientes de alfa de
Cronbach:
-Coeficiente alfa >.9 es excelente
- Coeficiente alfa >.8 es bueno
-Coeficiente alfa >.7 es aceptable
- Coeficiente alfa >.6 es cuestionable
- Coeficiente alfa >.5 es pobre
- Coeficiente alfa <.5 es inaceptable
Alfa de Cronbach
http://www.uv.es/~friasnav/AlfaCronbach.pdf
24. Existen disponibles un par de fórmulas para calcular la consistencia interna de
una escala con patrón de respuesta politómica:
Alfa de Cronbach = k r/ 1+r (k-1)
k, número de ítemes
r = Σr / nr
r, correlación de Pearson
nr = k (k - 1) / 2
Una segunda fórmula disponible basa el cálculo del coeficiente en la varianza
de los ítemes y la varianza de la puntuación total. Esta fórmula es:
Alfa de Cronbach = k / k - 1 [1- Σσi2 /σT2]
k, número de ítemes
σi, varianza del ítem
σT, varianza total de la escala24
Cómo calcular la consistencia interna con el
coeficiente de Alfa de Cronbach
http://www.scielosp.org/pdf/rsap/v10n5/v10n5a15.pdf
25. El método KR -20
El Método KR20 representa un coeficiente de consistencia interna del
instrumento, que proporciona la media de todos los coeficientes de
división por mitades para todas las posibles divisiones del instrumento en
dos partes (Magnusson, 1995).
La fórmula KR-20 tan solo es una variante de alfa especialmente
orientada a items dicotómicamente valorados (específicamente, valorados
con los valores 0 y 1). (Bolívar, 1997). Permite calcular la confiabilidad con
una sola aplicación del instrumento. No requiere el diseño de pruebas
paralelas. Es aplicable sólo en instrumentos con ítems dicotómicos, en los
cuales sólo existen respuestas correctas e incorrectas.
usmticseducacion-e20.wikispaces.com/file/view/KR20.pptx
26. Fórmula del método KR -20
Se representa de la siguiente manera:
La fórmula KR-20 tan solo es una variante de alfa especialmente
orientada a items dicotómicamente valorados. Una vez obtenido p
(=A/N) y q (=1- p) para cada ítem, se procede a obtener la varianza de
cada ítem como producto de p por q. También necesitamos la varianza
del total y la suma de la varianza de los items para aplicar finalmente la
fórmula KR20. usmticseducacion-e20.wikispaces.com/file/view/KR20.pptx