6 confiabilidad de contenido
Upcoming SlideShare
Loading in...5
×
 

6 confiabilidad de contenido

on

  • 6,714 views

 

Statistics

Views

Total Views
6,714
Views on SlideShare
6,688
Embed Views
26

Actions

Likes
2
Downloads
121
Comments
0

2 Embeds 26

http://www.slideshare.net 25
http://psicologauniversitaria.blogspot.com 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

6 confiabilidad de contenido 6 confiabilidad de contenido Presentation Transcript

  • Confiabilidad de contenido
    Sesión 5
  • Concepto
    La confiabilidad (o consistencia) de un test es la precisión con que el test mide lo que mide, en una población determinada y en las condiciones normales de aplicación.
  • Error en la confiabilidad
    Es cualquier efecto irrelevante para los fines o resultados de la medición que influye sobre la falta de confiabilidad de tal medición.
    Error Constante: (sistemático) se produce cuando las mediciones que se obtienen con una escala son sistemáticamente mayores o menores que lo que realmente deben ser.
  • Error en la confiabilidad
    Error Causal: (al azar o no sistemático) se produce cuando las mediciones que se obtienen con una escala son sistemáticamente mayores o menores que lo que realmente deben ser.
    Este error tiene que ver con la salud, fatiga, motivación, tensión emocional, fluctuaciones de la memoria, condiciones externas de luz, humedad, ventilación, calor, distracción por problemas del momento, familiaridad con la prueba, que presenta el examinado al momento de dar el test.
  • Coeficiente de confiabilidad (rxx)
    Es un coeficiente de correlación entre dos grupos de puntajes e indica el grado en que los individuos mantienen sus posiciones dentro de un grupo. Abarca valores desde 0 a 1. Cuanto más se acerque el coeficiente a 1, más confiable será la prueba.
    El coeficiente de confiabilidad señala la cuantía en que las medidas del test están libres de errores casuales o no sistemáticos.
  • Coeficiente de confiabilidad (rxx)
    Método de las formas equivalentes: Se aplican dos formas equivalentes o paralelas del test al mismo grupo de individuos, y las dos series de puntajes resultantes se correlacionan con el coeficiente producto de los momentos de Pearson (r).
    Método del test-retest: Se aplica dos veces el mismo test (el lapso entre las aplicaciones se determina previamente), a una misma muestra de individuos. Las dos series de puntajes resultantes se correlacionan con el coeficiente de correlación "r" de Pearson.
  • Coeficiente de confiabilidad (rxx)
    Método de la división por mitades emparejadas o "splithalfmethod": Se aplica el test una sola vez a una muestra. Luego, se califica por separado los ítemes pares (2, 4, 6, ..., n) y los ítemes impares (1, 3, 5, ..., n). A continuación, las dos series de puntajes resultantes se correlacionan con el coeficiente "r" de Pearson, pero por haberse dividido el test en dos partes (ítemes pares e ítemes impares), el "r" resultante debe ser "corregido" para arrojar el "r” para todo el test.
  • Coeficiente de confiabilidad (rxx)
    Método de la equivalencia racional: En este método se considera que si un test esta formado por un conjunto de ítemesestos pueden ser considerados como un conjunto de tests paralelos (tantos como ítemes tenga el test). Luego se deriva una ecuación para computar el coeficiente de confiabilidad.
  • Nota
    El coeficiente de correlación de Pearson es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
  • Requisitos para una fiabilidad alta
    Tendremos una fiabilidad alta cuando haya diferencias en las respuestas a los ítems, es decir, cuando los ítems discriminan. Si un ítem no esta relacionado con los demás puede ser que no este midiendo lo mismo y que no sea discriminante.
    Cuando las respuestas de los ítems estén relacionadas entre si, entonces habrá consistencia interna. Esto es que los sujetos tienden a puntuar alto en todos o bajo en todos.
    Con respuestas diferentes y además coherentes, los sujetos quedan más diversificados, mejor clasificados por sus puntuaciones totales y esto se refleja en una mayor varianza.
    La fiabilidad viene a expresar la capacidad del instrumento para discriminar, para diferenciar a los sujetos a través de sus respuestas en todos los ítems.
  • Factores que inciden en la magnitud del coeficiente de confiabilidad
    Los coeficientes de fiabilidad tienden a aumentar cuando:
    La muestra es heterogenea: es más fácil clasificar a los sujetos cuando son distintos.
    La muestra es grande: es más probable que haya sujetos muy distintos.
    Las respuestas a los ítems son más de dos: mayor probabilidad de que las respuestas difieran mas, de que se manifiesten las diferencias que de hecho existen.
    Cuando los ítems son muchos: hay más oportunidad de que los sujetos queden más diferenciados en la puntuación total.
    La formulación de los ítems es muy semejante: si hay diferencias entre los sujetos, aparecerán en todos los ítems y subirán sus intercorrelaciones.
  • Interpretación de los coeficientes de consistencia interna
    Expresa la proporción de varianza debida a lo que los ítems tienen de relacionado. Un coeficiente de 0,70 indica el 70% de la varianza se debe a lo que los ítems tienen en común, y un 30% se debe a errores de medición.
    Son indicadores de homogeneidad de los ítems, de que todos midan lo mismo. La homogeneidad conceptual se interpreta como descriptor del rasgo que suponemos presente en todos los ítems.
    Son una estimación del coeficiente de correlación que podemos esperar con un test similar, con el mismo número y tipo de ítems. De un universo de posibles ítems hemos escogido una muestra de ítems. Si la fiabilidad es alta, con otra muestra de ítems de la misma población de ítems obtendríamos unos resultados semejantes.
  • Interpretación de los coeficientes de consistencia interna
    La fiabilidad nos dice si un test discrimina adecuadamente, si clasifica bien a los sujetos, si detecta bien las diferencias en aquello que es común a todos lo ítems.
    La raíz cuadrada de un coeficiente de fiabilidad equivale al coeficiente de correlación entre las puntuaciones obtenidas y las puntuaciones verdaderas, a estos e le llama índice de precisión.
    Una fiabilidad de 0,75 indicaría una correlación de 0,86=Ö0,75. Este índice expresa el valor máximo que puede alcanzar el coeficiente de fiabilidad.
  • Utilidad de los Coeficientes de Fiabilidad
    En principio confirman que todos los ítems miden lo mismo y se utilizan como un control de calidad.
    Permiten calcular el error típico de las puntuaciones individuales, es decir, entre que valores se encontrará nuestra puntuación verdadera, entendiendo por ello la que tendríamos si pasásemos varios test.
    Permiten estimar los coeficientes de correlación que hubiéramos obtenido entre dos variables si su fiabilidad fuera perfecta (se denominan corregidos por atenuación).
    Los coeficientes no dependen exclusivamente de la redacción de los ítems, de la complejidad o simplicidad de la definición del rasgo que queremos medir y además influyen en la fiabilidad características de la muestra.