• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
AF Master Educacion
 

AF Master Educacion

on

  • 1,984 views

 

Statistics

Views

Total Views
1,984
Views on SlideShare
1,982
Embed Views
2

Actions

Likes
0
Downloads
69
Comments
0

1 Embed 2

http://www.slideshare.net 2

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    AF Master Educacion AF Master Educacion Presentation Transcript

    • ANALISIS MULTIVARIADO OBJETIVO: Reducir grandes conjuntos de datos con la intención de aportar resúmenes razonablemente complejos de la información que resida en ellos Camacho(1995) El AM puede arrojar luz sobre las interrelaciones e interdependencias de las variables y de la importancia relativa de las características implicadas
      • TIPOS DE APLICACIONES DEL A. MULTIVARIADO
      • Reducir la dimensionalidad de un problema (análisis de componentes principales, análisis factorial, escalamiento multidimensional
      • Estudio de la dependencia múltiple de un conjunto de variables (correlación canónica)
      • Clasificar sujetos o grupos preestablecidos (análisis discriminante, regresión logística)
      • Comparar grupos en múltiples variables dependientes (análisis multivariado de la varianza: MANOVA)
      • Ventajas del AM
      • El análisis de cada variable por separado:
      • Produce redundancia si las variables son interdependientes
      • No genera un valor de probabilidad conjunta
      • Las tasas de error Tipo I son mayores
      • Se reduce la replicabilidad del estudio
    • La covarianza de X1 y X2 Covarianza: Promedio de los productos de las desviaciones de las puntuaciones con respecto a la media correspondiente de los n elementos que componen un grupo.
    • La correlación lineal de Pearson entre X1 y X2 Coeficiente de Correlación de Pearson ( r ): Se define como la razón entre la covarianza de dos variables y el productos de sus varianzas
    • EL ANALISIS FACTORIAL COMPONENTES PRINCIPALES ¿Que es la creatividad, el amor, el altruismo y la depresión? A diferencia de las variables color de ojos, estatura y por ejemplo nivel de colesterol, no tienen una escala conocida y por otra parte no son directamente observables. El análisis factorial es una técnica estadística que permite identificar un número relativamente pequeño de componentes o factores que pueden ser utilizados para representar la relación que existe entre el grupo de variables mas numeroso del que surge. La meta del AF es identificar el factor no observable a partir de la relación existente entre sus indicadores observables (las variables)
    • ¿Qué es un Factor? Un grupo de variables (cuestionario) que miden lo mismo o distintos aspectos de un mismo constructo muestran correlaciones entre sí.. Estas correlaciones se agrupan en una matriz de correlaciones o matriz-R La matriz-R puede mostrar subconjuntos de variables que están muy relacionadas entre sí y no lo están o lo están menos con otras variables. Estas agrupaciones de variables (ítems del cuestionario) parecen referirse a dimensiones que nosotros llamamos FACTORES (o variables latentes). Es por esto que cuando analizamos un conjunto de variables, intentamos reducir este gran conjunto a subconjuntos más parsimoniosos.
    • p.e. midamos el constructo popularidad Factor 1 Factor 2 Matriz-R El objetivo es reducir la matriz-R a sus dimensiones latentes mirando qué variables parecen agruparse con cierto sentido. Esto es mirando qué variables correlacionan con otras alto pero no correlacionan con otro/s grupos de variables. En este ejemplo parece que hay dos agrupaciones..   Hablar 1 H. Sociales Intereses Hablar 2 Egoísmo Mentira Hablar 1 (de otros) 1,00           H. Sociales 0,77 1,00         Intereses 0,65 0,88 1,00       Hablar 2 (de uno mismo) 0,07 -0,12 0,05 1,00     Egoísmo -0,13 0,03 -0,10 0,44 1,00   Mentira 0,07 0,01 0,11 0,36 0,28 1,00
    • 1 -1 -1 1 Consideración a otros Sociabilidad Hablar 2 Mentir Egoísmo Hablar 1 Interés H. sociales 0 Los factores son entidades estadísticas que pueden visualizarse espacialmente en un eje de coordenadas. En este ejemplo se agrupan las variables rojas en el eje de sociabilidad y las verdes en el eje de consideración a otros
    • Coeficientes Estructura Idealmente queremos que las variables se agrupen los “más pegadas” a un eje. Esto indicaría que una variable particular está relacionada sólo con ese factor. Y el grupo mide distintos aspectos de la misma dimensión latente. El índice que mide lo “pegada” que está una variable a un factor se denomina “carga factorial” o “ coeficiente estructura ”. Se puede entender como la correlación entre dicha variable y el factor o dimensión latente Los coeficientes estructura varían entre -1 y 1. Si son positivos cuanto mayor el valor en la variable mayor el valor en el factor. Si son negativos cuanto mayor el valor en la variable, menor el valor en el factor.
    • Representación Matemática de un Factor… Carga factorial Sociabilidad = b1 habla1+ b2 H.Sociales+ b3 Interés +b4 Hablar2 +b5 Egoismo + b6 mentir + ε Consideración = b1 habla1+ b2 H.Sociales+ b3 Interés +b4 Hablar2 +b5 Egoismo + b6 mentir + ε
    • X resulta en una combinación lineal de pesos (A) por factores F más un término llamado Unicidad relativo a la parte de X que no esta explicada por los factores extraidos. Cada sujeto i tendrá un valor en la componente o factor F que resulta de multiplicar el peso de la variable X en dicha componente por el valor del sujeto en la variable X tipificada Z
    • A = Matriz de Coeficientes estructura (pesos) o Factor Matrix Las cargas o pesos factoriales pueden organizarse en una matriz en el que cada columna representa un factor o dimensión y las filas representan las variables iniciales. Esta matriz se denota normalmente como Matriz Es necesario recordar que las columnas (factores) en realidad son combinaciones lineales de las variables originales.. 0,87 0,01 0,96 -0,03 0,92 0,04 0,00 0,82 -0,1 0,75 0,09 0,7
    • Matriz estructura vs. Matriz Patrón Definimos la carga factorial como la correlación entre la variable y el factor. Pero también hemos definido un factor como combinación de bs que son, en realidad, coeficientes de regresión. Por tanto ¿Son coeficientes de correlación o coeficientes de regresión? Lo importante es entender que la carga factorial es la contribución de una variable al factor en cuestión. La diferenciación en terminología tiene que ver con algo que veremos más adelante y llamamos rotación. Hay dos tipos Rotación: Ortogonal y Oblicua. Cuando la rotación es ortogonal la carga factorial puede ser vista como una correlación y también como un coeficiente (su valor coincide). Pero si la rotación es Oblicua ya no coinciden hablando entonces de matriz estructura (correlación) y de matriz de patrones (coeficientes de regresión)
    • Descubriendo Factores… La variabilidad de una variable particular puede ser descompuesta en dos. a) varianza común que comparte con otras variables y b) varianza única. Definimos la comunalidad como la proporción de varianza común presente en una variable. En el AF estamos interesados primeramente en conocer el valor de esta comunalidad. Pero no podemos saber dicho valor sin llevar a cabo el AF!!! Por tanto, cuando hacemos un AF asumimos inicialmente la máxima comunalidad (es decir 1) es por eso que inicialmente tenemos tantos factores como variables o componentes.
    • Extrayendo Factores… No todos los factores se retienen en un AF… ¿qué criterio utilizar?. Un criterio es retener factores con los autovalores más grandes.. Los autovalores son el porcentaje de varianza que explica los factores (componentes) retenidos de las variables originales… Queremos explicar la máxima varianza con el mínimo de componentes. Por eso existen reglas analíticas (como la anterior) o gráficas que permiten retener cierto número de componentes. La regla analítica utilizada es la de Kaiser “retener los factores o componentes que tienen un autovalor o valor propio mayor que 1” Dado que la varianza a explicar por los componentes es igual al número de variables, hay tantos componentes como variables, por puro azar cada componente le corresponde valor 1.
    • El método gráfico es graficar los autovalores (eje Y) frente a los factores (eye X) Se retienen dos factores: salto brusco y autovalores > 1. Con N> 200 este gráfico es bastante fiable…
    • Mejorando la interpretación: rotación factorial.. Una vez obtenidos los coeficientes estructuras estos deben rotarse para conseguir que las variables pesen mucho en un factor y poco o nada en otro. Normalmente los coeficientes bipolares (correlaciones altas positivas con un factor y negativas con otro factor) provocan la necesidad de rotaciones. ¿Qué es una rotación? Factor 1 Ortogonal Oblicua Factor 2 Factor 1 90 0 Factor 2
    • ¿Qué método de rotación utilizar?.. Rotación Ortogonal : Varimax.. Maximizar la varianza dentro de los factores.. Provocando que las variables tengan altos coeficientes estructura en un factor y próximos a cero en otros… Quartimax.. Hace lo mismo que la varimax pero para las variables no los factores o componentes.. Equamax.. Una mezcla entre las dos anteriores.. Rotación Oblicua : Oblimin… es como llevar a cabo una varimax y una quatrimax.. Lo que hace que ya los factores no sean ortogonales… La rotación depende de la teoría detrás de la investigación. Si el investigador sospecha que los factores son independientes, entonces una rotación varimax es lo mejor… si por el contrario la sospecha es que los factores iniciales sólo son de primer orden y hay relación entre los factores entonces una rotación oblimin es lo mejor
    • Interpretación de los componentes o factores… Utilizaremos las cargas factoriales o coeficientes estructura para retener una variable y adjudicarla a un factor… Normalmente con valores absolutos mayores de .30 se retiene una variable en un factor… Es deseable que no obtenga valores mayores de .30 en más de un factor.. Sólo en contados casos y bajo argumentos teóricos tiene sentido mantener una variable en varios factores o componentes..
      • Reglas a seguir: Stevens (1992)
      • Muestras de 50 cargas de .722 se consideran significativas
      • Muestras de 10o cargas de .512 se consideran significativas
      • Muestras de 200 cargas de .364 se consideran significativas
      • Etc..
    • Ejemplo… Se construyó un cuestionario para predecir la ansiedad que genera el aprendizaje del SPSS… queremos saber si la ansiedad relativa al SPSS se puede descomponer en formas específicas de ansiedad.. ¿Qué variables latentes contribuyen a la ansiedad relativa al SPSS? Una regla antes de empezar… como medida de fiabilidad del AF es bueno contar con al menos entre 10-15 sujetos por variable. Abrimos el archivo SAQ.sav…
    • SAQ.sav
    •  
    •  
    • Valores próximos a 1 indican que el AF es pertinente…. La prueba de Barlet debe llevarnos al rechazo de la Hipótesis nula de que la matriz de correlaciones es una matriz identidad (unos en la diagonal principal y ceros fuera de la diagonal principal)
    • Extracción de Factores Primer componente explica un 31,696 de varianza con un autovalor de 7,290 Factores retenidos Factores retenidos después de la rotación
    • Tabla de Comunalidades iniciales y después de la extracción… Recordar que es el porcentaje de varianza que los factores retenidos explican de cada variable.. O que el 43,5% de la varianza del ítem 1 es común a los factores retenidos…
    • Matriz de componentes (no están todos por falta de espacio) Coeficientes estructura… correlación entre la variable y el factor retenido… o la carga de cada variable en cada factor..
    •  
    • El grado en el que cada factor fue rotado para obtener una solución.. Si no hubiera habido rotación esta matriz sería una identidad (unos y ceros).. Si es una rotación ortogonal se espera una matriz simétrica… aunque esa matriz parece indicar que necesitamos una rotación oblicua… normalmente para analisis inexpertos es mejor solo observarla…. Cargas después de la rotación… es la solución final a la que llegamos… es necesario observarla bien, ya que a partir de ella podremos etiquetar los factores sabiendo qué items contempla cada uno….
    • ¿Realmente nuestra escala mide lo que dice medir? Análisis de Fiabilidad… El índice más utilizado es el Alfa de Cronbach que está basado en la correlación promedio de los ítems en un test, si éstos están estandarizados. Si no utiliza las covarianzas entre los ítems..
    • Interpretando el alfa de Cronbach… Normalmente se aceptan valores entre 0,7 y 0,8. Kline (1999) propone 0,8 para variables cognitivas en el caso de constructos de pesonalidad 0,7 sería lo aceptable incluso por debajo… Cortina (1993) propone ser cautos.. Alfa depende del número de ítems de la escala (ver la ecuación).. Por tanto es posible encontrar un alfa alto no por la fiabilidad sino por el número de ítems.. Cuando una escala tiene subescalas el alfa debería calcularse para cada una no para el total…
    • Un ejemplo del cálculo del Alfa de Cronbach.. Correlación entre cada ítem y la puntuación total en el cuestionario. Es esperable que en toda escala todos los items deberían correlacionar con el total Alfa de la escala si el ítem se elimina.
      • Tips:
      • La Fiabilidad es en realidad la consistencia de una medida.
      • Se puede utilizar para medir la consistencia de un cuestionario.
      • Hay que tener cuidado con los ítems reversibles.
      • Hay que correr distintos análisis de fiabilidad para cada subescala.
      • Valores alrededor de 0,8 son satisfactorios
      • Revisar la columna “alfa si el ítem se borra” nos ayuda a mejorar el índice de fiabilidad.
      • Una vez que quitamos el ítems, si lo quitamos, hay que correr de nuevo el AF en el caso de haberlo llevado a cabo antes del análisis de la fibilidad.
    • ¿6 variables observables y 2 factores?
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •  
    •