2. Análisis de datos
cuantitativos
Se realizan mediante programas
computacionales y tomando en cuenta
los niveles de medición de las variables y
mediante la estadística.
DescriptivaInferencial
Análisis paramétrico
Análisis multivariados
Análisis no paramétrico
3. Objetivos del capítulo
Al terminar este capítulo, el alumno será
capaz de:
Revisar el proceso para analizar los datos cuantitativos.
Reforzar los conocimientos estadísticos fundamentales.
Comprender las principales pruebas o métodos
estadísticos desarrollados, así como sus aplicaciones y la
forma de interpretar sus resultados.
Analizar la interrelación entre distintas pruebas
estadísticas.
Diferenciar la estadística descriptiva y la inferencial, la
paramétrica y la no paramétrica.
3
4. ¿Qué procedimiento se sigue para
analizar cuantitativamente los datos?
Una vez que los datos se han codificado, transferido
a una matriz, guardado en un archivo y “limpiado”
de errores, el investigador procede a analizarlos.
El análisis cuantitativo de los datos se lleva a cabo
por computadora u ordenador.
4
5. Proceso para efectuar análisis
estadístico
5
FASE 1
Seleccionar un
programa estadístico
en computadora
FASE 2
Ejecutar el programa
FASE 3
Explorar y describir
los datos por variable
(Análisis descriptivo)
FASE 4
Evaluar la
confiabilidad y
validez
FASE 5
Analizar las hipótesis
(análisis estadístico
inferencial)
FASE 6
Realizar análisis
adicionales
FASE 7
Preparar los
resultados para
presentarlos
6. Selección del programa de análisis I
Existen actualmente varios programas que son
apropiados para el análisis, entre ellos:
Statistical Package for the Social Sciences SPSS®
[Paquete Estadístico para las Ciencias Sociales],
SPSS/PASW o IBM SPSS.
Minitab®.
STATISTICA®.
Statistical Analysis System (SAS) ®.
6
7. Selección del programa de análisis II
En la mayoría de los programas se trabaja con
la matriz de datos para efectuar los análisis, mediante
diversos comandos.
7
8. Selección del programa de análisis III
Los comandos se ejecutan en las funciones o
ventanas respectivas.
Recordemos que antes ya habíamos definido las
variables.
8
9. Revisar la base o matriz de los datos
Se revisa una vez más la base de datos para ver que no
existan errores de codificación (ítem por ítem, indicador
por indicador, cada recuadro implica un valor de un caso
en un ítem, indicador o equivalente).
9
Variables (columnas)
Filas
(casos)
10. Acciones para revisar la base o
matriz de datos I
Solicitar y evaluar las distribuciones de
frecuencias.
Explorar la matriz.
Generar tablas de contingencia.
Generar razones.
10
Lo anterior de acuerdo con las definiciones operacionales y la
forma como se desarrolló el instrumento o instrumentos de
medición
11. Acciones para revisar la base o
matriz de datos II
Indicar al programa cómo se deben agrupar los ítems
o indicadores en las variables del estudio.
11
12. Un primer apunte o acotación
Recordemos que las variables de la matriz
son diferentes de las variables de la investigación.
12
Variables (columnas)
13. Un segundo apunte o acotación
Los análisis de los datos dependen de tres factores:
a) El nivel de medición de las variables.
b) La manera como se hayan formulado las hipótesis.
c) El interés del investigador.
13
15. Estadística descriptiva para cada
variable II
Regularmente la distribución de frecuencias incluye:
• Categorías (valores de la variable).
• Códigos (valores).
• Frecuencias absolutas.
• Frecuencias relativas (porcentajes).
• Frecuencias relativas válidas (porcentajes válidos,
excluyendo los valores perdidos).
• Frecuencias acumuladas (porcentajes acumulados).
15
16. La distribución de frecuencias se
pueden graficar para darle un
mayor valor ilustrativo
16
Colombiana
Alemana
Mexicana
Rusa
Chilena
Argentina
Ninguna
17. Polígonos de frecuencias
Otra alternativa para graficar distribuciones.
17
Número de veces que ha tenido que acudir la
ciudadanía para realizar su trámite en la Alcaldía
18. Medidas de tendencia central
Media.
Mediana.
Moda.
18
Número de imagen: 3066787
19. Principales medidas de variabilidad
Rango.
Desviación estándar o típica.
Varianza.
Máximo y mínimo.
Asimetría y curtosis.
19
20. Razones y tasas
• Una razón es la relación entre dos categorías.
• Una tasa es la relación entre el número de casos,
frecuencias o eventos de una categoría y el número
total de observaciones, multiplicada por un múltiplo
de 10, generalmente 100 o 1 000.
20
21. Determinación de la confiabilidad o
fiabilidad I
1. Medida de estabilidad (confiabilidad por test-retest).
2. Método de formas alternativas o paralelas.
21
Resultados de la
prueba A
Momento 1
Resultados de la
prueba A
Momento 2
Coeficiente de
correlación
Resultados de la
prueba
A1
Resultados de la
prueba
A2
Coeficiente de
correlación
22. Determinación de la confiabilidad o
fiabilidad II
3. Método de mitades partidas (split-halves).
4. Medidas de coherencia o consistencia interna: Alfa de
Cronbach los coeficientes KR-20 y KR-21 de Kuder y
Richardson.
22
Resultados de la
mitad de la
prueba A
Resultados de la otra
mitad
de la prueba A
Coeficiente de
correlación
23. Medidas de coherencia o consistencia
interna
23
0 1
Nula
confiabilidad
Confiabilidad
perfecta
Mediana
confiabilidad
25. Validez de constructo
Análisis de factores.
Correlaciones entre dimensiones.
25
Número de componente
Eigenvalue
1
2
3
1 2 3 4 5 6
4
26. Estadística inferencial: de la muestra
a la población
Se utiliza para probar hipótesis y estimar parámetros.
26
Recolección
de
los datos en la
muestra
Cálculo de
estadígrafos
Inferencia de
los
parámetros
de la
población
27. ¿En qué consiste la prueba de
hipótesis?
En determinar si la hipótesis poblacional es
congruente con los datos obtenidos en la muestra.
27
• Es un conjunto de valores sobre una estadística
calculada de todas las muestras posibles de
determinado tamaño de una población.
¿Qué es una distribución muestral?
28. Teorema central del límite
28
Si una población (no necesariamente normal) tiene de
media m y de desviación estándar s, la distribución de
las medias en el muestreo aleatorio realizado en esta
población tiende, al aumentar n, a una distribución
normal de media m y desviación estándar s/ n, donde
n es el tamaño de muestra.
29. ¿Qué es el nivel de significancia?
Es un nivel de la probabilidad de equivocarse y que
fija de manera a priori el investigador.
29
.05
.01
.0001
.0000
31. ¿Qué errores se pueden cometer
al probar hipótesis?
1. Aceptar una hipótesis verdadera (decisión correcta).
2. Rechazar una hipótesis falsa (decisión correcta).
3. Aceptar una hipótesis falsa (conocido como error
del Tipo II o error beta).
4. Rechazar una hipótesis verdadera (conocido como
error del Tipo I o error alfa).
31
32. Prueba de hipótesis
Análisis paramétricos.
Análisis no paramétricos.
32
Coefficientsa
-3.3E-016 .000 .000 1.000
.421 .000 .568 3E+008 .000 .941 1.000 .334
.084 .000 .085 8E+007 .000 -.021 1.000 .081
.179 .000 .237 1E+008 .000 .897 1.000 .126
.316 .000 .298 2E+008 .000 .857 1.000 .190
(Constant)
RelacionesHumanas
ProcesoInterno
Sistemas
Metas
Model
1
B Std. Error
Unstandardized
Coeff icients
Beta
Standardized
Coeff icients
t Sig. Zero-order Partial Part
Correlations
Dependent Variable: ClimaTotala.
B = número de Zis mayor que
33. Análisis paramétricos (premisas)
Para realizar análisis paramétricos debe partirse
de los siguientes supuestos:
1. La distribución poblacional de la variable
dependiente es normal.
2. El nivel de medición de las variables es por
intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas,
tienen una varianza homogénea.
33
34. Principales métodos o pruebas
paramétricas
Coeficiente de correlación de Pearson y regresión
lineal.
Prueba t.
Prueba de contraste de la diferencia de
proporciones.
Análisis de varianza unidireccional (ANOVA en un
sentido o “oneway”).
Análisis de varianza factorial (ANOVA).
Análisis de covarianza (ANCOVA).
34
36. Profesor o profesora: seleccione los
ejemplos pertinentes o desarrolle los
propios
36
37. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
“Sentido de vida” (escala) e “ingreso económico anual”
(pesos u otra unidad monetaria).
“Asistencia al trabajo” (número de faltas en el trabajo) y
“productividad” (índice).
“Peso corporal” y “autoestima”.
“Volumen máximo expirado en el primer segundo de una
expiración forzada (FEV1)” y la “talla” (estatura en
centímetros).
“Dosis de un medicamento contra un cáncer” y “grado
de remisión del padecimiento cancerígeno” (escala).
37
38. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
“Dedicación al estudio” (tiempo semanal –en horas-
que dedican los alumnos al estudio) y su
“desempeño académico” (calificaciones medias al
final del periodo escolar).
“Actividad nerviosa superior” (medida por un test) y
“ansiedad rasgo-estado” (medida por una prueba
estandarizada).
“Autonomía en el trabajo” y “satisfacción laboral”.
“Costos mensuales de rentas” (unidad monetaria) y
“tamaño de la vivienda” (metros cuadrados).
38
39. Ejemplos simplificados de correlaciones
donde es apropiado el coeficiente r
“Espíritu emprendedor del estudiante” (escala) y su
“promedio general en la carrera”.
“Inversión en gasto social y el Índice de Desarrollo
Humano” en países subdesarrollados.
“Grado de exposición a la violencia televisa” (minutos) y
“conducta violenta de los niños”.
Parámetros sísmicos de “aceleración máxima” (Amax) y
“velocidad máxima” (Vmax) del suelo que son usados
frecuentemente en la estimación de daño en tuberías
enterradas, contenidos y elementos no estructurales.
39
44. Ejemplos donde la prueba t es
apropiada I
Comparar la rapidez con que dos anestésicos
generales logran la insensibilidad al dolor.
Contrastar la productividad de dos plantas que
fabrican ciertos electrodomésticos.
Cotejar la resistencia de dos materiales bases para la
construcción de puentes.
Comparar el tiempo que dedican a ver televisión los
niños y las niñas.
44
45. Ejemplos donde la prueba t es
apropiada II
Comparar la efectividad de dos métodos de enseñanza
sobre el aprendizaje de estadística descriptiva.
Cotejar el monto promedio de compras mensual entre
los clientes de una tienda departamental que utilizaron
crédito y los que no lo hicieron.
Contrastar la inteligencia emocional de varones
adolescentes versus mujeres adolescentes.
45
46. Prueba de diferencia de
proporciones
(DP)
Se interpreta significancia
46
Diferencia entre dos proporciones o
porcentajes
47. Ejemplos donde DP resulta apropiada
Comparar la efectividad de dos vacunas diseñadas
para reducir el número de casos positivos de un
nuevo virus (% de casos positivos de ambas vacunas).
Cotejar el porcentaje de jóvenes que están en contra
del aborto en dos municipios.
Contrastar el porcentaje de hombres con el
porcentaje de mujeres que manifiestan que votarán
por un candidato en una determinada elección.
47
48. Análisis de varianza unidireccional o
de un factor (anova oneway) I
Método o prueba estadística para analizar si más de dos
grupos difieren significativamente entre sí en cuanto a sus
medias y varianzas.
La prueba t se utiliza para dos grupos y el análisis de varianza
unidireccional se usa para tres, cuatro o más grupos.
48
Una variable independiente
y una variable dependiente
49. Se interpreta el valor F (resultado).
49
Grupo 1 Grupo 2 Grupo 3
Valor F
Análisis de varianza unidireccional o
de un factor (anova oneway) II
50. Ejemplos donde el Anova unidireccional
es conveniente I
Contrastar la productividad de cinco plantas que fabrican
clavos.
Comparar el impacto de tres comerciales de televisión
sobre la predisposición de compra del producto
publicitado.
Cotejar la motivación intrínseca de los trabajadores de tres
turnos de producción.
Contrastar el impacto sobre el aprendizaje de la aritmética
de cinco métodos de enseñanza en niños.
50
51. Comparar los efectos de cuatro fármacos respecto al
tiempo de reacción a una serie de tareas estandarizadas.
Determinar si el tiempo requerido para completar una
determinada tarea difiere entre cuatro niveles de
entrenamiento para los empleados (intensivo = 40 horas,
medio = 30 horas, bajo = 16 horas, mínimo = 8 horas).
51
Ejemplos donde el Anova unidireccional
es conveniente II
52. Principales comparaciones
posteriores (post hoc) en el ANOVA
unidireccional
Diferencia menos significativa
Prueba F de Ryan-Einot-Gabriel-Welsch
Prueba de rango de Ryan-Einot-Gabriel-Welsch
Prueba de Tukey
Otras: Waller-Duncan, T2 de Tamhane, T3 de
Dunnett, Games-Howell, C de Dunett, Bonferroni,
Sidak, Gabriel, Hochberg, Scheffé…
52
53. Estadística multivariada
Pruebas o métodos para analizar relaciones y efectos
entre diversas variables independientes y
dependiente.
53
Variable independiente
Variable independiente
Variable independiente
Variable dependiente
Variable dependiente
54. Ejemplos de métodos multivariados
Análisis de varianza factorial.
Análisis de covarianza.
Análisis de regresión múltiple.
Análisis multivariado de varianza (MANOVA).
Análisis lineal de patrones (PATH).
Análisis discriminante.
54
55. Análisis no paramétricos (premisas)
Para realizar análisis no paramétricos debe
partirse de los siguientes supuestos:
1. El universo o población no necesariamente tiene una
distribución normal.
2. El nivel de medición de las variables no es por
intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, no
necesariamente poseen una varianza homogénea.
55
56. ¿Cuáles son los principales métodos o
las pruebas estadísticas no paramétricas
más utilizadas?
La chi cuadrada o χ2.
Los coeficientes de correlación e independencia para
tabulaciones cruzadas.
Los coeficientes de correlación por rangos ordenados
de Spearman y Kendall.
Otros coeficientes.
56
57. Chi cuadrada o χ2
57
Se calcula por medio de una
tabla de contingencia o
tabulación cruzada
Considera frecuencias
esperadas (al azar) versus
frecuencias observadas o
registradas
58. Tabla de contingencia
• Un cuadro o tabla de dos dimensiones: cada
dimensión representa una variable y posee dos o
más categorías.
58
A1 B1 A2 B1
A1 B2 A2 B2
Variable A
VariableB
Categoría A1 Categoría A2
Categoría B1
Categoría B2
59. Tabla de contingencia 2 X 4
59
A1 B1 A2 B1
A1 B2 A2 B2
A1 B3 A2 B3
A1 B4 A2 B4
Variable A
VariableB
Categoría A1 Categoría A2
Categoría B1
Categoría B2
Categoría B3
Categoría B4
60. Ejemplos donde la χ2 es conveniente
Relacionar género (masculino-femenino) con intención de
voto por dos candidatos (candidato 1-candidato 2): 2X2.
Asociar género con deporte preferido para practicar (fútbol-
beisbol-basquetbol-gimnasia-natación-tenis-otros): 2X7.
Vincular vacuna (vacuna 1, vacuna 2, vacuna 3) con número
de casos positivos de un virus (menos de 10, 11-50, 51-100,
101-200, más de 200): 3X5.
Relacionar tamaño de una legumbre (tamaño 1, tamaño 2,
tamaño 3) con el tipo de fertilizante utilizado (fertilizante 1,
fertilizante 2, fertilizante 3): 3X3.
60
61. Coeficientes de correlación e
independencia para tabulaciones
cruzadas I
Phi (φ): tablas 2 × 2.
Coeficiente de contingencia C de Pearson: tablas de
cualquier tamaño.
V de Cramer (C): cualquier tamaño.
Goodman-Kruskal, Lambda o sólo Lambda (λ): cualquier
tamaño.
61
62. Coeficientes de correlación e
independencia para tabulaciones
cruzadas II
Coeficiente de incertidumbre o entropía o U de Theil:
cualquier tamaño.
Gamma de Goodman y Kruskal: cualquier tamaño.
Tau-a, Tau-b y Tau-c (τa, τb, τc): cualquier tamaño.
D de Somers: cualquier tamaño.
Kappa: cualquier tamaño.
62
64. Ejemplos donde los coeficientes de
Spearman y Kendall son apropiados I
Relacionar jerarquía en la organización y personalidad
autoritaria (rangos en una prueba).
Vincular rangos de precios medios de la vivienda (muy
alto, alto, medio, bajo, muy bajo) y cercanía a un nuevo
centro comercial (considerando número de cuadras o
manzanas, las cuales no son todas exactamente del mismo
tamaño).
64
65. Ejemplos donde los coeficientes de
Spearman y Kendall son apropiados II
Determinar la vinculación entre el ejercicio físico
(rangos) y la capacidad de trabajo (rangos) en
determinados trabajadores.
Asociar la valoración que hacen dos médicos respecto
a la gravedad de sus pacientes (contrastar
percepciones de los galenos a través de correlacionar
sus respectivas jerarquizaciones).
Relacionar sentido de vida (alto, medio y bajo) con
nivel socioeconómico (segmentos: A, A/B, B, C, D y E).
65
66. ¿Qué otros coeficientes existen?
Eta.
Biserial (rb).
Biserial por rangos (rrb ).
Biserial puntual (rpb ).
Tetrachoric (tetracórico).
66
67. Coeficiente eta
Relaciones no lineales.
Eta define la “correlación perfecta” (1.00) como
curvilineal y a la “relación nula” (0.0) como la
independencia estadística de las variables.
Es un coeficiente asimétrico.
67
69. Preparar los resultados para
presentarlos I
1) Revisar cada resultado.
2) Organizar los resultados (descriptivos confiabilidad
y la validez inferenciales).
3) Cotejar diferentes resultados (congruencia).
4) Priorizar la información más valiosa.
69
70. Preparar los resultados para
presentarlos II
5) Copiar y/o “formatear” las tablas en el programa con
el cual se elaborará el reporte de la investigación.
6) Comentar o describir brevemente la esencia de los
análisis, valores, tablas, diagramas, gráficas.
7) Volver a revisar los resultados.
8) Elaborar el reporte de investigación.
70
71. Ejercicio
Presentar una coreografía respecto a qué análisis son
adecuados para su investigación.
Los análisis inferenciales deben justificarse.
71