62005183 analisis-de-covarianza-ancova (1)

3,224 views
3,082 views

Published on

analisis de covarianza

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
3,224
On SlideShare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
100
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

62005183 analisis-de-covarianza-ancova (1)

  1. 1. 133 CAPÍTULO 10 ANÁLISIS DE COVARIANZA (ANCOVA)10.1 INTRODUCCIÓN Uno de los problemas con el que frecuentemente se enfrenta el investigador, es el de controlaraquellos factores que no le he es posible medir y cuyo efecto no puede justificar, los cuales constituyenel error experimental. Una de las formas de minimizar este error es mediante la aleatorización de lostratamientos y la utilización de material experimental muy homogéneo. Sin embargo, la aleatorizacióndifícilmente cancela la influencia de las variables involucradas en el error y la disponibilidad dematerial experimental homogéneo no es frecuente en algunos experimentos, principalmente conanimales, quedando restringidos a experimentos de laboratorio, invernadero o con animales de bioterio. Ronald Fisher en 1932 desarrolló una técnica conocida como Análisis de Covarianza, quecombina el Análisis de Regresión con el Análisis de Varianza. Covarianza significa variaciónsimultánea de dos variables que se asume están influyendo sobre la variable respuesta. En este caso setiene la variable independiente tratamientos y otra variable que no es efecto de tratamientos pero queinfluye en la variable de respuesta, llamada a menudo: covariable. El Análisis de Covarianza consiste básicamente en elegir una o más variables adicionales ocovariables que estén relacionadas con la variable de respuesta, evitando que los promedios detratamientos se confundan con los de las covariables, incrementando de esa manera la precisión delexperimento. Por ejemplo: número de plantas por unidad experimental, pesos iniciales en animales,grado de infestación de garrapatas, días de lactancia o edad de destete, etc.; pueden ser covariables queinfluyan en el resultado final y cuyo efecto de regresión sobre la variable respuesta el investigadordesea eliminar, ajustando las medias de tratamientos a una media común de X. En este análisis seasume que la variable dependiente Y está asociada en forma lineal con la variable independiente X,existiendo homogeneidad de pendientes. El procedimiento de análisis comprende:a) ANDEVA para X (covariable),b) ANDEVA para Y (variable de respuesta),c) Estimación del coeficiente angular de la regresión.d) Obtención de la ecuación de regresión y ajuste a los promedios de la variable de respuesta.10.2 SUPOSICIONES BÁSICAS DEL ANÁLISIS DE COVARIANZA Como es de esperarse, las suposiciones que se hacen cuando se efectúa un análisis decovarianza son similares a las requeridas para la regresión lineal y el análisis de varianza. De estamanera, se encuentran las suposiciones usuales de independencia, normalidad, homocedasticidad, Xfijas, etc. Para ser más exactos, se presenta a continuación los modelos estadísticoímatemáticosasociados con algunos de los diseños más comunes cuando se realiza un análisis de covarianza.
  2. 2. 134a) Diseño Completamente al Azar i=1,...,t Yij = + i + E (Xij X.. ) + ij j=1,...,rYij = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. = Media general i = Efecto del iíésimo tratamiento.E = Coeficiente angular de la regresión.Xij = Variable independiente o covariable.X.. = Media general de la covariable. = Error experimental. ijb) Diseño en bloques completos al azar. i=1,...,t Yij = + i + Uj + E (Xij X.. ) + ij j=1,...,rYij = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. = Media general i = Efecto del iíésimo tratamiento.Uj = Efecto del jíésimo bloque o repetición.E = Coeficiente angular de la regresión.Xij = Variable independiente o covariable.X.. = Media general de la covariable. = Error experimental. ijc) Diseño cuadrado latino i=1,...,t Yijk = + i + Uj + Jk + E (Xijk X.. ) + k=1,...,t ijk j=1,...,rYijk = Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. = Media general i = Efecto del iíésimo tratamiento.Uj = Efecto de la jíésima fila.Jk = Efecto de la kíésima columna.E = Coeficiente angular de la regresión.Xijk = Variable independiente o covariable.X.. = Media general de la covariable. = Error experimental. ij kOtra suposición necesaria para el análisis correcto de covarianza, es que la variable concomitante X, nodebe ser afectada por los tratamientos.
  3. 3. 13510.3 EJEMPLO DE APLICACIÓN Un grupo de estudiantes del curso de Investigación Agrícola de la Escuela Nacional Central deAgricultura evaluó en 1990 el efecto del tiempo de cosecha sobre el rendimiento de grano de maíz. Seutilizaron 4 tratamientos y 3 repeticiones, con el diseño bloques completos al azar. Los tratamientosfueron: 30, 40, 50 y 60 días después de la polinización. El número de plantas planificado por parcelaútil fue de 52, pero al cosechar se obtuvieron diferentes números de plantas por unidad experimental.Los resultados se presentan en el cuadro siguiente: Repeticiones Tratamientos I II III x y x y x y xi. yi. 30 41 4.08 24 2.78 31 2.79 96 9.65 40 37 4.72 32 4.92 38 4.50 107 14.14 50 37 4.00 34 5.05 47 5.54 118 14.59 60 35 4.59 22 3.63 44 6.20 101 14.42 x.j , y.j 150 17.39 112 16.38 160 19.03 422 52.801º. ANDEVA para las variables X y Y ANDEVA para X ANDEVA para Y Valor F Valor F FV GL SC CM FV GL SC CM F crítica F crítica Trats. 3 89.67 29.89 0.98 4.76 Trats. 3 5.64 1.88 2.29 4.76 Bloques 2 320.67 160.33 Bloques 2 0.89 0.45 Error 6 183.33 30.56 Error 6 4.92 0.82 Total 11 593.67 Total 11 11.45X = número de plantas Y = rendimiento expresado en kilogramos/unidad experimental.2º. Estimación del coeficiente angular de la regresión y del coeficiente de correlación. § t r ·§ t r · ¨ ¦¦ x ij ¸ ¨ ¦¦ yij ¸Factor de corrección = F.C. (x,y) = © ¹© i 1 j 1 ¹ i 1 j 1 (422) (52.8) 1856.8 tr 4u3Suma de Productos Total para x y y. SPT(x,y) t rSPT(x, y) ¦¦ x i 1 j 1 ij yij F.C.(x, y) [(41u 4.08) (37 u 4.72) ... (44 u 6.2)] 1856.8 60.16Suma de Productos de Bloques para x y y. SPB (x,y) t r ¦¦ x .j y. j [(150 u 17.39) ... (160 u 19.03)] F.C.(x, y) 1856.8 15.165 i 1 j 1SPB(x, y) t 4
  4. 4. 136Suma de Productos de Tratamietos para x y y. SPTrat (x,y) t r ¦¦ x .j y. j [(96 u 9.65) ... (101u 14.42)] F.C.(x, y) 1856.8 15.673 i 1 j 1SPTrat(x, y) r 3Suma de Productos del Error para x y y. SPE (x,y)SPE(x, y) SPT(x, y) [ SPTrat(x, y) SPB(x, y) ] 60.16 (15.673 15.165) 29.322 SPE(x, y) 29.322Coeficiente angular de la regresión: Eˆ 0.1599 SCE(x) 183.33 Este coeficiente da la relación promedio de rendimiento por planta, es decir, el efecto de unaplanta en promedio es de 0.1599 kg. Debe aclararse que el coeficiente de regresión E se supuso diferente de cero. Si este no fuera elcaso, la introducción de la variable concomitante X sería una complicación innecesaria. Algunas vecesel investigador querrá comprobar estas suposiciones. Esto es, evaluará las hipótesis: Ho: E = 0 (no hay regresión lineal simple) Ha: E z 0 Utilizando la estadística F (FisherSnedecor): SPE(x, y)@ 2 29.3222 SCE(x) 183.33 100.50 F CME(y ajustado) 0.04666318que tiene v1 = 1 y v2 =(r1) (t1) 1, grados de libertad. En este caso F crítica (1,5,0.05) = 6.61. Por lotanto se concluye que la regresión lineal es significativa. El cálculo del coeficiente de correlación lineal (r) se efectúa de la manera siguiente: SPE(x, y) 29.322 r 0.976 SCE(x) u SCE(y) (183.33) u (4.92) Este valor de r puede ser evaluado con la prueba t de Student: r 0.976 t u n u 5 10.02* 1 r2 1 (0.976) 2 t crítica (5,0.05/2) = 2.57siendo n = 5, el número de grados de libertad del residuo, luego de ser ajustado por la regresión (se lerestó un grado de libertar).
  5. 5. 1373º. ANCOVA (los valores ajustados)a) Cálculo de la suma de cuadrados de la regresión lineal. SPE(x, y)@ 29.322
  6. 6. 2 2 SC Re g 4.691 SCE(x) 183.33b) Suma de cuadrados del residuo, ajustada a la regresión SCE(y Ajustado) SCE(y) SC Re g 4.92 4.69 0.23c) Suma de cuadrados de los tratamientos, ajustada de acuerdo con la regresión [ SPTrat(x, y) SPE(x, y) ]2SCTrat Ajustada SCE(y) SCTrat(y) @ SCE(y Ajustada) SCTrat(x) SCE(x) 15.673 29.332
  7. 7. 2SCTrat Ajustada 4.92 5.64@ 0.23 2.914 89.67 183.33
  8. 8. d) Resumen del ANCOVA Suma de FV GL SCX SCY GL SC CM Valor F F crítica Productos Tratamientos 3 89.67 5.64 15.673 3 2.914 0.97 21.09* 5.41 Bloques 2 320.67 0.89 15.165 Error 6 183.33 4.92 29.322 5 0.23 0.04666 Total 11 593.67 11.45 60.16 10 De acuerdo con el ANCOVA, existen diferencias significativas entre tratamientos. Enconsecuencia, es conveniente hacer un ajuste por número de plantas a los promedios de rendimiento, deacuerdo con la siguiente ecuación: ˆ yi. yi. E (x i. x) , siendo: ˆˆyi. = promedio ajustado de cada tratamiento. yi. = promedio de cada tratamiento sin ajustar.Eˆ = coeficiente angular de la regresión.x i. = promedio del número de plantas de cada tratamiento.x = promedio general del número de plantas.
  9. 9. 138e) El error estándar para la diferencia SE(d) entre dos medias ajustadas es dado por: ª 1 1 (x i x j ) 2 º SE(d) CME(y Ajustado) u « » « ri rj SCE(x) » ¬ ¼ Cuando el número de repeticiones es el mismo para todos los tratamientos, el error estándarpara la diferencia entre dos medias ajustadas es dado por: 2 u CME(y Ajustado) ª (x i x j ) º 2 SE(d) u «1 » r « ¬ SCE(x) » ¼ Cuando los valores de x1 , x 2 , . . . , x t no son muy diferentes (lo que se puede concluircuando los tratamientos no producen efectos significativos en la variable X), se puede usar unaestimación media para el error estándar, aplicable a cualquier contraste entre dos tratamientos. Estaestimación media tiene la siguiente expresión: 2 u CME(y Ajustado) ª CMTrat(x) º SE(d) u «1 r ¬ SCE(x) » ¼f) ˆ El cálculo de los promedios ajustados del rendimiento de grano de maíz yi. se presenta a continuación: Tratamientos yi. yi. xi. x i. ˆ yi. 30 9.65 3.22 96 32.00 3.72 40 14.14 4.71 107 35.67 4.63 50 14.59 4.86 118 39.33 4.20 60 14.42 4.81 101 33.67 5.05 Media general 35.17g) La presentación final de los resultados quedará de la siguiente forma: Días después de la Media ajustada polinización (kg/u.exp.) 60 5.05 a 40 4.63 a b 50 4.20 b c 30 3.72 c

×