Uploaded on

 

  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,715
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
11
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. ANOVA simple Contraste de ANOVA El ANOVA simple trata de analizar si dos variables Y (continua, llamada variable respuesta) y F (categ´rica, llamada factor), son independientes o o no (es decir, si hay relaci´n entre ellas, si hay diferencias significativas en o el valor de la primera seg´n el valor que tome la segunda, si el factor influye u en la variable respuesta, etc.). Por ejemplo, podemos pensar en la variable Y como el tiempo que tarda en curar un paciente, y en el factor F como el medicamento que se le administra. Si consideramos que el factor tiene k valores posibles, que representamos por F1 , . . . , Fk , y que llamamos niveles del factor (por ejemplo, en el ejemplo anterior podemos pensar que hay k medicamentos posibles), entonces la hip´tesis que se contrasta es: o H 0 : µ1 = µ2 = · · · = µk H1 : alguna µi es distinta donde µ1 , . . . , µk representan las medias correspondientes a cada nivel del factor (si Y es el tiempo de curaci´n y F el tipo de medicamento, entonces o µ1 ser´ el tiempo medio que tardan en curar los pacientes a los que se les ad- ıa ministr´ el medicamento F1 , etc). Observemos que, si aceptamos H0 , estamos o diciendo que en todos los casos la media de Y es la misma independientemente del valor del factor, y por tanto que Y y F son independientes (por ejemplo, que el tiempo medio de curaci´n es el mismo siempre, y por lo tanto que el o tipo de medicamento no influye especialmente en el tiempo de cura). La media conjunta de todos los datos se llama media global, µ. En caso de aceptar H0 , estaremos aceptando no s´lo la igualdad entre las µi , sino tambi´n que o e todas las µi son iguales a la media global, µ. Para contrastar H0 , utilizaremos la noci´n de variabilidad, que esencialmente o coincide con la de dispersi´n. Para medir la variabilidad de los datos Yij (el o primer sub´ındice, i, indica el nivel de factor al que pertenece el dato, y el segundo, j, el orden que ocupa el dato dentro de los recogidos en ese nivel) utilizaremos la suma de cuadrados totales (SCT), y la descompondremos en suma de dos: suma de cuadrados residual o intra-grupos (SCR), que tiene que ver con la variabilidad dentro de cada nivel de factor, y la suma de cuadrados explicada o entre-grupos (SCR), que tiene que ver con las diferencias entre la media de cada factor, y la media global. M´s a concretamente, se cumple: 1
  • 2. (Yij − µ)2 = (Yij − µi )2 + (µi − µ)2 SCT SCR SCE Claramente, si H0 es cierta, entonces SCE ser´ peque˜a frente a SCT. De a n hecho, se llama porcentaje de variabilidad explicada a (SCE/SCT )·100. En general, podemos decir que H0 ser´ aceptada si el porcentaje anterior no a es demasiado alto. Si es suficientemente alto, entenderemos que el factor que hemos introducido est´ realmente explicando las diferencias que observamos a entre los valores de la variable Y , y por tanto que efectivamente hay cierta relaci´n entre Y y F , con lo cu´l H0 es falsa. Observemos tambi´n que si o a e H0 se rechaza, ello no implica que todas las µi sean distintas entre s´ sino ı, simplemente que alguna(s) de ellas es diferente a las dem´s. De hecho, pueden a localizarse los diferentes grupos que aparecen entre los niveles del factor (i.e. las medias que se consideran similares entre s´ mediante la opci´n Contraste ı) o m´ltiple de rango, de Statgraphics. u Las diferencias que aparecen entre los datos, y que no son explicadas por el fac- tor introducido, se consideran debidas al azar. Se llama error experimental a la parte de la variabilidad de los datos debida al azar. Puede estimarse como la ra´ cuadrada de la suma de cuadrados medios intra-grupos, que aparece ız en la tabla de ANOVA (esta tabla la proporciona Statgraphics). Modelo de ANOVA En el modelo de ANOVA se supone que cada observaci´n Yij puede expresarse o como Yij = µi + ij = µ + αi + ij A los valores ij se les llama residuos, y se corresponden con las desviaciones de cada dato respecto a la media del nivel del factor al que pertenecen (µi ); se consideran debidos al azar. Los valores αi se llaman efectos de cada nivel (αi es el efecto del nivel i, etc.) y se consideran una medida de la “tendencia” que tienen los datos a desviarse de la media global, seg´n el nivel del factor al que u pertenezcan (por ejemplo, en el caso del tiempo de curaci´n, el efecto de cada o medicamento ser´ una medida del “adelanto” o “retraso” en cuanto al tiempo ıa medio de curaci´n que supone la administraci´n de uno u otro medicamento). o o Los efectos se calculan como αi = µi − µ Adem´s, en t´rminos de los efectos, las hip´tesis nula y alternativa que se a e o contrastan en el ANOVA, pueden enunciarse como H0 : α1 = α2 = · · · = αk = 0 H1 : alg´n αi = 0 u 2
  • 3. Hip´tesis del modelo: Para que lo anterior “funcione”, es necesario que las o variables y los datos cumplan ciertos requisitos: (i) Y es normal en cada nivel de factor. (ii) La varianza es la misma en cada nivel de factor (homocedasticidad). (iii) Independencia de las observaciones. Tiene que ver con que no haya ning´n u factor que altere el proceso de recogida de datos (por ejemplo, la pereza del observador, la posibilidad de que algunos encuestados “pasen informaci´n” o a otros posibles encuestados y se altere de ese modo el resultado, etc.). En la pr´ctica, se comprueba contrastando si los residuos son aleatorios (lo cu´l a a requiere guardarlos primero, utilizando la opci´n apropiada de Statgraph- o ics). Las condiciones anteriores implican que los residuos siguen una distribuci´n o normal de media 0 y desviaci´n t´ o ıpica igual a la observada en cada nivel de factor, y son independientes unos de otros (i.e. son aleatorios). Si alguna de las hip´tesis de arriba falla, las conclusiones del ANOVA son o dudosas. Contraste de Kruskal-Wallis: Este es un contraste no-param´trico, que e unicamente requiere que la variable Y sea continua. Se trata de un contraste ´ sobre la igualdad de las medianas. Por lo tanto, la hip´tesis nula es, en este o caso, H0 : M1 = M2 = · · · = Mk H1 : alguna Mi es distinta Este contraste utiliza, como otros contrastes no-param´tricos, la noci´n de e o rango. La idea es ordenar de menor a mayor todos los datos (mezclando niveles de factor distintos), asignar rangos, y comparar despu´s los rangos medios e correspondientes a los distintos niveles del factor. Si las hip´tesis de ANOVA (que hemos descrito arriba) se verifican, este o contraste proporciona otro m´todo para comprobar esencialmente la misma e condici´n. Si alguna de las hip´tesis de arriba falla, este test permite realizar o o con fiabilidad el contraste pedido. 3