El documento describe métodos de análisis de regresión y correlación lineal simple, incluyendo el coeficiente de correlación de Pearson, el coeficiente de correlación de Spearman, y el análisis de regresión lineal simple usando el método de mínimos cuadrados ordinarios. También discute pruebas de hipótesis, evaluación de supuestos, y abusos comunes de la regresión lineal simple.
3. Coeficientes de correlación.
Método Paramétrico: Coeficiente de
Paramétrico
correlación producto momento de
Pearson (ρ).
Método No Paramétrico, Coeficiente de
Paramétrico
correlación de Spearman (ρs).
4. Coeficiente de correlación
producto momento de
Pearson
El coeficiente de correlación producto
momento de Pearson, ρ , mide el grado
de asociación lineal que existe entre un
par de variables X, Y cuya distribución
conjunta es normal bivariada.
bivariada
5. Coeficiente de correlación
producto momento de
Pearson
Se calcula a partir de la siguiente
ecuación:
(x y ) − ∑ ( x )∑ ( y )
∑
i i
i i
r= n
( ∑ ( xi ) ) 2
∑x 2
i −
n
7. Prueba de hipótesis sobre ρ
Problema: determinar si ρ es diferente
de cero.
Sistema de hipótesis:
H0: ρ = 0.
H1: ρ ≠ 0.
Nivel de confianza 95% α=0,05.
8. Prueba de hipótesis sobre ρ
Regla de decisión:
Si p_valor < α se rechaza H0.
Si p_valor ≥ α no se rechaza H0.
9. Coeficiente de correlación No
paramétrico de Spearman ρs
El coeficiente de correlación No
Paramétrico de Spearman, ρs , mide
el grado de asociación lineal que existe
entre un par de variables X, Y
cuantitativas, independientemente del
tipo de distribución conjunta que
presenten.
10. Coeficiente de correlación No
paramétrico de Spearman ρs
Se calcula a partir de los rangos o
posiciones relativas de los valores,
mediante la ecuación:
6 ∑d i
2
ρs = 1− i
n(n − 1)
11. Coeficiente de correlación No
paramétrico de Spearman ρs
Su valor se encuentra entre -1,
correlación negativa perfecta y +1,
correlación positiva perfecta.
Valores cercanos a cero indican
independencia entre variables.
12. Análisis de Regresión.
Es una técnica estadística con la que se
pretende modelar la relación lineal que
existe entre dos o más variables con
distribución normal.
13. Análisis de Regresión.
El regresión lineal simple permitirá
estimar el mejor modelo lineal que
permite predecir el comportamiento de
una variable dependiente, Y , a partir
de una variable independiente, X .
14. Modelo de regresión lineal simple
Modelo probabilístico lineal
Y = β 0 + β1 x + e, e ~ N (0, σ )
2
donde: e es el error aleatorio
β0 es el la ordenada en el origen
β1 es la pendiente
16. Relación entre variables
Dicha relación viene dada por:
E ( Y | x ) = µ Y | x = β 0 + β1 x
donde:
β0 es el la ordenada en el origen
β1 es la pendiente
18. Estimación de los coeficiente de
regresión. Método mínimos cuadrados
ordinarios
Suponga que se desea estimar el
modelo para una muestra de n
observaciones. El modelo de regresión
puede expresarse como:
Yi = β 0 + β1 xi + ei , n = 1, 2, ... , n
19. Estimación de los coeficiente de regresión
Método mínimos cuadrados ordinarios
El método busca los coeficientes que
minimizan la suma de los cuadrados de
las desviaciones de las observaciones
con respecto a la recta de regresión.
Y − ( β 0 + β 1 x i ) = ei
2
( )
n n
L = ∑ ei2 = ∑ ( yi − β 0 − β1 xi )
i =1 i =1
20. Método de mínimos cuadrados
Los estimadores de los coeficientes de
regresión deben satisfacer:
∂L
(
)
n
β 0 β1
= −2∑ yi − β 0 − β1 xi = 0
∂β 0 i =1
∂L
(
)
n
β 0 β1
= −2 ∑ yi − β 0 − β1 xi xi = 0
∂β1 i =1
21. Estimadores de mínimos
cuadrados
La ordenada en el origen
ˆ ˆ
β0 = y − β1 x
n n
∑ xi ∑ yi
n
∑ xi yi − i = 1 i =1
ˆ i =1 n S xy
La pendiente β1 = 2
=
∑xn S xx
i
n 2
∑ xi −
i =1
i =1 n
22. Supuestos del análisis de
regresión lineal simple
La relación entre las variables es lineal.
Los errores son independientes y están
normalmente distribuidos.
La varianza de los errores es
independiente de la magnitud de los
valores de X.
23. Prueba de hipótesis sobre β1
Problema: determinar si β1 es diferente
de un valor β1,0
Sistema de hipótesis:
H0: β1 = β1,0
H1: β1 ≠ β1,0
Nivel de confianza 95% α=0,05.
24. Prueba de hipótesis sobre β1
Regla de decisión:
Si p_valor < α se rechaza H0.
Si p_valor ≥ α no se rechaza H0.
25. Prueba de hipótesis sobre β0
Problema: determinar si β0 es diferente
de cero.
Sistema de hipótesis:
H0: β0 = 0.
H1: β0 ≠ 0.
Nivel de confianza 95% α=0,05.
26. Prueba de hipótesis sobre βo
Regla de decisión:
Si p_valor < α se rechaza H0.
Si p_valor ≥ α no se rechaza H0.
27. Evaluación de los supuestos del
análisis de regresión lineal simple
Gráficos de residuos.
Curva de distribución normal para los
residuos.
Residuos estandarizados, Studentizados
y distancia de Cook.
29. Coeficiente de determinación R2
Permite conocer el porcentaje de
varianza de la variable dependiente, Y,
que se puede explicar a partir de la
varianza de la variable independiente, X.
SSE
R =1−
2
S yy