3. Análisis Regresión Lineal Para comprobar si las variables se relacionan
significativamente( Análisis de Varianza)
Test de Hipótesis:
ANOVA Hipótesis nula: HO: B0 =B1=0
Hipótesis alternativa: H1: B1 <> de 0
Para lo anterior ocupo prueba F o p-valor
Criterio para P-valor
Rechazo H0 si el p-valor es < 0,05
Existe Relación entre las dos variables
Acepto H0 si el p-valor es > 0,05
NO Relación entre las dos variables
En este caso: Rechazo H0, p-valor es < 0,05,
hay relación lineal significativa entre las
variables X e Y, La regresión es significativa al
Modelo es: 5%.
B0 B1 R-Cuadrado (medida que tan bueno es el
ajuste) : El 76 % de la Variabilidad total de los
Y = 97,75 -0,09x datos esta explicada por el modelo de
Regresión, por tanto el modelo es bueno.
( la relación de Y con su variable dependiente X
Intercepto
Pendiente
Es la pendiente significativa distinta de 0 ?
Si, la pendiente es significativa
# p-valor de la pendiente es -0.09794 < 0.05, Rechazo H0
5. Análisis Regresión Lineal Múltiple
Se
corrobora
mayor
fuerza de
la
relación
de
variables
Este
gráfico
represent
a mejor
ajuste
6. Análisis Regresión Lineal Múltiple
Comprobar en tabla Anova
En este caso: Rechazo H0, p-valor es < 0,05,
hay relación lineal significativa entre las
variables X e Y, La regresión es significativa al
5%.
R-Cuadrado (medida que tan bueno es el
ajuste) : El 77 % de la Variabilidad total de los
datos esta explicada por el modelo de
Regresión, por tanto el modelo es bueno.
Estimadores; Parametros a estimar ( la relación de Y con su variables dependientes
X
Inflación de la varianza, es la diagonal de
a inversa de la matriz de correlación.
B0 B1 B2
(x1,x2).
Y1= -4,61047 + 0,05428x1 + 0,10971x2
Este factor mide la colinealidad o
multicolinealidad, osea dependencia entre
las columnas no es exacta, sino
Intercepto Peso aproximada, es decir, a la quasi-
Edad
dependencia lineal entre las variables
regresoras: en este caso son iguales, por
tanto
8. Análisis Regresión Lineal Multiple
En el caso de
la regresi´on m´ultiple es dif´ıcil, aunque no imposible, que alguna columna sea linealmente
dependiente de las dem´as.
Si ocurriera esto dir´ıamos que existe colinealidad entre las
columnas de X. Sin embargo, el t´ermino colinealidad o multicolinealidad se refiere al
caso, mucho m´as frecuente, de que la dependencia entre las columnas no es exacta sino
aproximada, es decir, a la quasi-dependencia lineal entre las variables regresoras. Esto
puede provocar problemas de computaci´on de los par´ametros y en el c´alculo de la precisi´on
de los mismos
10. Análisis Regresión Lineal Multiple
##### analisis de los residuos ######
medidasresiduos<-summary(residuos)
medidasresiduos
var.resi<-var(residuos)
des.est<-sd(residuos)
########################################
##Test para posicion ###
t.test(residuos)
#####################################
mean(residuos)
plot(edad,residuos)
###Test de Normalidad para residuos ######
shapiro.test(residuos)
#En efecto, el p-valor es practicamente 0 ,
#rechazaremos la hipótesis nula de que los datos
#provienen de una normal.
48. ANALISIS DE CORRELACION
Se
corrobora
mayor
fuerza de
la
Coeficiente de Person, relación
debe ser lo más lejos del cero.
de
variables
La menos asociada con
sentido
positivo
Este
gráfico
represent
a mejor
ajuste
49. Ajuste de un Modelo de Regresión Lineal Simple:
Realice una Selección de Variables para elegir el modelo final.
62. Varibles asociadas
Significativamente
< 0,05, rechazo H0,
por tanto, aporta
información al modelo
Las tres variables
quitadas, no
aportan nada
al modelo
Y=pesoRN = -5428.27+ 164.32TallaRN + 9,01PesoPre
Interpretacion:
Por cada Kg de peso de la madres, el peso
PesoRnaumenta en 9,01Kg,
manteniendo la Tallarn Cte
63. Se observa un comportamiento de los residuos con distribución Normal
64.
65. Np deberán salirse muchos puntos de la nube, sino quedaría decir
que faltaría modelar una variable que debe tener un comportamiento no lin