2. OBJETIVOS
Al finalizar el Tema , el participante será capaz de:
1. Utilizar diagramas de dispersión para visualizar la
relación entre dos variables.
2. Identificar relaciones simples entre variables
3. Utilizar la ecuación de regresión para predecir valores
futuros.
4. Aplicar el análisis de correlación para describir el
grado hasta el cuál dos variables están relacionadas
linealmente entre si.
3. 6.
7.
8.
9.
Realizar el diagnostico de la regresión
Medición de la autocorrelación
Realizar la estimación por intervalos
Realizar el análisis de varianza de la regresión
simple
4. CONTENIDO
1.
2.
3.
4.
5.
6.
7.
8.
9.
El diagrama de dispersión
Las ecuaciones lineales simples
La regresión lineal simple
El error estándar de la estimación
El análisis de correlación
El diagnóstico de la regresión: al análisis residual
La estadística de Durbin-Watson
La estimación por intervalos
Análisis de varianza de la regresión simple.
5. 17.1 El diagrama de dispersión
Es un gráfico que permite detectar la
existencia de una relación entre dos
variables.
Visualmente se puede buscar patrones que
indiquen el tipo de relación que se da entre
las variables.
6. (b) Lineal inversa
(a) Lineal directa
Y
Y
•
X
•
• ••
•• •
• ••
•
••
••
X
(d) Curvilinea inversa
X
Y
Y
• •
•• •
••
X
(e) Lineal inversa
con más dispersión
•
• ••
•
• ••
•• •
•••
•
•• • •
• ••
•
••
•
• ••
•
••
Y
•
•
•
•• • • •
•• • • •
•• • •
•
Relaciones posibles
entre X y Y vistos
en diagramas de
dispersión
Y
(c) Curvilínea directa
X
• ••
•• • • •
• • • • ••
•• • • •
••
••
•
•
X
(d) Ninguna relación
7. Aplicación
Los datos siguientes muestran las cantidades
consumidas de complemento nutricional (en Kg.) y
el aumento de peso de niños con signos de
desnutrición.
PACIENTE
COMPLEMENTO
1
2
3
4
5
6
7
8
9
10
1.0
1.5
2.0
2.5
3.0
3.5
4.0
4.5
5.0
5.5
8
10
9
12
14
13
15
17
14
14
EN Kg: X
AUMENTO DE
PESO : Y
Presente la información en un diagrama de dispersión
8. Procedimiento
1er Paso: Reúna pares de datos (X,Y), cuya
relación desea estudiar y organice la información
en una tabla.
PACIENTE
COMPLEMENTO
1
2
3
4
5
6
7
8
9
10
1.0
1.5
2.0
2.5
3.0
3.5
4.0
4.5
5.0
5.5
8
10
9
12
14
13
15
17
14
14
EN Kg: X
AUMENTO DE
PESO : Y
9. 2do Paso: Encuentre los valores mínimos y máximos
para X e Y. Elija las escalas que se usarán en los
ejes horizontal y vertical, de manera que ambas
longitudes sean aproximadamente iguales, facilitando
la lectura del diagrama.
20
15
10
5
0
0.0
2.0
4.0
6.0
10. 3er Paso: Registre los datos en el gráfico. Cuando
se obtengan los mismos valores en diferentes
observaciones, muestre estos puntos haciendo
círculos concéntricos (o), o registre el segundo punto
muy cerca del primero.
20
15
10
5
0
0.0
2.0
4.0
6.0
11. 4to Paso: Agregue toda la información que
puede ser de utilidad para entender el diagrama,
tal como: título del diagrama, período de tiempo,
número de pares de datos, nombre de la variable
y unidades de cada eje, entre otros.
Aumento de peso
(Kg)
Relación complemento nutricional y
aumento de peso
20
15
10
5
0
0.0
2.0
4.0
Complemento nutricional (Kg)
6.0
12. 17.2 Las ecuaciones lineales simples
Si dos variables, como X e Y, están
relacionadas, se puede expresar como una
relación, por ejemplo:
Y = 3 + 1,5X
Al conocer la ecuación se puede:
a) Calcular el valor de Y para cualquier valor
dado de X
b) Conocer el cambio en Y, cuando X varía en 1
13. Por ejemplo: Y = 3 + 1,5X
Valor
Valor
Cambio
dado de X calculado de Y de Y
1
4,5
2
6,0
1,5
3
7,5
1,5
4
9,0
1,5
5
10,5
1,5
14. El aumento en Y, cuando X varía en una unidad,
está dado por el coeficiente de X.
Ejemplo:
En Y = 10 + 2X
cuando X aumenta en 1, Y aumenta en 2
En Y = 5 - 0,8X
cuando X aumenta en 1, Y disminuye en 0,8
15. A) Tipos de Variables
En una ecuación como Y = 30 + 3X, el valor de Y
depende del valor que toma X, por eso a Y se le
llama variable dependiente, y a X se le llama
variable independiente.
Y = b0 + b1 X
Variable
Dependiente
Variable
Independiente
16. B) Tipo de Relaciones
Cuando cambios en X provoca cambios en Y en
igual sentido (aumentos o disminuciones), las
variables están directamente relacionadas. Se
observa el signo +
Ejemplo:
Y = 30 + 5X
Y
o
o
o
o
o
o
o
o
o
X
17. Cuando cambios en X, provoca variaciones en Y
en sentido inverso (X aumenta, Y disminuye o
viceversa), las variables están inversamente
relacionadas. Se observa en la ecuación el signo
-.
Y
Ejemplo:
o
Y = 20 - 3X
o
o
o
o
o
o
o
X
18. C) Grado de la ecuación:
La ecuación es de primer grado si la
variable independiente está elevada al
exponente 1. Su gráfica genera una línea
recta (por lo que también se le llama
ecuación lineal)
Ejemplo: Y = 30 + 4 X
19. Si la variable independiente está elevada a un
exponente diferente a 1, la ecuación toma el valor
del exponente. Su gráfica no es una línea recta.
Ejemplo:
Y = 10 + 3 X + 4 X2 : ecuación de segundo grado
Y = 3 + 7X + 5 X3 : ecuación de tercer grado
20. D) Ecuaciones simples y múltiples:
Simples: Muestra la relación entre dos variables
Y = 30 + 2X
Y = 10 - 3X2
Múltiple: Muestra la relación entre tres o más
variables
Y = 3X + 8 Z
Y = 5 + 2X2 + 4W
21. D) Gráfica de una ecuación de primer grado:
Ejemplo: Y = 3 + 1,5X
X
Y
1
4 ,5
2
6 ,0
3
7 ,5
4
9 ,0
5
1 0 ,5
Los cinco pares de valores se diagraman de la
forma siguiente.
Y
12
11
10
9
8
7
6
5
4
3
2
1
.
.
.
.
.
(5,10.5)
(4,9)
(3,7.5)
(2,6)
(1,4.5)
1
2
3
4
5
X
22. E) Forma general:
La ecuación simple de primer grado tiene la
siguiente forma general
Y = b0 + b 1 X
Donde:
b1: pendiente, o sea, el cambio en Y cuando ∆X = 1.
b0: el valor autónomo, es decir, Y = b0 cuando X = 0.
En la gráfica es la intersección con el eje Y
Ejemplo:
Y
Y = 3 + 1.5X
.
b0 = 3
X
23. 17.3 Regresión lineal simple
Es una técnica estadística que permite
determinar la mejor ecuación que represente la
relación entre dos variables relacionadas.
Para poder establecer la relación cuantitativa
entre X e Y es necesario disponer de pares de
observaciones. Cada par ha sido registrado a la
misma unidad elemental.
24. A) Suposiciones de regresión y correlación
a) Normalidad: los valores de Y estarán distribuidos
normalmente a cada valor de X.
b) Homoscedasticidad: la variación alrededor de la
línea de regresión sea constante para todos los
valores de X.
c) Independencia de error: el error (diferencia
residual entre un valor observado y uno estimado
de Y) sea independientemente de cada valor de X.
d) Linealidad: la relación entre las variables es lineal.
25. B) El método de Mínimos Cuadrados
Es el procedimiento matemático utilizado para
determinar los valores numéricos de los
coeficientes de regresión: b0 y b1
La ecuación general Y = b0 + b1X se llama
ecuación de regresión y permite estimar o
predecir los valores de Y.
26. El método consiste en determinar una
ecuación que la suma de los errores al
cuadrado sea mínima.
Y
Yi - Y = error
.
10
8
Línea de
estimación
ˆ
Y
6
Min ∑ ( Y - Y)
i
2
•
4
2
Error= -6
•
.
•
Error= 2
X
2
4
6
8
10
12
14
27. El método utiliza un sistema de ecuación llamado
ecuaciones normales, que tienen la siguiente
forma:
X
Para aplicar las fórmulas,
tenemos que confeccionar
un
cuadro
como
el
siguiente:
X2
XY
1.0
8.0
1.0
8.0
1.5
10.0
2.3
15.0
2.0
9.0
4.0
18.0
2.5
12.0
6.3
30.0
3.0
∑ Y = nb0 + b1 ∑ X
XY = b0 ∑ X + b1 ∑ X 2
∑
Y
14.0
9.0
42.0
3.5
13.0
12.3
45.5
16.0
60.0
4.0
15.0
4.5
17.0
20.3
76.5
5.0
14.0
25.0
70.0
5.5
14.0
30.3
77.0
126.0
126.3
442.0
∑X
∑ XY
32.5
X
∑
Y
∑
2
28. Sustituyendo los valores ∑ Y = 126,0 , n = 5, ∑ X = 32,5
2
XY = 442
X = 126,3
∑
∑
y
,en las ecuaciones normales,
obtenemos el siguiente sistema de ecuaciones.
126 = 10b0 + 32,5b1
442 = 32,5b0 + 126,3b1
Resolviendo el sistema tenemos: b0 = 7,479
b1= 1,576 ,por lo tanto,
ˆ
Y = 7,479 + 1,576X
29. c) Interpretación
b0 = 7,478 : Es probable que un paciente desnutrido
que no sea considerado dentro del
Programa de Alimentación Complementaria
tenga un peso de 7,478 Kg.
b1 = 1,576:Por cada Kg. del alimento complementario,
se espera que probablemente el niño
aumento su peso en 1,576 Kg.
30. D) Valor observado y valor estimado de Y
El valor observado (Yi) se refiere al nivel efectivo u
observado de la variable Y (peso del niño), mientras
ˆ
que el valor estimado ( Yi ), es el nivel estimado de la
variable (peso esperado), obtenido utilizando la
ˆ
X
Y
Y
ecuación de regresión.
1.0
8.0
9.055
Y
.
.
Valor
observado
xo
9.0
10.630
2.5
12.0
11.418
14.0
12.206
13.0
12.994
4.0
15.0
13.782
4.5
X
2.0
3.5
Valor
estimado
9.843
3.0
Y
10.0
17.0
14.570
5.0
Yi
1.5
14.0
15.358
5.5
14.0
16.146
31. 17.4 Error estándar de estimación (S yx)
Mide la disparidad ¨promedio¨ entre los valores
observados y estimados de la variable Y. Se
calcula por la siguiente relación
ˆ
∑ (Y - Y)
Syx =
n−2
14
2
33. Reemplazando en la formula
S yx
2120
,
2120
,
=
=
= 2,65
10 − 2
8
Syx =1
,628
El Syx es un indicador del grado de precisión con que
la ecuación de regresión describe la relación entre
las dos variables: cuanto más pequeño, los valores
observado y estimado de Y son razonablemente
cercanos y, la ecuación de regresión es una buena
descripción esa la relación.
34. 17.5 El análisis de correlación
El análisis de correlación es la técnica
estadística que permite describir el grado hasta
el cual una variable está linealmente
relacionada con otra.
Hay dos medidas que se usan para describir la
correlación
El coeficiente de determinación
El coeficiente de correlación
35. A) El coeficiente de determinación
Al construir un modelo de regresión, se define
que “el valor Y depende de X”.
Y = f (X)
Si la relación es lineal: Y = b0 + b1X
Pero en la práctica Y depende también de
“otros factores” diferentes a X:
Y = b0 + b1X + ε
Parte de los cambios en Y pueden explicarse
por X, a esto se llama variación explicada.
Pero hay cambios en Y que no pueden
explicarse por X, a lo que se llama variación
no explicada.
37. El coeficiente de determinación se puede
calcular del modo siguiente:
variacion explicada
r =
variacion total
2
r2
=
(
ˆ
∑Y-Y
(
)
∑Y -Y
i
2
)2
Se elevan al cuadrado, para evitar que ∑ ( Y - Y ) = 0
obteniéndose un número positivo.
38. 1er Paso: Cálculo de la venta media por vendedor
son ( Y )
n
Y=
∑Y
i=1
i
n
Y1 + Y2 + Y3 + Y4 + Y5
Y=
5
9 + 5 + 7 + 14 + 10 45
Y=
=
5
5
Y = 9 unidades
39. 2do Paso: Se calcula la variación total, es decir, la
sumatoria de las desviaciones de las ventas
2
observadas (Yi) con respecto a la media: ∑ Yi - Y
(
Y
Y
( Y − Y)
( Y − Y) 2
8.0
12.6
-4.6
21.16
10.0
12.6
-2.6
6.76
9.0
12.6
-3.6
12.96
12.0
12.6
-0.6
0.36
14.0
12.6
1.4
1.96
13.0
12.6
0.4
0.16
15.0
12.6
2.4
5.76
17.0
12.6
4.4
19.36
14.0
12.6
1.4
1.96
14.0
12.6
1.4
1.96
126.0
126.0
∑Y
0.0
∑ ( Y − Y)
72.4
2
∑ ( Y − Y)
∑Y
)
40. 3er Paso: Se calcula la variación explicada, es
decir, la sumatoria de las desviaciones cuadráticas
entre las ventas esperadas y la venta media de la
muestra: ∑ ( Y - Y )
ˆ
( Y − Y) ( Y − Y)
ˆ
ˆ
Y
Y
2
2
9.055
12.6
-3.545
12.5699
9.843
12.6
-2.758
7.6038
10.630
12.6
-1.970
3.8793
11.418
12.6
-1.182
1.3964
12.206
12.6
-0.394
0.1551
12.994
12.6
0.394
0.1553
13.782
12.6
1.182
1.3971
14.570
12.6
1.970
3.8805
15.358
12.6
2.758
7.6055
16.146
12.6
3.546
12.5720
126.0
126.0
0.0
ˆ
∑Y
∑Y
51.2
ˆ
ˆ
∑ ( Y − Y) ∑ ( Y − Y)2
41. 4to Paso: Se compara la variación explicada y
la variación total.
variacion explicada
r =
variacion total
2
r2
=
r
2
=
(
)
ˆ -Y 2
∑ Y
∑
(Yi - Y )
2
51,2
= 0,707
72,4
5to Paso: Interpretación: 70,7% de las
variaciones en el incremento de peso, pueden
explicarse por el consumo del complemento
nutricional.
42. Valores posibles de r2
Si r2 = 1 : Correlación perfecta, es decir, toda
variación de Y puede explicarse por X
Si r2 = 0 : no existe correlación entre X e Y. La
variación explicada es 0. La variable X
no explica nada de los cambios en Y
Resumen
2
0 ≤ r ≤1
Cuanto más cerca a uno, las variables tendrán
mayor correlación.
43. B) El coeficiente de correlación
Es la raíz cuadrada del coeficiente de
determinación.
r = r2
Sus valores oscilan entre -1 y 1
Cuando r es positivo, indica que X e Y
están directamente relacionados.
44. Cuando r es negativo, indica que X e Y
están inversamente relacionados.
El coeficiente r tiene el mismo signo que el
coeficiente b1 en la ecuación de regresión
45. Interpretación del coeficiente de
correlación de Pearson
Fuerte Moderada
Negativa Negativa
-1 -0,9
Perfecta
Negativa
-0,5
Débil
Negativa
Débil
Positiva
0
No existe
correlación
Moderada
Positiva
0,5
Fuerte
Positiva
0,9 1
Perfecta
Positiva
46. Ejemplo:
r2= 0,707
r = 0,707
r = 0,84
el signo es positivo ya que X e Y están
relacionados directamente como lo indica el
signo del coeficiente b1 en la ecuación de
ˆ
regresión Y = 7,479 + 1,576X
47. Interpretación: El incremento de peso (Y) y el
consumo del complemento nutricional (X) se
encuentran directamente asociados.
48. 17.6 Diagnóstico de la regresión: análisis
residual
El análisis residual permite evaluar lo adecuado
del modelo de regresión que ha sido ajustado a
los datos. También sirve para detectar si los
supuestos se cumplen.
A. Evaluación de lo adecuado de modelo ajustado
Los valores del error residual o estimado ( εi) se
define como la diferencia entre los valores
ˆ
observados (Yi) y los estimados ( Yi de la variable
)
dependiente para los valores dados de X i
ˆ
ε = Yi - Yi
i
49. Podemos evaluar lo adecuado del modelo de
regresión ajustado mediante el gráfico de los
residuos (eje vertical) con respecto a los
correspondientes valores de Xi de la variable
independiente (eje horizontal).
Variable X 1 Gráfico de los residuales
3
2
Residuos
Ejemplo:
El gráfico muestra un
adecuado ajuste entre
el incremento de peso
y el consumo del complemento nutricional.
No se observa una
tendencia.
1
0
-1
0
1
2
3
-2
-3
Variable X 1
4
5
6
50. El análisis del gráfico nos brinda el criterio para
adoptar el modelo lineal o dejarlo de lado. Si fuese
así, podríamos probar con modelos no lineales como
el cuadrático, logaritmo o exponencial.
El análisis de residuos se complementa con el
cálculo de los residuos estandarizados (SRi), que
resultan de la división del residuo dividido por su
error estándar.
εi
SR i =
S YX 1 − hi
En donde
1
hi = +
n
( Xi − X ) 2
n
Xi2 − n X
∑
i=1
2
51. Los valores estandarizados nos permiten tomar en
cuenta la magnitud de los residuos en unidades
que reflejen la variación estandarizada alrededor
de la línea de regresión.
Análisis de los residuales
Observación
Pronóstico para Y
Residuos
Residuos estándares
1
9.138461538
-0.138461538
-0.101107641
2
3.276923077
1.723076923
1.258228423
3
6.207692308
0.792307692
0.578560391
4
15
-1
-0.730221853
5
12.06923077
-2.069230769
-1.510997526
6
44.30769231
0.692307692
0.505538206
52. En el gráfico siguiente, los residuos estandarizados
fueron graficados en función de la variable
independiente (cantidad del complemento nutricional).
Se puede observar de que existe una dispersión
amplia en la gráfica de residuos, no existe un patrón
evidente o una relación entre los residuos
estandarizados y Xi . Los residuos parecen estar
equitativamente distribuidos por arriba y por debajo
de 0, para diferentes valores de X. Podemos concluir
que el modelo ajustado parece ser adecuado.
54. B. Evaluación de las suposiciones
a. Homoscedasticidad
b. Normalidad
c. Independencia:
55. 17.7 Medición de la autocorrelación: Durbin-Watson
Una de las suposiciones del modelo de regresión
básico es la independencia de los residuos. Esta
suposición es violada con frecuencia cuando los
datos son recopilados en periodos secuenciales,
debido a que un residuo en cualquier punto del
tiempo puede tender a ser parecido a los residuos
que se encuentran en puntos de tiempo
adyacentes.
El estadístico D de Durbin-Watson mide la
correlación de cada residuo y el residuo del
periodo inmediato anterior al periodo de interés.
56. El estadístico D (Durbin-Watson)
n
D=
( εi − εi−1 ) 2
∑
i =2
n
ε i2
∑
i=1
En la que
ε i representa el residuo en el periodo i.
57. Interpretación de D:
Cuando residuos sucesivos están correlacionados
positivamente, el valor de D se aproximará a cero.
Si los resultados no están correlacionados, el valor D
estará cercano a 2.
Si se presentase una autocorrelación negativa, lo
cual rara vez sucede, de valor D tomará un valor
mayor a 2 e, incluso podría aproximarse a su valor
máximo que es 4.
58. Los resultados de SPSS nos proporciona el
valor de D de Durbin-Watson
b
Model Summary
Change Statistics
Model
1
R Square
Change
F Change
.707a
19.336
df1
df2
1
8
Sig. F Change
.002
Durbin-Watson
1.517
a. Predictors: (Constant), Complemento
b. Dependent Variable: AUMENTO
Según este resultado permite afirmar que los residuos
no están correlacionados.
59. 17.8 Estimación por intervalos
A.Intervalo de confianza para β1
σ ε2
β1,
SC
x
b1∼ N
b1 − β1 b1 − β1
=
≈t
S yx
Sb1
SC x
2
σε
SC x
σ
desconocido
conocido
2
ε
Lo que se va hacer es∑ )2
n
( estimar
Y
2
Y −
∑
i=1
=
n
−b 2SC
1
x
se S
estima mediante la siguiente formula:
2
yx
n −2
60. -t0
t0
Pr( − t 0 ≤ t ≤ t 0 )
b1 − β 1
Pr − t 0 ≤
≤ t0 = 1− α
S yx
SC x
S yx
S yx
Pr b1 − t 0
≤ β 1 ≤ b1 + t 0
= 1− α
SC x
SC x
61. B. Intervalo de confianza para β0
2
1
x
2
b0 ≈ Ν β0 ,σ ε +
n SC
x
b0 − β0
=
Sb0
b0 − β0
2
S yx
donde:
S
2
yx
1
x
+
n SC x
Y
∑
=
2
≈ t n −2
(∑Y )
−
2
n
n −2
− b 2 SC
x
0
62. -t0
t0
Pr( −t 0 ≤ t ≤ t 0 )
b0 − β 0
Pr − t 0 ≤
≤ t0 = 1− α
Sb 0
(
)
Pr b 0 − t 0Sb0 ≤ β0 ≤ b 0 + t 0Sb0 = 1 − α
t0 con (n-2) grados de libertad y α
63. C. Intervalo de confianza para µ
Y/X
(
1 X0 − X2
2
ˆ
Y ≈ N µy / X0 ,σε +
n
SC x
0
)
Para un nivel dado de confianza, una variación
aumentada alrededor de la línea de regresión,
medida a través del error estándar de la
estimación, tiene como resultado un intervalo
más amplio.
64. Sin embargo, como se esperaría, un tamaño de
muestra aumentado reduce el ancho del
intervalo.
(
)
Pr y − t 0S y ≤ µy / X0 ≤ y + t 0S y = 1 −α
ˆ
ˆ
ˆ
ˆ
donde:
(
1 X0 − x 2
S y = S2 +
yx
ˆ
SC x
n
)
65. D. Intervalo de confianza para un valor
individual
Además de obtener una estimación de intervalo
de confianza para el valor promedio, a menudo
es importante tener la capacidad de predecir la
respuesta que se obtendría para un valor
individual.
(
2
1 X0 − X
2
ˆ
Y ≈ N µy / X0 ,σ ε 1 + +
n
SC x
)
66. El intervalo de predicción está estimando
un valor individual, no un parámetro.
(
)
Pr y − t 0S y ≤ µY / X0 ≤ y + t 0S y = 1 −α
ˆ
ˆ
ˆ
ˆ
donde:
(
2
1 X0 − x
S y = S 2 1 + +
yx
ˆ
n
SC x
)
67. 17.9 Análisis de varianza de la
regresión simple
El análisis de varianza es una técnica que
permite localizar las fuentes de variabilidad
que ayuden a explicar el comportamiento de
la variable dependiente.
SCtotal =
SCerror + SCregresión
(SCresidual)
68. El cuadro de Análisis de Varianza
Fuentes de
variabilidad
Suma de
Cuadrados
Debido a la
Regresión
Error
Experimental
Total
2
b SC X
∑ Y2
( Y)
− ∑
n
GL
1
2
2
• b1 SC x n − 2
SC total
n −1
Cuadrado
Medio
2
1
b SC x
S2
yx
F
calculado
2
b1 SC x
S2
yx
E(CMe)
σ ε2 + β 12SC x
2
σε
69. Asumiendo que existe una regresión lineal,
determine:
A.La ecuación de regresión e interprete los
coeficientes de regresión.
intervalo de confianza para β1y para un valor
individual si X = 3,8.
C.El cuadro de ANOVA para la regresión lineal
ˆ
D.El valor de y cuando X = 5,1
E.La prueba de hipótesis respectiva a partir del
ANOVA e interprete el resultado.
F.Estime el aumento de peso que puede darse se
consumen 6 Kg. del complemento nutricional
mediante un intervalo e interprete el resultado.
B.El
70. Solución
Primero se realizan los cálculos necesarios:
n = 10
∑ Xi = 32,5
∑ Yi = 126
∑ Xi2 = 126,25
∑ Yi2 = 1660
∑ Xi Yi = 442
A.
Cálculo de los coeficientes de regresión:
ˆ
Y = b0 + b1X
b0 = Y − b1 X
b1 =
∑ Xi Yi − ∑
Xi ∑ Yi
( 32,5)(126 )
442 −
32,5
10
n
=
=
2
( 32,5) 20,62 = 1,57
( ∑ Xi )
2
126,25 −
∑ Xi − n
10
b0 = 12,6 − (157)(3,25) = 7,49
,
71. La ecuación de regresión será:
ˆ
Y = 7,49 + 157 X
,
Interpretación:
b0= Se espera que el peso que un niño que no
consume este complemento nutricional sea
7,49 Kg.
b1= Por cada Kg. de complemento nutricional, el
peso del niño se incrementará en 1,57 Kg.
72. B.
Intervalo de confianza para β1
Pr 157 − t ( 0,10 )( 8 )
,
S yx
SC x
≤ β1 ≤ 157 + t ( 0,10 )( 8 )
,
S yx
= 1 − 0,10
SC x
S yx
S yx
Pr 157 − 186
,
,
≤ β1 ≤ 157 + 186
,
,
= 0,90
4,54
4,54
S
2
yx
=
(126 ) 2 − (1,57 ) 2 ( 20,62)
1660 −
S yx = 1 642
,
10
8
72,7 − 50,82
=
= 2,69
8
73.
,
,
1 642
1 642
Pr 157 − 186
,
,
,
,
≤ β1 ≤ 157 + 186
= 0,90
4,54
4,54
Pr {0,8973 ≤ β1 ≤ 2,2427} = 0,90
Interpretación: Hay 0,90 de confianza que el
intervalo que se ha construido, pertenezca al
grupo de intervalos que contienen al verdadero
parámetro β1.
74. Intervalo de confianza para un valor individual
ˆ
Si X = 3,8 entonces Y = 13,45
ˆ
ˆ
Pr { Y − t 0S Y ≤ Yind ≤ Y − t 0S Y } = 1 − α
ˆ
ˆ
Pr {13,45 − (1,86)S Y ≤ Yind ≤ 13,45 − (1,86)S Y } = 1 − α
ˆ
ˆ
1 ( 3,80 − 3,25 )
S Y = 1,642 1 +
+
=
ˆ
10
20,62
2
Interpretación
75. C.
Análisis de Varianza
Fuentes de
variabilidad
Suma de
Cuadrados
Debido a la
Regresión
Error
Experimental
Total
GL
Cuadrado
Medio
F
calculado
50,82
1
50,82
18,84
21,58
8
2,697
72,40
9
E(CMe)
Interpretación: Se rechaza la hipótesis planteada. El
complemento nutricional si explica significativamente
los cambios en el peso de los niños.
76. D.
Si X = 5,1
ˆ
Y = 7,49 + 1,57(5,51)
ˆ
Y = 16,14
E. Prueba de Hipótesis acerca de β1
1. Hp: β1= 0
Ha: β1≠ 0
2. α = 0,10
3.
Fc =
CMeregresión
CMeerror
77. Supuestos
- La muestra seleccionada al azar
- La población se distribuye al azar
- Los valores de X fijas y de Y variables (o
aleatorias)
- Asunciones de la regresión lineal simple
4. Criterios de decisión
F1-α/2
Fα/2
0,0041
5,32
Si {5,32 ≤ Fc ≤ 0,0041}se rechaza la hipótesis planteada
78. 5. Cálculos
50,82
Fc =
= 18,84
2,697
6. Conclusiones
La variable “complemento nutricional” es
apropiada para explicar el comportamiento
del “aumento de peso” en niños desnutridos.
Además, la ecuación de regresión puede ser
usada con fines de predicción hasta cierto
límite.
79. F.
¿ Para X = 6, que promedio de Y vamos a obtener?
{
}
Pr 16,91 − (1,86 ) S Y ≤ µ Y X0 ≤ 16,91 + (186 ) S Y = 1 − α
,
ˆ
ˆ
80. 17.10 Resultados con Excel
Estadísticas de la regresión
0.99582747
Coeficiente de correlación múltiple
Coeficiente de determinación R^2
0.99167236
R^2 ajustado
0.98959045
Error típico
1.5310881
Observaciones
6
ANÁLISIS DE VARIANZA
GL
SC
CMe
F cal
P-valor
476.328138
2.60786E-05
Superior
95%
Inferior
95.0%
Superior
95.0%
Regresión
1
1116.62308
1116.62308
Residuos
4
9.37692308
2.34423077
Total
5
1126
Coefic
ientes
Error
típico
Estadíst
ico t
P-valor
Inferior
95%
Intercepción
0.346154
0.9173433
0.37734384
0.72508508
-2.200804756
2.893112448
-2.200804756
2.893112448
Variable X 1
2.930769
0.13428531
21.824943
2.6079E-05
2.557932668
3.303605794
2.557932668
3.303605794
81. Ejemplo:
En la Farmacia Santa Rita, se desea determinar
la relación lineal simple entre la experiencia del
vendedor y las ventas durante un mes. Se
seleccionan 5 vendedores, los datos registrados
se presentan a continuación:
VENDEDOR
CARLOS PEDRO JOSE JUAN MANUEL
EXPERIENCIA
(años):X
3
1
2
5
4
VENTAS
(unidades) : Y
9
5
7
14
10
82. Caso 1
Un equipo de profesionales en salud mental de un
hospital psiquiátrico donde el tiempo de
permanencia es largo, quiere medir el nivel de
respuesta de pacientes retraídos mediante un
programa de terapia de remotivación. Para este
propósito
se
contaba
con
una
prueba
estandarizada, que era costosa y su aplicación
tomaba mucho tiempo. Para salvar este obstáculo,
el equipo creó una prueba más fácil de aplicar.
83. Para probar la utilidad de este nuevo instrumento
para medir el nivel de respuesta del paciente, el
equipo decidió examinar la relación entre las
calificaciones obtenidas con la nueva prueba y las
calificaciones
obtenidas
con
la
prueba
estandarizada.
Paciente
1
2
3
4
5
6
7
8
9
10
11
Prueba nueva
50
55
60
65
70
75
80
85
90
95
100
Prueba estandar 61
61
59
71
80
76
90
106
98
100
114
84. Caso 2
Se llevo a cabo un experimento para estudiar el
efecto de cierto medicamento para disminuir la
frecuencia cardiaca en adultos. Se reunieron los
siguientes datos: dosis en miligramos del
medicamento y la diferencia entre la frecuencia
cardiaca mas baja después de la administración
del medicamento y un control antes de
administrarlo.
85. Dosis (mg)
1 1 1 1 2 2 2 2 3 3 3 3
Reduccion ritmo cardiaco 10 8 12 12 14 12 16 18 17 20 18 20
Determine la ecuación de regresión lineal y
explique el valor de los coeficientes de regresión.
Calcule e interprete el coeficiente de correlación y
el coeficiente de determinación.
86. Hoja de Comprobación
1. El análisis de regresión se usa para describir que tan bien
una ecuación de estimación describe la relación que está
estudiando
2. Dado que la ecuación para una línea es Y = 26 - 24X,
podemos decir que la relación Y con X es directa y lineal
3. Un valor r2 cercano a cero indica una fuerte correlación
entre X y Y
87. 4. Los análisis de regresión y correlación se usan para
determinar relaciones de causa y efecto
5. El coeficiente de correlación de muestra, r, no es nada más que r
y no podemos interpretar su significado directamente como un
porcentaje del mismo tipo
2
6. El error estándar de la estimación mide la variabilidad de los
valores observados alrededor de la ecuación de regresión.
7. La línea de regresión se deriva de una muestra y no de toda la
población
88. 8. Podemos interpretar el coeficiente de determinación de muestra
como la cantidad de la variación en Y que es explicada por la línea
de regresión
9. Las líneas trazadas a cada lado de la línea de regresión a ±1, ±2 y ±3
veces el valor del error estándar de la estimación se denominan líneas
de confianza
10.La ecuación de estimación es válida sólo sobre el mismo intervalo
que el dado por los datos originales de muestra sobre los cuales se
desarrolló
11.En al ecuación Y = a + bX para la variable dependiente Y y la
variable independiente X, la intersección Y es b.
89. 12.Si una línea se ajusta a un conjunto de puntos mediante el método
de mínimos cuadrados, los errores individuales positivos y
negativos desde la línea suman cero.
13. Si Se = 0 para una ecuación de estimación, debe estimar
perfectamente la variable dependiente en los puntos observados
14.Supongamos que la pendiente de una ecuación de estimación es
positiva. Entonces el valor de r debe ser la raiz cuadrada positiva
de r2
90. 15.Si r = 0.8, entonces la ecuación de regresión explica 80% de la
variación total en la variable dependiente
16.El coeficiente de correlación es el porcentaje de la variación total
de la variable dependiente que es explicada por la regresión
17.El error estándar de la estimación es medido perpendicularmente
desde la línea de regresión más que sobre el eje X
18.Al cuadrar los errores individuales, el método de mínimos
cuadrados magnidica todas las desviaciones desde la línea de
regresión estimada
91. 19. Una ecuación de regresión no puede ser válida al ampliarse fuera del
intervalo de muestra de la variable independiente
20. Un valor r2 implica que no existe una relación de causa-efecto
significativa entre X y Y
21. Una valor pequeño de r2 implica que no existe una relación de causaefecto significativa entre X y Y