11. 回帰係数の導出
最小2乗法
が最小となる , を求める。
E b
a
E =
!
y(1)
− (ax(1)
+ b)
2
+
!
y(2)
− (ax(2)
+ b)
2
+ · · · +
!
y(N)
− (ax(N)
+ b)
2
=
N
#
p=1
!
y(p)
− (ax(p)
+ b)
2
12. 回帰係数の導出
最小2乗法
が最小となる , を求める。
E b
a
E =
!
y(1)
− (ax(1)
+ b)
2
+
!
y(2)
− (ax(2)
+ b)
2
+ · · · +
!
y(N)
− (ax(N)
+ b)
2
=
N
#
p=1
!
y(p)
− (ax(p)
+ b)
2
13. 回帰係数の導出
が最小となる , を求める。
E b
a
, で偏微分すると、
b
a
E =
!
y(1)
− (ax(1)
+ b)
2
+
!
y(2)
− (ax(2)
+ b)
2
+ · · · +
!
y(N)
− (ax(N)
+ b)
2
=
N
#
p=1
!
y(p)
− (ax(p)
+ b)
2
最小2乗法
14. 回帰係数の導出
が最小となる , を求める。
E b
a
, で偏微分すると、
b
a
E =
!
y(1)
− (ax(1)
+ b)
2
+
!
y(2)
− (ax(2)
+ b)
2
+ · · · +
!
y(N)
− (ax(N)
+ b)
2
=
N
#
p=1
!
y(p)
− (ax(p)
+ b)
2
N
!
p=1
y(p)
− (ax(p)
+ b)
#
x(p)
= 0
最小2乗法
15. 回帰係数の導出
が最小となる , を求める。
E b
a
, で偏微分すると、
b
a
E =
!
y(1)
− (ax(1)
+ b)
2
+
!
y(2)
− (ax(2)
+ b)
2
+ · · · +
!
y(N)
− (ax(N)
+ b)
2
=
N
#
p=1
!
y(p)
− (ax(p)
+ b)
2
N
!
p=1
y(p)
− (ax(p)
+ b)
#
= 0
N
!
p=1
y(p)
− (ax(p)
+ b)
#
x(p)
= 0
最小2乗法
16. 回帰係数の導出
µy = aµx + b
N
!
p=1
y(p)
− (ax(p)
+ b)
#
= 0
1
N
N
!
p=1
y(p)
= a ·
1
N
N
!
p=1
x(p)
+
1
N
N
!
p=1
b
17. 回帰係数の導出
µy = aµx + b
N
!
p=1
y(p)
− (ax(p)
+ b)
#
= 0
1
N
N
!
p=1
y(p)
= a ·
1
N
N
!
p=1
x(p)
+
1
N
N
!
p=1
b
y = ax + b
18. 回帰係数の導出
KHLJKW
ZHLJKW
回帰直線 は
それぞれの中心(平均)の点を通る。
y = ax + b
µy = aµx + b
N
!
p=1
y(p)
− (ax(p)
+ b)
#
= 0
1
N
N
!
p=1
y(p)
= a ·
1
N
N
!
p=1
x(p)
+
1
N
N
!
p=1
b
y − µy = a(x − µx)
41. 予測の精度について
R2
=
SR
ST
= 1 −
SE
ST
決定係数
ST = SE + SR
T : トータル(Total)
E : 誤差(Error)
R : 回帰 (Regression)
Syy =
1
N − 1
N
!
p=1
(y(p)
− µy)2
=
1
N − 1
N
!
p=1
(y(p)
− ŷ(p)
)2
+
1
N − 1
N
!
p=1
(ŷ(p)
− µy)2
y(p)
= ŷ(p)
+ e(p)
= âx(p)
+ b̂ + e(p)
ŷ(p)
= âx(p)
+ b̂
として、誤差の2乗を計算すると、
ԣਢડʍഒޚ