More Related Content Similar to 人工智慧07_迴歸方法(智慧交通) (8) More from Fuzhou University (17) 人工智慧07_迴歸方法(智慧交通)3. 智慧交通應用
常見的交通資訊收集方法
◦ 車輛偵測器(Vehicle Detector, VD)
◦ 電子標籤偵測器(eTag Detector, ETD)
◦ 探偵車(Probe Car, PC)
◦ 蜂巢流動車輛資料(Cellular Floating
Vehicle Data, CFVD)
交通資訊三元素
◦ 車速(Vehicle Speed)
◦ 流量(Flow)
◦ 密度(Density)
探偵車限制
◦ 探偵車可回報車速
◦ 無法取得流量和密度資訊
◦ 本研究目的為運用車速估計密度和流量
3
4. 智慧交通應用-車載資通訊
交通資訊收集方法
◦ 車輛偵測器(Vehicle Detector, VD)
◦ 電子標籤偵測器(eTag Detector, ETD)
◦ 探偵車(Probe Car, PC)
◦ 蜂巢流動車輛資料(Cellular Floating Vehicle Data, CFVD)
4
台9新店
台9坪林
台9頭城
台2頭城
台2大里
台2丙平溪
台2丙暖暖
台2瑞濱
台2福隆
探偵車與車載隨意網路(Vehicular Ad Hoc
Network, VANET)
圖片來源:http://iwin.sjtu.edu.cn/sub/iov/
國道3號替代道路
車輛偵測器和電子
標籤偵測器
5. 智慧交通應用-交通三元素
流量(Flow):
◦ 在時間單位內通過的車輛數
◦ Q (車輛數/小時)
時間平均車速(Time Mean Speed, TMS):
◦ 一個空間點一段時間內的平均車速
◦ Ut (公里/小時)
空間平均車速(Space Mean Speed, SMS):
◦ 一段空間距離內的平均車速
◦ Us (公里/小時)
密度(Density):
◦ 在空間單位內的車輛數
◦ K (車輛數/公里) = Q / Ut
旅行時間(Travel Time):
◦ 經過一段空間距離花費的時間差
◦ T (小時) = 距離 / Us 5
道路
Us
VD1
偵測得到Q和Ut
VD2
可用eTag偵測器得到
可用車輛偵測器(Vehicle Detector, VD)得到
空間平均車速(SMS)可直接與距離進行計算取得
「旅行時間」,旅行時間資訊對政府和用路人較重要
7. 智慧交通應用-交通三元素
Green shield’s model (1935)(線性模型)
Pipes’ generalized model (冪次模型)
7
模型公式參考來源:
1. T.V. Mathew, “Chapter 3 Traffic Stream Models,” Transportation Systems Engineering, 2014.
2. M. Jabeena, “Comparative Study Of Traffic Flow Models And Data Retrieval Methods From Video Graphs,” Journal of Engineering Research and Applications, vol. 3, no. 6, pp. 1087-1093, 2013.
j
f
k
k
uu 1
n
j
f
k
k
uu 1
Greenberg’s logarithmic model (1959)(對數模型)
Underwood exponential model (1961)(指數模型)
k
k
uu
j
1ln0
0k
k
f euu
uf: free flow speed
kj: jam density
u0: optimum speed
k0: optimum density
8. 智慧交通應用-交通三元素
Green shield’s model (1935)(線性模型)
Pipes’ generalized model (冪次模型)
8
Greenberg’s logarithmic model (1959)(對數模型)
Underwood exponential model (1961)(指數模型)
0
50
100
150
200
250
300
350
400
450
0 10 20 30 40 50 60 70 80
Speed(km/hr)
Density (car/km/lane)
Speed
Estimation
j
f
k
k
uu 1
n
j
f
k
k
uu 1
k
k
uu
j
1ln0
0k
k
f euu
uf
kj
uf: free flow speed
kj: jam density
u0: optimum speed
k0: optimum density
9. 0
20000
40000
60000
80000
100000
120000
140000
160000
0 20 40 60 80 100 120
Flow(car/hr)
Speed (km/hr)
Flow (per hr)
Estimation
智慧交通應用-交通三元素
Green shield’s model (1935)(線性模型)
Pipes’ generalized model (冪次模型)
9
Greenberg’s logarithmic model (1959)(對數模型)
Underwood exponential model (1961)(指數模型)
uf: free flow speed
kj: jam density
u0: optimum speed
k0: optimum density
j
f
k
k
uu 1
n
j
f
k
k
uu 1
k
k
uu
j
1ln0
0k
k
f euu
u0, k0
13. 線性迴歸(最小平方法)
資料分佈呈現線性分佈
線性迴歸
◦ 線性函式
◦ 機器學習後結果
13
X Y X-X平均 Y-Y平均
0.1 0.3 -0.2 -0.2
0.2 0.4 -0.1 -0.1
0.3 0.5 0 0
0.4 0.6 0.1 0.1
0.5 0.7 0.2 0.2
bxwy ˆ
2.01ˆ xy
n
i
i
n
i
ii
xx
yyxx
w
1
2
1
線性迴歸公式
xwyb
1
2.02.01.01.0001.01.02.02.0
2.02.01.01.0001.01.02.02.0
w
2.03.015.0 b
運用最小平方法可以證明
此案例計算結果
X平均為0.3
Y平均為0.5
14. 線性迴歸(最小平方法)
線性迴歸公式證明
14
n
i
ii
n
i
ii
n
i
ii
n
i
ii
n
i
yyxxw
xwyxwy
xwyb
ybxwe
1
2
1
2
1
2
1
2
1
2
運用最小平方法可以證明
n
i
i
n
i
iin
i
ii zzzf
1
2
1
1
2
min
定理
n
i
i
n
i
iii
n
i
ii
xx
yyxx
w
yyxxwwf
1
2
1
1
2
min
相關係數
(Correlation Coefficient)
15. 線性迴歸(最小平方法)
線性迴歸公式證明
定理證明
15
n
i
i
n
i
iin
i
ii
n
i
i
n
i
ii
n
i
i
n
i
iii
n
i
iii
n
i
ii
zz
zz
z
z
f
zzf
1
2
1
11
2
11
2
1
2
1
1
2
00
02
min
2
2
2
2
0
0
02
min
i
ii
iii
iii
iii
iii
ii
z
z
z
z
z
z
g
zzg
對z偏微分,令一階導
函數為0,即為最小值
16. 線性迴歸(最小平方法)
統計學中的R2意涵
◦ 執行迴歸分析研究之後,使用的模式與這些量測數據有多大的符合性?
◦ 常用判別標準為R2決定係數(Coefficient of Determination),反應自變數和應變數間的關聯性
16
n
i
n
i
yy
yy
R
1
2
1
2
2
ˆ
當自變數和應變數高度相關時,R2為1
當自變數和應變數互相獨立時,R2為0
x y
0.1 0.3 0.3 -0.2 -0.2
0.2 0.4 0.4 -0.1 -0.1
0.3 0.5 0.5 0 0
0.4 0.6 0.6 0.1 0.1
0.5 0.7 0.7 0.2 0.2
2.01ˆ xy yˆ yy ˆ yy
1
2.01.001.02.0
2.01.001.02.0
22222
22222
2
R
17. 17
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
線性迴歸(梯度下降法)
如何找曲線的相對低點?
如何讓w值向相對低點邁進?
25.0
5.0
2
2
ww
wwF
12
w
w
F
目標函式
函式切線斜率
w=0.5時,
F函式相對低點
對w微分
F函式之一階導函數
Iteration w F
1 0.000 0.250 -0.100
2 0.100 0.160 -0.080
3 0.180 0.102 -0.064
4 0.244 0.066 -0.051
5 0.295 0.042 -0.041
6 0.336 0.027 -0.033
7 0.369 0.017 -0.026
8 0.395 0.011 -0.021
9 0.416 0.007 -0.017
10 0.433 0.005 -0.013
12 w
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
當w=0時,斜率為-1
當w=1時,斜率為1
斜率絕對值越大,則
所需修正幅度越大
當w=0.25時,斜率為-0.5
所需修正幅度較小
12
ww
w
F
ww
為學習率
避免一次跳太遠
1.0
1021.00
w
18.0
11.021.01.0
w
Iteration 2的w值
Iteration 3的w值
1.0
當經過63個Interation
後,w值將修正為0.5,
並且不需再修正(收斂)
用前一個Iteration
的w值減去斜率為
新的w值
當w=0.5時,斜率為0
斜率為0時,代表為相
對低點,不需修正
18. 線性迴歸(梯度下降法)
學習率的作用?
18
Iteration w F
1 0.000 0.250 -1.000
2 1.000 0.250 1.000
3 0.000 0.250 -1.000
4 1.000 0.250 1.000
5 0.000 0.250 -1.000
6 1.000 0.250 1.000
7 0.000 0.250 -1.000
8 1.000 0.250 1.000
9 0.000 0.250 -1.000
10 1.000 0.250 1.000
Iteration w F
1 0.000 0.250 -0.900
2 0.900 0.160 0.720
3 0.180 0.102 -0.576
4 0.756 0.066 0.461
5 0.295 0.042 -0.369
6 0.664 0.027 0.295
7 0.369 0.017 -0.236
8 0.605 0.011 0.189
9 0.416 0.007 -0.151
10 0.567 0.005 0.121
學習率 為0.9
12 w
12 w
學習率 為1
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
12 www
學習率過大,
w在0和1兩個值之
間擺盪,無法收斂
0
0.05
0.1
0.15
0.2
0.25
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
F
w
129.0 www
學習率大時,擺盪
幅度較大
在複雜的情境中可
能錯過全域最佳解
經過63個Interation
後收斂
19. 線性迴歸(梯度下降法)
多個參數之目標函式
19
22
2
2
,
bwbw
bwbwF
目標函式 bw
w
F
22
函式切線斜率(對w偏微分)
bw
b
F
22
函式切線斜率(對b偏微分)
w修正方式 b修正方式
bww
w
F
ww 22
bwb
b
F
bb 22
w+b=0時,
F函式相對低點
0
0.5
1
1.5
2
2.5
3
3.5
4
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1F
w
bwbb
bwww
221.0
221.0
經過17個Interation
後收斂
w=0且b=0
Iteration w b F
1 1.000 1.000 4.000 0.400
2 0.600 0.600 1.440 0.240
3 0.360 0.360 0.518 0.144
4 0.216 0.216 0.187 0.086
5 0.130 0.130 0.067 0.052
6 0.078 0.078 0.024 0.031
7 0.047 0.047 0.009 0.019
8 0.028 0.028 0.003 0.011
9 0.017 0.017 0.001 0.007
10 0.010 0.010 0.000 0.004
bw 22
學習率 為0.1
20. 0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
0.04
0.9 0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98 0.99 1F
w
bwbb
bwww
221.0
221.0
經過13個Interation
後收斂
w=0.9且b=-0.9
線性迴歸(梯度下降法)
多個參數之目標函式
20
22
2
2
,
bwbw
bwbwF
目標函式 bw
w
F
22
函式切線斜率(對w偏微分)
bw
b
F
22
函式切線斜率(對b偏微分)
w修正方式 b修正方式
bww
w
F
ww 22
bwb
b
F
bb 22
Iteration w b F
1 1.000 -0.800 0.040 0.040
2 0.960 -0.840 0.014 0.024
3 0.936 -0.864 0.005 0.014
4 0.922 -0.878 0.002 0.009
5 0.913 -0.887 0.001 0.005
6 0.908 -0.892 0.000 0.003
7 0.905 -0.895 0.000 0.002
8 0.903 -0.897 0.000 0.001
9 0.902 -0.898 0.000 0.001
10 0.901 -0.899 0.000 0.000
bw 22
w+b=0有無限多組解:
• w = 0, b = 0
• w = 0.9, b = -0.9
• w = 1, b = -1
學習率 為0.1
21. 線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
21
bxwy
線性迴歸函式
(真值)
bxwy ˆˆˆ
2
ˆˆ,ˆ yybwF
12
ˆ
ˆˆ
ˆ2
ˆ
ˆ
ˆ2
ˆ
ˆ
ˆ
2
b
bxwbxw
yy
b
yy
yy
b
yy
b
F
函式切線斜率(對 偏微分) 函式切線斜率(對 偏微分)
線性迴歸函式
(估計值)
目標函式
wˆ bˆ
修正方式 修正方式wˆ bˆ
xw
w
F
ww
2ˆ
ˆ
ˆˆ 12ˆ
ˆ
ˆˆ
b
b
F
bb
令 yy ˆ 令 yy ˆ
x
w
bxwbxw
yy
w
yy
yy
w
yy
w
F
2
ˆ
ˆˆ
ˆ2
ˆ
ˆ
ˆ2
ˆ
ˆ
ˆ
2
22. 線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項
22
Iteration x w b y F
1 0.10 1.00 0.00 0.10 0.50 0.50 0.55 0.20 0.06 0.63
2 0.20 1.00 0.00 0.20 0.44 -0.13 -0.04 0.06 -0.07 -0.34
3 0.30 1.00 0.00 0.30 0.50 0.21 0.36 0.00 0.03 0.09
4 0.40 1.00 0.00 0.40 0.48 0.12 0.32 0.01 -0.05 -0.12
5 0.50 1.00 0.00 0.50 0.53 0.24 0.51 0.00 0.00 0.01
6 0.10 1.00 0.00 0.10 0.52 0.23 0.29 0.03 0.03 0.26
7 0.20 1.00 0.00 0.20 0.50 -0.03 0.07 0.02 -0.04 -0.18
8 0.30 1.00 0.00 0.30 0.53 0.15 0.31 0.00 0.00 0.02
9 0.40 1.00 0.00 0.40 0.53 0.14 0.35 0.00 -0.03 -0.07
10 0.50 1.00 0.00 0.50 0.56 0.21 0.49 0.00 -0.01 -0.02
yˆwˆ bˆ
0
0.05
0.1
0.15
0.2
0.25
0.4 0.5 0.6 0.7 0.8 0.9 1
F
wwˆ
學習率 為0.7
經過770個Interation
後收斂
x 2 12
經過770個Interation後,
為1, 為0wˆ bˆ
以 為例01 xy
23. 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0 0.1 0.2 0.3 0.4 0.5
F
w
線性迴歸(梯度下降法)
梯度下降法應用於線性迴歸之權重和誤差項,採用mini-batch計算方式
23
Iteration x w b y
1
0.10 1.00 0.00 0.10 0.50 0.50 0.55 -0.45
0.20 1.00 0.00 0.20 0.50 0.50 0.60 -0.40
0.30 1.00 0.00 0.30 0.50 0.50 0.65 -0.35
0.40 1.00 0.00 0.40 0.50 0.50 0.70 -0.30
0.50 1.00 0.00 0.50 0.50 0.50 0.75 -0.25 -0.35 0.25 0.49
2
0.10 1.00 0.00 0.10 0.26 0.01 0.04 0.06
0.20 1.00 0.00 0.20 0.26 0.01 0.06 0.14
0.30 1.00 0.00 0.30 0.26 0.01 0.09 0.21
0.40 1.00 0.00 0.40 0.26 0.01 0.11 0.29
0.50 1.00 0.00 0.50 0.26 0.01 0.14 0.36 0.21 -0.15 -0.30
yˆwˆ bˆ
以 為例01 xy
wˆ
學習率 為0.7
經過11個Interation後
收斂
x 2 12
經過11個Interation後,
為0.35, 為0.2wˆ bˆ
假設mini-batch為5
在此案例中,mini-batch可以加速
收斂,但卻陷入區域最佳解
未採用mini-batch為計算完每一筆都要修正權重組合
採用mini-batch,則計算完每個batch後,再修正權重組合
26. 智慧交通應用方法
建立「車速與密度線性迴歸模型」
◦ X為「車速」
◦ Y為「密度」
以右表之前3筆資料為例
26
作為「X」 作為「Y」
X Y X-X平均 Y-Y平均
88.2227 8.3992 0.229633 1.124833
89.0733 6.4329 1.080233 -0.84147
86.6832 6.991 -1.30987 -0.28337
0952.0
30987.130987.1080233.1080233.1229633.0229633.0
2837.030987.184147.0080233.1124833.1229633.0
w
6531.1599307.8709522.0274367.7 b
6531.150952.0 xy
X平均為87.99307
Y平均為7.274367
27. 智慧交通應用方法
建立「車速與密度線性迴歸模型」
◦ X為「車速」
◦ Y為「密度」
以右表之前3筆資料為例
27
作為「X」 作為「Y」
車速(X) 密度(Y) 密度估計值
88.2227 8.3992 7.2525
89.0733 6.4329 7.1715
86.6832 6.991 7.3991
6531.150952.0 xbxwy
2525.76531.152227.880952.01 y
1715.76531.150733.890952.02 y
3991.76531.156832.860952.03 y
w為-0.0952
b為15.6531