8. 8
8.2.1 Mistake bounds and Halving algorithm
誤り数の上限(2)
⇒少なくとも1つのexpertは一度も間違えない設定
Maximum number of mistake
realizable case
𝒞:コンセプトクラス
任意の固定したコンセプト𝑐について,
学習アルゴリズムの最大の誤り数を以下に定義
50. 8.3.1 Linear classification
Perceptronによる更新(1)
50
𝑦𝑡w 𝑡 ⋅ x 𝑡<0の時,w 𝑡による𝑡番目のサンプルの予測に失敗
更新されたw 𝑡+1による予測を以下のように表現可能
𝑦𝑡w 𝑡+1x 𝑡 = 𝑦𝑡 w 𝑡 + 𝜂𝑦𝑡x 𝑡 ⋅ x 𝑡 = 𝑦𝑡w 𝑡 ⋅ x 𝑡 + 𝜂 x 𝑡
2
𝜂 𝑥𝑡
2
> 0のため,𝑦𝑡w 𝑡+1 ⋅ x 𝑡 > 𝑦𝑡w 𝑡 ⋅ x 𝑡
w 𝑡+1 = w 𝑡 + 𝜂𝑦𝑡x 𝑡による更新で,𝑡番目のサンプル
に対する予測を改善
51. Perceptronアルゴリズムは以下の関数𝐹(w)を最小化する
重みベクトルwを求める
51
𝑓 x : xの正解ラベル
𝒟:サンプル(x1, … , x 𝑇)に基づく分布
෨𝐹 w, x = max(0, −𝑓 x w ⋅ x )
任意の𝑡 ∈ [𝑇]でw ↦ −𝑦𝑡(w ⋅ x 𝑡)は凸なため,関数𝐹は凸
Perceptronアルゴリズムは,stochastic subgradient descent
(確率的劣勾配降下法?)の関数𝐹への適用と同一
8.3.1 Linear classification
Perceptronによる更新(2)
53. ෨𝐹 w, x = max(0, −𝑓 x w ⋅ x )のため,
𝑦𝑡 w ⋅ x 𝑡 < 0のとき
∇ 𝑤
෨𝐹 w, x 𝑡 = −𝑦𝑡x 𝑡
𝑦𝑡 w ⋅ x 𝑡 > 0のとき
∇ 𝑤
෨𝐹 w, x 𝑡 = 0
よって下式のように表現可能
Perceptronアルゴリズムは,この式と同様に重みを更新
関数𝐹を最小化する重みベクトルを求める
53
8.3.1 Linear classification
Perceptronによる更新(4)