10. IV. 局所的最小値、大域的最小値及び損失関数の凸性に対する理論証明 [Kinjo, 2021]
10
損失の上界・下界 (Upper- / Lower-Bound)
i. それぞれの① 学習損失は、その② 期待損失の下
界より大きい。
ii. ③ ネットワーク全体の損失は、④ 特徴量抽出器
の期待損失の下界より小さい
i. ii.
理論 (Theorem)
学習したい特徴量抽出器の損失はネットワーク全体の損失より大きい
補題 (Lemma)
残差関数は特徴抽出機とターゲットとの誤差を学習 [114]
が微分可能な場合のみ に対して微分を要請
残差接続の特性とその理論的証明
11. IV. 局所的最小値、大域的最小値及び損失関数の凸性に対する理論証明 [Kinjo, 2021]
11
損失の上界・下界 (Upper- / Lower-Bound)
i. それぞれの① 学習損失は、その② 期待損失の下
界より大きい。
ii. ③ ネットワーク全体の損失は、④ 特徴量抽出器
の期待損失の下界より小さい
i. ii.
損失関数の形状に対する凸性
ネットワーク全体の局所的
最小値は、特徴量抽出器の
大域的最小値以下
残差接続の特性とその理論的証明
12. 表記について
i. 特徴量抽出器
ii. 変換演算子
iii. 入力に対する変換処理
iv. プーリング処理
v. 同変性
vi. 不変性
vii. 残差関数
viii. 残差接続
ix. 特徴量抽出器に対する損失
x. 特徴量抽出器に対する汎化誤差の下界
xi. ネットワークに対する損失
xii. ネットワークに対する汎化誤差の下界
xiii. 全体の損失
xiv. 全体の汎化誤差
12
残差接続の特性とその理論的証明