KML輪読
「深層学習」
第6章
今井研究室4年
阿部佑樹
2018/6/9
前回までのあらすじ
1. 前々回:「深層学習」6章
○ 内容は「ゼロから作る」の総集編
2. 前回:(深層学習)テンソル代数
○ 「深層学習」を読むための行列のお勉強
今回から「深層学習」読んでいきます!
必要になると思う知識
● ニューラルネットワークの雰囲気
● 確率分布と期待値
○ 補足しながらやります
○ 今までのアプローチと違うところ 2
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 3
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 4
XORの復習
グラフィカルモデル
完全なモデル
Wとcでパラメータ化されている
という意味
学習によって更新するのはこれ
5
関数をどう設計すべきか
例えばどちらも線形モデルにしてみる
すると完全なモデルは
アフィン変換+ReLUにしてみる
完全なモデル
6
XORの復習まとめ
XORを近似する関数を学習するために、
● 隠れ層(hidden layer)の導入
● 活性化関数(activation function)の導入
○ 非線形関数(ReLU)
モデル構築に関して他に習ってきたこと
● 活性化関数:シグモイド
● 損失関数:平均二乗誤差、交差エントロピー
● 勾配更新:誤差逆伝播法(だいたい一緒なので割愛)
「深層学習」第6章を通して1つずつ詳しく見ていこう
7
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 8
機械学習の基礎(補足)
データを科学的に分析する際の数理的手法:統計学
データの分析から、データ自身ではなくその背後にある母集団の
知識を獲得することを目標にしている。
母集団の性質はデータ生成分布Pdata(x)により特徴付けられて
いるものとする。
9
⇒ 不確実性を伴う現象を確率的にモデル化する!
システムに寄与する全ての因子を観測することはできないので、
データは何か確率的なプロセスに従って生じているものとみなす。
機械学習の基礎(補足)
データを特徴付けるのに十分な統計量をパラメータと呼ぶ。
真のデータ生成分布Pdata(x)は無数のパラメータを持っている
(はず)なので完全に知ることは望み薄。
なので通常は、
真のデータ生成分布Pdata(x)をよく近似できると期待されるモデ
ル分布Pmodel(x;θ)を仮定し最適値θ*をデータから推定。
10
点推定
データ集合 に対して推定値
が真のパラメータを良く近似
機械学習の基礎(補足)
パラメトリックな場合には広く使える強力な手法
データ生成分布のパラメトリックモデルPmodel(x;θ)と与えられた
データ集合を用いて、
11
最尤推定法 (maximal likelihood method)
変数θに関する量とみなしてL(θ)と書き尤度関数と呼ぶ。
ある観測値が得られたのは、パラメータθの値がある観測値が得
られる確率を大きくするものだったから、と考える。
機械学習の基礎(補足)
すると与えられたデータに対して尤もらしいパラメータの値は尤度
を最大化したものだということになる。
12
実用上は計算機がアンダーフローを起こさないよう対数を取る。
機械学習では最小化の問題を解くことが多いので負の対数尤度
を取る。よって推定するパラメータは、
このように何らかの目的関数を最大化、あるいは最小化すること
で最適なパラメータ値を決定するのが機械学習における常套手
段である。
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 13
コスト関数(損失関数)
大抵パラメトリックモデルでは最尤法の原則を使用する。
無視された定数項はガウス分布の分散に基づく。
出力分布の最尤推定と平均二乗誤差の最小化が等価。
コスト関数の具体的な形は対数尤度の形によって異なる。
例えば回帰、
14
コスト関数(損失関数)
他には分類、
15
これをデータによって学習させるには最尤法に従って、
機械学習の実装で用いられるのは負の対数尤度だった。
これで誤差関数を定義したものは、データの経験分布とモデル分
布の間の交差エントロピー(cross entropy)と呼ばれる。
コスト関数(損失関数)(補足)
同じ確率変数Xに対して異なる確率分布P(X)とQ(X)があるとき、
カルバックライブラーダイバージェンスを使ってこの2つの分布に
どれだけ差があるのかを測ることができる。
16
PとQが同じ分布の場合にKLダイバージェンスは0になる。また
KLダイバージェンスは非負である。
交差エントロピーはKLダイバージェンスと密接に関係
= Qに関して交差エントロピーを最小化
= Qに関してKLダイバージェンスを最小化
Qに関して負の対数尤度を最小化
コスト関数の選び方は大事
変化が飽和する(非常に平坦になる)関数は使えない。
17
分類において正解ラベルがy=1の時の損失の比較、x>0が正解でx<0が不正解
二乗誤差 交差エントロピー
負の対数尤度のコスト関数に含まれる対数関数は、出力ユニット
の指数関数の影響をうちけす。
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 18
出力ユニット
コスト関数の選択は出力ユニットの選択と強く結びついている。ほ
とんどの場合、単純にデータ分布とモデル分布の間の交差エント
ロピーが利用される。
さっきの例は、出力ユニットがガウス分布に従うなら、
出力の表現方法の選択によって交差エントロピーの関数の形が
決まる。
19
出力ユニット:ガウス分布
非線形関数を伴わないアフィン変換に基づくユニットを線形ユニッ
トと呼ぶ。線形出力層を使って条件付きガウス分布の平均を出力
することが多い。
出力が1次元なら典型的な回帰タスク
(例)人の画像が入力されたら、その人の年齢を答える
線形ユニットは飽和することがないため、勾配に基づく最適化手
法と相性が良い。
20
出力ユニット:ベルヌーイ分布
多くのタスクで二値変数の予測が必要となる。
確率として有効であるためには、
● 総和が1
● 確率は0以上
この制約を満たした上で、モデルが間違った答えを出した場合に
は必ず急な勾配になるような関数はシグモイド関数。
一方の分布が近似できればもう一方もちゃんと近似される
21
出力ユニット:ベルヌーイ分布
コスト関数の中の対数がシグモイドの指数を打ち消す。損失をソ
フトプラス関数の形で書き直すと、損失は(1-2y)zが大きな負の値
になった時だけ飽和することがわかる。つまり飽和はモデルが正
しい答えを取得したときだけ起こる。
ソフトプラス関数
22
出力ユニット:マルチヌーイ分布
N個の取りうる離散値に関する確率分布を表現したい場合はソフ
トマックス関数が利用できる。
二値変数に関する確率分布を表現するために利用されたシグモ
イド関数の一般化と考えられる。
23
出力ユニット:マルチヌーイ分布
対数尤度を最大化するときは、全ての
zjを小さくする方向に寄与する。
尤度(出力yの値がiとなるような確率)は、
入力が常にコスト関数に直接影響こ
の項は飽和しない
対数尤度を最大化するときは、ziを大
きくする方向に寄与する。
直感的に、負の対数尤度のコスト関数は、最も活性化されている
間違った予測に対して必ず大きなペナルティを課す。 24
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 25
隠れユニット
ここまでは勾配降下法によって学習するパラメトリックな機械学習
アルゴリズムのほとんどに共通するものに焦点を当ててきた。
順伝播型ネットワーク固有の問題
モデルの隠れ層の中で使用する隠れユニットの種類をどう選択す
るか(理論的な原則に基づく確実な指針は多くない)
各種の隠れユニットに関して、それを使うことについての基本的な
洞察をいくつか説明する。
26
隠れユニット:ReLU
ユニットが活性化している領域では、微分はどこでも1である。二
回微分の影響を受ける活性化関数と比べて、勾配の方向の方が
ずっと有用であるということを意味している。
ReLU(Rectified Linear Unit)
パラメータを初期化する場合は、bの全ての要素を0.1などの小さい正の値に設定す
るとよく機能する。ReLUが訓練集合のほとんどの入力に対して最初は活性化し、勾
配が通過できるようになる。
27
ReLUの欠点と様々な一般化
ReLUは活性化値が0になるような事例が勾配に基づく手法では
学習できない。
z<0となる場合のゼロでない傾きに基づく一般化
Absolute value rectification
αi=-1に固定し|z|を得る。画像の中の物体
認識に使用 (Jarrett et al., 2009)
leaky ReLU
αi=0.01のような小さな値に固定。
parametric ReLU
αiを学習可能なパラメータとして扱う。
28
マックスアウトユニット
マックスアウトユニットは要素
ごとに関数を適用する代わり
に、入力zをk個のグループに
分ける。個々のマックスアウ
トユニットは、そのグループ
の1つから最大の要素を出力
する。
http://blog.yusugomori.com/post/133257383300/%E6%95%B0%E5%BC%8F%E3%81%A7%E6
%9B%B8%E3%81%8D%E4%B8%8B%E3%81%99-maxout-networks
29
ロジスティックシグモイド
ロジスティックシグモイド
微分の結果が良い
シグモイドユニットはほとんどの定義域で飽和す
る。0に近い点でのみ非常に敏感に入力に対して
反応する。飽和領域が広いので勾配に基づく学習
は困難である。順伝播型ネットワーク以外ではもっ
と一般的に利用されている。 30
ハイパボリックタンジェント
ハイパボリックタンジェント
シグモイド関数と近い関係
0近傍の振る舞いが良い
tanhは0付近では恒等関数に似ているため、深層ニューラル
ネットワークの活性化関数の値を小さくできれば、線形モデルを
訓練することと似ている。
31
今日のトピック
● XORの復習
● 機械学習の基礎(補足)
● コスト関数
○ 負の対数尤度
● 出力ユニット
○ ガウス分布、ベルヌーイ分布、マルチヌーイ分布
● 隠れユニット
○ ReLU、ReLUの一般化、マックスアウトユニット、シグモイ
ド、ハイパボリックタンジェント
● 機械学習で有名な定理
○ 普遍性定理
○ ノーフリーランチ定理 32
普遍性定理
ネットワークが十分な数の隠れユニットを持つ場合、線形の出力
層と(ロジスティックシグモイド活性化関数のような)「押しつぶす」
ことができる活性化関数(ReLUもOK)を持つ隠れ層が少なくとも
1つ含まれる順伝播型ネットワークは、どんなボレル可測関数でも
任意の精度で近似できる。
ひらたく言えば、、、
順伝播ニューラルネットワークは任意の関数を任意の精度で近似
できる!(数学科の人ごめんなさい)
1つの隠れ層でもこの定理は成り立つ(深層でなくてよい)
33
普遍性定理
普遍性定理は、どんな関数を学習するかに関わらず、大きなMLP
であればその関数を表現できるということを意味している。しかし
訓練アルゴリズムがその関数を学習できるかどうかは保証されて
いない。
● 目的の関数に対応するパラメータの値を発見できない可能性
● 訓練アルゴリズムは過剰適合が理由で間違った関数を選択
する可能性
1つの隠れ層を持つ順伝播型ネットワークは任意の関数を表現す
るのに十分だが、その層は非現実的に大きなサイズとなる可能性
がある。多くの場合、より深いモデルを利用すると、目的の関数を
表現するために必要なユニットの数を減らし、汎化誤差も減らすこ
とができる。
34
深いモデルを使うことへの様々な解釈
学習したい関数が複数の単純な関数で構成されるという非常に
汎用的な信念を意味している。
統計的に
学習の問題は潜在的な変動要因を発見することであり、さらには
それがもっと単純な他の潜在的な変動要因で記述できると考えら
れる。
学習したい関数が複数のステップからなるコンピュータプログラム
であり、その各ステップは直前のステップの出力を利用するという
信念を表現していると解釈できる。
表現学習的に
コンピュータサイエンス的に
35
ノーフリーランチ定理
あらゆる問題で性能の良い汎用最適化戦略は理論上不可能であ
り、ある戦略が他の戦略より性能がよいのは、現に解こうとしてい
る特定の問題に対して特殊化(専門化)されている場合のみであ
る
36
コスト関数の極値を探索するあらゆるアルゴリズムは、全ての可
能なコスト関数に適用した結果を平均すると同じ性能となる
(Wikipediaから引用)
ノーフリーランチ定理と普遍性定理
普遍性定理
順伝播ニューラルネットワークは任意の関数を任意の精度で近似
できる
ノーフリーランチ定理
普遍的に優れた機械学習アルゴリズムは存在しない
37
ある関数が与えられたときに、その関数を任意の精度で近似でき
る順伝播ネットワークが存在する。
関数を表現するための普遍的なシステム
普遍性定理
ノーフリーランチ定理
まとめ
今日の内容は、
● 機械学習を確率的な側面から見てみた
● 順伝播型ニューラルネットワークの構成要素を詳しく見てみた
使った参考書は、
● 深層学習(第6章)
● これならわかる深層学習入門(第2章)
もうちょっと詳しく知りたい人は、
● 深層学習の最初から読んでみる
38

深層学習 第6章