7. 深層学習day3ー6 Word2vec ①
Word2VEC:
課題:RNNでは、単語のような可変長文字列をNNに与えることができない
→固定長文字列で単語を表現する必要がある。
学習データからボキャブラリを作成
例)I want to eat an apple everyday. にてeatを対象とする
C:ウィンドウサイズ(単語数)
C=0 I want to eat an apple everyday.
C=1 I want to eat an apple everyday.
C=2 I want to eat an apple everyday.
C=3 I want to eat an apple everyday.
→C=3のときボキャブラリ{apple iat I like to want .}
→ボキャブラリ数=7
→同一ウィンドウサイズで、様々な文章・特定の単語について
学習を行うと周辺単語の重み行列を得ることができる
→各語に対して自身=1、他を0、
要素数がボキャブラリ数に等しい「one-hotベクトル」を生成
→one-hotベクトルと重み行列の積をとることで、
特定の単語近くに出現する確率の高い単語をリストできる
大規模データによる分散表現学習が現実的な計算量で可能に
10. 深層学習day4ー2 AlphaGo ①
以下、2種類
・AlphaGo Lee
・AlphaGo Zero
・AlphaGo Lee
盤面特徴入力→畳み込み→活性化→畳み込み→・・・→全結合
学習の流れ
教師あり学習によるRollOutPolicyとPolicyNetの学習
強化学習によるPolicyNetの学習
強化学習によるValueNetの学習
・AlphaGo Zero
教師あり学習を一切行わず、強化学習のみで作成
PolicyNetとValueNetを1つのネットワークに統合
ResidualNetworkの導入
ネットワークにショートカット構造を導入して勾配の爆発、消失を
抑える効果