DeepLearning論文紹介@Ace12358
- 4. Recurrent Neural Language model
1個前の隠れ層を入力に
❖ input vector w(t): 1-
of-N coding
Vocab次元Vocab次元
❖ out put layer y(t): 確
率分布で出力
❖ hidden layer s(t):
sentence historyの
表現
Recuurentはここ!
- 6. ❖ 学習時はy(t)の対数尤度が最大になるように誤差伝搬
❖ がs(t-1)を入力として利用している
❖ このframeworkではUのcolumが1つの単語表現
❖ 注目すべきはこの単語表現が統語的、意味的情報を顕著
に表しているということ
❖ hidden layerを見ていくことによって前の情報を伝搬し
て持ってこれるイメージ
- 8. 意味性を評価するためのtest set
❖ SemEval 2012 Task2, Measuring Relation Similarity(Jurgens
eral., 2012)を使用して評価
❖ このdata set は 79のfine-grained word relationsが含まれてい
る
❖ “clothing:shirt”の関係(Class- Inclusion:Singular Collective
relation)が与えられたときこの2つの単語の関係と最も同じよ
うな単語ペア(例えば”dish:bowl”等)を出力するシステムに対
し、その正当性を評価
- 9. どのようにanalogy questionsに答えるか
❖ analogy questions に対してはcos類似度が有効
❖ question a:b c:d が与えられる(dが分からない)
❖ a,b,cのembeddingベクトルxa , xb , xcにより
❖ y = xb − xa + xcを計算してyを探す
❖ yが存在することはもちろんない。そこで
❖ これを計算する→
- 10. ❖ 左: gender relation
❖ 右: different projection and singular/plural relation
❖ 高次元の空間では多くの関係を埋め込める
- 16. UTD-NB(Rink and Harabagiu, 2012)というbest performing systemを
超えた
❖ このタスクに対して
トレーニングやチュー
ニングを行っていな
いのにも関わらず良
い結果残した
❖ 意味においてはCW
の方がHLBLより適
している