SlideShare a Scribd company logo
1 of 6
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]
Model
-Encoding Layer
-Reasoning Layers
-Answering Layer
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]
Encoding Layer
• 単語列(事実と質問)を固定長ベクトルに変換
• GRUを使用 単語ベクトル列Xを入力とする
• 前向き計算
• は単語埋め込み, は重み行列
• 最終隠れ状態 を単語列の表現として扱う
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]
Reasoning Layers
Question-Fact Interaction
• 一般的に、 𝑞 𝑘
(𝑙)
と𝑓𝑘
(𝑙)
は前の層とは次元が異なり得る
• 𝐷𝑁𝑁𝑙を単層とすると
• 𝑞 𝑘
(𝑙)
は事実Kとのインタラクション後のシステムの質問の答え
に対する理解の更新
• 𝑓𝑘
(𝑙)
はK番目の事実の変化を記録
• 𝑞 𝑘
(𝑙)
, 𝑓𝑘
(𝑙)
は推論過程の‘状態’を保持
非線形活性化関数
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]
Reasoning Layers
Pooling Average/Max Pooling:
𝑞(𝑙)のn番目の要素を得るために から同じ位置の要素の平均/最大
をとる
Gating:
𝑞 𝑘
(𝑙)
の特徴量の確からしさを によって決定するgating network
𝑔 𝑙 (. )を追加
出力 は𝑞 𝑘
(𝑙)
と同じ次元でそのn番目の要素は正規化の後𝑞(𝑙)
を求める上で𝑞 𝑘
(𝑙)
の対応する要素に対する重みとして使われる
Model-based:
事実の時系列構造を考慮するために の情報を結合するのにCNN
やRNNを使う
プーリングの目的は、すべての
事実とのインタラクション直後
の質問の理解を融合することで、
質問の現在の状態を作り異なる
事実との比較を可能にする
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]
Answering Layer
• 推論タスクを分類問題として定式化する
Type I: Yes-Noで答える質問
Type II: 答えの候補の集合が小さい特殊な質問
• 効果的なクラスが事例ごとに動的に変化する分類はNEURAL
REASONERでは直接解けないので以下のスコア関数を定義
• 𝑔 𝑚𝑎𝑡𝑐ℎは関数(e.g. DNN)
• 𝑤𝑧はクラスzの埋め込み(zはタスクごとに動的に決定)
• とソフトマックス分類器のパラメータを調整
• 最後の答えを唯一の教師としてend-to-endで訓練を行う
• 分類のコストに交差エントロピーを用いる
Training
TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]

More Related Content

What's hot

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
Nielsen chuang-5.3.1
Nielsen chuang-5.3.1Nielsen chuang-5.3.1
Nielsen chuang-5.3.1GM3D
 
Divisor
DivisorDivisor
Divisoroupc
 
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Yukiyoshi Sasao
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介Taku Yoshioka
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12matsuolab
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)MLSE
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)Motoya Wakiyama
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-studyNaoya Chiba
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural NetworksSeiya Tokui
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0sleipnir002
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデルshow you
 

What's hot (15)

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
Nielsen chuang-5.3.1
Nielsen chuang-5.3.1Nielsen chuang-5.3.1
Nielsen chuang-5.3.1
 
Divisor
DivisorDivisor
Divisor
 
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
PRML輪読#12
PRML輪読#12PRML輪読#12
PRML輪読#12
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
 
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
 
パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0パターン認識02 k平均法ver2.0
パターン認識02 k平均法ver2.0
 
13.2 隠れマルコフモデル
13.2 隠れマルコフモデル13.2 隠れマルコフモデル
13.2 隠れマルコフモデル
 

More from poppyuri

Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読poppyuri
 
Learning visual knowledge memory networks for visual question answering 文献講読
Learning visual knowledge memory networks for visual question answering 文献講読Learning visual knowledge memory networks for visual question answering 文献講読
Learning visual knowledge memory networks for visual question answering 文献講読poppyuri
 
Hybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memoryHybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memorypoppyuri
 
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...poppyuri
 
Complex Sequential Question Answering: Towards Learning to Converse Over Link...
Complex Sequential Question Answering: Towards Learning to Converse Over Link...Complex Sequential Question Answering: Towards Learning to Converse Over Link...
Complex Sequential Question Answering: Towards Learning to Converse Over Link...poppyuri
 
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読poppyuri
 

More from poppyuri (6)

Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読Learning structured embeddings of knowledge bases 文献講読
Learning structured embeddings of knowledge bases 文献講読
 
Learning visual knowledge memory networks for visual question answering 文献講読
Learning visual knowledge memory networks for visual question answering 文献講読Learning visual knowledge memory networks for visual question answering 文献講読
Learning visual knowledge memory networks for visual question answering 文献講読
 
Hybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memoryHybrid computing using a neural network with dynamic external memory
Hybrid computing using a neural network with dynamic external memory
 
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...
IMPROVING DIFFERENTIABLE NEURAL COMPUTERS THROUGH MEMORY MASKING, DE-ALLOCATI...
 
Complex Sequential Question Answering: Towards Learning to Converse Over Link...
Complex Sequential Question Answering: Towards Learning to Converse Over Link...Complex Sequential Question Answering: Towards Learning to Converse Over Link...
Complex Sequential Question Answering: Towards Learning to Converse Over Link...
 
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読
Differentiable reasoning over a virtual knowledge base (Dhingra+ 2020) 文献講読
 

Towards neural network-based reasoning 文献講読

  • 1. TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015] Model -Encoding Layer -Reasoning Layers -Answering Layer
  • 2. TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015] Encoding Layer • 単語列(事実と質問)を固定長ベクトルに変換 • GRUを使用 単語ベクトル列Xを入力とする • 前向き計算 • は単語埋め込み, は重み行列 • 最終隠れ状態 を単語列の表現として扱う
  • 3. TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015] Reasoning Layers Question-Fact Interaction • 一般的に、 𝑞 𝑘 (𝑙) と𝑓𝑘 (𝑙) は前の層とは次元が異なり得る • 𝐷𝑁𝑁𝑙を単層とすると • 𝑞 𝑘 (𝑙) は事実Kとのインタラクション後のシステムの質問の答え に対する理解の更新 • 𝑓𝑘 (𝑙) はK番目の事実の変化を記録 • 𝑞 𝑘 (𝑙) , 𝑓𝑘 (𝑙) は推論過程の‘状態’を保持 非線形活性化関数
  • 4. TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015] Reasoning Layers Pooling Average/Max Pooling: 𝑞(𝑙)のn番目の要素を得るために から同じ位置の要素の平均/最大 をとる Gating: 𝑞 𝑘 (𝑙) の特徴量の確からしさを によって決定するgating network 𝑔 𝑙 (. )を追加 出力 は𝑞 𝑘 (𝑙) と同じ次元でそのn番目の要素は正規化の後𝑞(𝑙) を求める上で𝑞 𝑘 (𝑙) の対応する要素に対する重みとして使われる Model-based: 事実の時系列構造を考慮するために の情報を結合するのにCNN やRNNを使う プーリングの目的は、すべての 事実とのインタラクション直後 の質問の理解を融合することで、 質問の現在の状態を作り異なる 事実との比較を可能にする
  • 5. TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015] Answering Layer • 推論タスクを分類問題として定式化する Type I: Yes-Noで答える質問 Type II: 答えの候補の集合が小さい特殊な質問 • 効果的なクラスが事例ごとに動的に変化する分類はNEURAL REASONERでは直接解けないので以下のスコア関数を定義 • 𝑔 𝑚𝑎𝑡𝑐ℎは関数(e.g. DNN) • 𝑤𝑧はクラスzの埋め込み(zはタスクごとに動的に決定)
  • 6. • とソフトマックス分類器のパラメータを調整 • 最後の答えを唯一の教師としてend-to-endで訓練を行う • 分類のコストに交差エントロピーを用いる Training TOWARDS NEURAL NETWORK-BASED REASONING [Peng+, 2015]