SlideShare a Scribd company logo
Reasoning With Neural Tensor Networks
for Knowledge Base Completion
Richard Socher, Danqi Chen, Christopher D. Manning, Andrew Y. Ng
2017/04/25 論文輪講
嘉村準弥
agenda
• 概要
• 手法
• 関連手法
• 実験
• まとめ
概要
概要
• 2エンティティ間の関係を予測するモデルである
Neural Tensor Networkを提案+初期化方式の改良
による性能向上
• 知識ベースにおける2単語を基に関係性予測を行っ
たところ既存のモデルを上回り、WordNetで86.2%、
FreeBaseで90.0%の精度を得ることが出来た
エンティティ間の関係性
Neural Tensor Network
(NTN)
• 2単語 が特定の関係Rである確率を求める

e.g. (Bengal tiger, has part, tail) = true
(e1,e2 )
f = tanh
WR
[1:k]
∈ d×d×k
= テンソル
slice_i = 1,...,k = テンソルのスライス
以下はニューラルネットワークの標準形式
VR ∈ k×2d
U ∈ k
bR ∈ k
提案手法
Neural Tensor Network
f = tanh
WR
[1:k]
∈ d×d×k
slice_i = 1,...,k
• テンソルの各スライスは関係性それぞれ示していると見なすことが出来る。

→違う分野においても同様の関係として学習できる

(「has part」と言う関係においてBengal tiger→tailとcar→brakeは

同様な関係と見なすことができる)
VR ∈ k×2d
U ∈ k
bR ∈ k
関連手法
関連手法(Distance Model)
• 2単語間のL1距離を測ることによって関連性を推測

→スコアが低いほど関連性が強い
• 問題点として2つのエンティティベクトルのパラメー
タが相互作用しない
WR,1,WR,2 ∈ d×d
関連手法(Singule Layer Model)
• 単一層ニューラルネットワーク(非線形)
• 2つのエンティティベクトル間の弱い相互作用しか表現
できない
• 提案手法におけるテンソル=0の状況
f = tanh
WR,1,WR,2 ∈ k×d
uR ∈ k×1
関連手法(Hadamard Model)
• 複数の線形積を介してエンティティベクトルと相互
作用する単一のベクトルとして表現
f = tanh
W1,Wrel,1,W2,Wrel,2 ∈ d×d
b1,b2 ∈ d×1
eR = relacion_ specific_ parameter
関連手法(Bilinear Model)
• 双線形形式であり、線形相互作用のみをモデル化す
ることができる。より複雑なモデルに適合できない
• 提案モデルにおけるパラメータ設定を変更した場合
と同義
g(e1,R,e2 ) = e1
T
WRe2
WR ∈ d×d
提案モデルの利点
• bilenear modelと比較して大きいデータベースの場
合に特に有用な表現力を備える
• より小さいデータセットの場合、スライスの数を減
らすことができ、関係間で変更することが可能
初期化について
• ランダム初期化でも良いが、さらなる向上を目指す

・単語ベクトルでエンティティベクトルを表現

・事前に教師なし訓練された単語ベクトルで初期化
• エンティティベクトルは単語ベクトルを平均化する
と性能が向上

Vhomo sapiens = 0.5(Vhomo + Vsapiens)
実験
データセットと各データ数
• 不要な関係は除外して学習を実行

(言い換えの関係「みかんとオレンジは似ている=オレンジとみかんは似ている」など)
• Wordnetは2つの単語を自由に設定可能
• Freebaseは関係性毎に単語が制限されている

(関係性がgenderであればもう片方の単語はmale or femaleに制限される
テストデータ
• テストデータの関係性をランダムに入れ替えること
によって 2×#Test トリプレットを作成

→ポジティブ、ネガティブデータを用意
• Freebaseに於いてはあり得る単語の組み合わせタ
イプのみ用意。

(Pablo Picaso、国籍、スペイン)→ポジティブ

(Pablo Picaso、国籍、米国)→ネガティブ

(Pablo Picaso、国籍、Gogh)→不適当(テスト未使用)
テスト方法
• 各モデルとの精度を比較
• 開発データを用いてクロスバリデーションを行い、
最適なハイパーパラメータを算出)

1. vector initialization

2. λ=0.0001

3. 隠れ層d=100 (single layer, NTN)

4. training iterations T=500

5. NTNにおけるスライス数=4
精度比較結果
• WordNet

→既存最高性能であるBilinearより2%向上

→Single Layerよりより4%向上(?)
提案手法における
関係性毎の精度
• 関係性毎に精度は異なるが、いずれも他の手法より
高精度であった

(施設や死因などは推測が困難)
初期化方法別による精度比較
• WV-init(事前に教師なし訓練された単語ベクトル
で初期化)モデルが最も性能が良くなった。
まとめ
• NTNというモデルで2エンティティ間の関係性推測
が良好に行えた
• エンティティを単語ベクトルの平均で初期化するこ
とにより性能が向上


More Related Content

What's hot

【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
 
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida
 
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
Naoya Chiba
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsSliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Fujimoto Keisuke
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
Shunta Ito
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
Daiyu Hatakeyama
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
Yusuke Uchida
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 

What's hot (20)

【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
 
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
 
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
 
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
 
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
 
点群深層学習 Meta-study
点群深層学習 Meta-study点群深層学習 Meta-study
点群深層学習 Meta-study
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture ModelsSliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 

Similar to Reasoning with neural tensor networks for knowledge base completion

文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
Shohei Okada
 
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noselfPaper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
Yusuke Fujimoto
 
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
Deep Learning JP
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
MasatoKikuchi4
 
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
Deep Learning JP
 
DLゼミ20170522
DLゼミ20170522DLゼミ20170522
DLゼミ20170522
harmonylab
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
Sho Takase
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
Deep Learning JP
 

Similar to Reasoning with neural tensor networks for knowledge base completion (10)

文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
 
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noselfPaper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
 
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
 
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
 
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
 
DLゼミ20170522
DLゼミ20170522DLゼミ20170522
DLゼミ20170522
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
 
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
 

More from Junya Kamura

Coursera Machine Learning week1
Coursera Machine Learning week1Coursera Machine Learning week1
Coursera Machine Learning week1
Junya Kamura
 
Derivative models from BERT
Derivative models from BERTDerivative models from BERT
Derivative models from BERT
Junya Kamura
 
Parameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classificationParameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classification
Junya Kamura
 
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hubMachine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
Junya Kamura
 
Deep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classificationDeep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classification
Junya Kamura
 
Deep contextualized word representations
Deep contextualized word representationsDeep contextualized word representations
Deep contextualized word representations
Junya Kamura
 
事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法
Junya Kamura
 
論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...
Junya Kamura
 
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
Junya Kamura
 

More from Junya Kamura (9)

Coursera Machine Learning week1
Coursera Machine Learning week1Coursera Machine Learning week1
Coursera Machine Learning week1
 
Derivative models from BERT
Derivative models from BERTDerivative models from BERT
Derivative models from BERT
 
Parameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classificationParameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classification
 
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hubMachine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
 
Deep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classificationDeep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classification
 
Deep contextualized word representations
Deep contextualized word representationsDeep contextualized word representations
Deep contextualized word representations
 
事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法
 
論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...
 
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
 

Reasoning with neural tensor networks for knowledge base completion