SlideShare a Scribd company logo
Neural Relation Extraction for
Knowledge Base Enrichment
Bayu Distiawan Trisedya1, Gerhard Weikum2, Jianzhong Qi1, Rui Zhang
ACL 2019 , @論文読み会, 紹介者: Yoshiaki Kitagawa
Abstract
 KB の質向上のための関係抽出の研究
 sentence からエンティティと関係を抽出するもの
 課題: 過去の研究は, Named Entity Disambiguation (NED) に依存しているため、
NED のエラーの影響を受ける
 この課題に対処するため、
 n-gram based attention model を提案
 このモデルは word と エンティティの embedding を同時学習するモデルになっていて、
NED のエラーの影響を軽減できる
 2つの datasets で State-of-the-art を達成 (F1 で 15.51%, 8.38% の向上)
Introduction
 ⟨h, r, t⟩ を triple とする
 h: head entity
 t: tail entity
 r: relationship.
 典型的には、カバレッジ entity > relation
 この研究では、h と t の間にある関係を見つ
けることを目指す
 この研究の model は Input sentence を
Canonicalized output に翻訳する問題として
モデルを作成している
Contribution
 NED の エラーによる精度悪化を避けるため、(sentence から) triple の正規の表現
を抽出 end-to-end の model を提案
 model 提案部分は以下
 n-gram based attention model (複数単語に効率的にマッピングするため)
 word and entity embeddings の同時学習手法 for NED
 beam search と triple classifier (さらなる精度向上のための手法)
 2つの dataset で評価し、state-of-the-art. 学習データをより良くするため、共参
照 と 言い換えを使った distant supervision を適用
Overview
 大きく3つのモジュールに分かれる
 Dataset collection
 Embedding
 Neural Relation Extraction
Dataset Collection
 学習データ: sentence-triple pairs -> 質を高くしたいので以下のアプローチ
 2 step のアプローチ
1. co-reference resolution (Clark and Manning, 2016) とヒューリスティックによる
first sentence の名詞を main entity に言い換え(例)
 例: Barack Obama の Wikipedia の first sentence
 He was reelected to the Illinois Senate in 1998.
 -> Barack Obama was reelected to the Illinois Senate in 1998.
2. 辞書による言い換えと sentence filter
 PATTY (Nakashole et al., 2012), POLY (Grycner and Weikum, 2016), PPDB (Ganitkevitch et al., 2013) ->
これらは 540 predicates と 24, 013 の unique paraphrases を持つ
 relationship paraphrase の例: “place of birth” -> {born in, was born in, ...}
 sentence filter の例:
 ⟨Barack Obama, place of birth, Honolulu⟩ に対して
 OK: Barack Obama was born in 1961 in Honolulu, Hawaii.
 NG (filter される): Barack Obama visited Honolulu in 2010.
Joint Learning of Word and Entity Embeddings
 Entity embedding JE と Word embedding JW を 足した J を objective function に
TransE (Bordes et al., 2013) Skip-gram (Mikolov et al., 2013)
N-gram Based Attention Model
 普通の attention モデルだと entitiy が複数の word に対応する点を捉えることが
できない
 例: New York University 3単語で一つの entity
 そこで、N-gram (N=3) までみて attention を張る
 n indicates the n-gram combination
Triple Generation
 課題:
 モデルの出力は triple (おさらい)
 embeddings の similarity が原因で間違ったエンティティが選ばれることがある
 例: ”New York City” と “Chicago”
 課題に対する2つの戦略
 Modifyied beam
 Output entity と Input sentence の n-gram の間の、edit distance を計算して re-ranking し、top k
(k=10) を選ぶ
 triple classifier (filtering invalid triples)
 2値分類の classifier
 quality of entity embeddings (Socher et al., 2013)
 Joint learning で作成した embeddings を用いて score = (h + r − t) を作成
 負の例は negative sampling で作成
Experiments Result
Conclusion
 KB の質向上のための関係抽出の研究の課題である NER のエラー伝播の課題に対処する
ために以下を提案
 Distant supervision によるハイクオリティなデータ取得方法
 co-reference resolution と paraphrase detection
 モデル
 n-gram based attention model
 Joint learning entity and word embeddings
 modified beam search and a triple classification
 結果: state-of-the-art model を2つのデータセットで超えた
 15.51% and 8.38% (F1 score)

More Related Content

More from Ace12358

I know what you asked graph path learning using amr for commonsense reasoning
I know what you asked  graph path learning using amr for commonsense reasoningI know what you asked  graph path learning using amr for commonsense reasoning
I know what you asked graph path learning using amr for commonsense reasoning
Ace12358
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Ace12358
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Ace12358
 
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Ace12358
 
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filteringThe contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
Ace12358
 
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb  a-dual_learning_bridge_between_text_and_knowledge_baseDual tkb  a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Ace12358
 
Knowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embeddingKnowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embedding
Ace12358
 
Low-dimensional hyperbolic knowledge graph embeddings
Low-dimensional hyperbolic knowledge graph embeddingsLow-dimensional hyperbolic knowledge graph embeddings
Low-dimensional hyperbolic knowledge graph embeddings
Ace12358
 
Emnl preading2016
Emnl preading2016Emnl preading2016
Emnl preading2016
Ace12358
 
Chainer meetup lt
Chainer meetup ltChainer meetup lt
Chainer meetup lt
Ace12358
 
Emnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cwsEmnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cws
Ace12358
 
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
Ace12358
 
Naacl2015unsupervised morph
Naacl2015unsupervised morphNaacl2015unsupervised morph
Naacl2015unsupervised morph
Ace12358
 
DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358
Ace12358
 
DeepLearning3@Ace12358
DeepLearning3@Ace12358DeepLearning3@Ace12358
DeepLearning3@Ace12358
Ace12358
 
EMNLPreading@Ace12358
EMNLPreading@Ace12358 EMNLPreading@Ace12358
EMNLPreading@Ace12358
Ace12358
 
ACLreading2014@Ace12358
ACLreading2014@Ace12358ACLreading2014@Ace12358
ACLreading2014@Ace12358
Ace12358
 

More from Ace12358 (17)

I know what you asked graph path learning using amr for commonsense reasoning
I know what you asked  graph path learning using amr for commonsense reasoningI know what you asked  graph path learning using amr for commonsense reasoning
I know what you asked graph path learning using amr for commonsense reasoning
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
 
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
 
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filteringThe contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
 
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb  a-dual_learning_bridge_between_text_and_knowledge_baseDual tkb  a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
 
Knowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embeddingKnowledge_graph_alignment_with_entity-pair_embedding
Knowledge_graph_alignment_with_entity-pair_embedding
 
Low-dimensional hyperbolic knowledge graph embeddings
Low-dimensional hyperbolic knowledge graph embeddingsLow-dimensional hyperbolic knowledge graph embeddings
Low-dimensional hyperbolic knowledge graph embeddings
 
Emnl preading2016
Emnl preading2016Emnl preading2016
Emnl preading2016
 
Chainer meetup lt
Chainer meetup ltChainer meetup lt
Chainer meetup lt
 
Emnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cwsEmnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cws
 
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
 
Naacl2015unsupervised morph
Naacl2015unsupervised morphNaacl2015unsupervised morph
Naacl2015unsupervised morph
 
DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358
 
DeepLearning3@Ace12358
DeepLearning3@Ace12358DeepLearning3@Ace12358
DeepLearning3@Ace12358
 
EMNLPreading@Ace12358
EMNLPreading@Ace12358 EMNLPreading@Ace12358
EMNLPreading@Ace12358
 
ACLreading2014@Ace12358
ACLreading2014@Ace12358ACLreading2014@Ace12358
ACLreading2014@Ace12358
 

Neural relation extraction for knowledge base enrichment introduced by Yoshiaki Kitagawa

  • 1. Neural Relation Extraction for Knowledge Base Enrichment Bayu Distiawan Trisedya1, Gerhard Weikum2, Jianzhong Qi1, Rui Zhang ACL 2019 , @論文読み会, 紹介者: Yoshiaki Kitagawa
  • 2. Abstract  KB の質向上のための関係抽出の研究  sentence からエンティティと関係を抽出するもの  課題: 過去の研究は, Named Entity Disambiguation (NED) に依存しているため、 NED のエラーの影響を受ける  この課題に対処するため、  n-gram based attention model を提案  このモデルは word と エンティティの embedding を同時学習するモデルになっていて、 NED のエラーの影響を軽減できる  2つの datasets で State-of-the-art を達成 (F1 で 15.51%, 8.38% の向上)
  • 3. Introduction  ⟨h, r, t⟩ を triple とする  h: head entity  t: tail entity  r: relationship.  典型的には、カバレッジ entity > relation  この研究では、h と t の間にある関係を見つ けることを目指す  この研究の model は Input sentence を Canonicalized output に翻訳する問題として モデルを作成している
  • 4. Contribution  NED の エラーによる精度悪化を避けるため、(sentence から) triple の正規の表現 を抽出 end-to-end の model を提案  model 提案部分は以下  n-gram based attention model (複数単語に効率的にマッピングするため)  word and entity embeddings の同時学習手法 for NED  beam search と triple classifier (さらなる精度向上のための手法)  2つの dataset で評価し、state-of-the-art. 学習データをより良くするため、共参 照 と 言い換えを使った distant supervision を適用
  • 5. Overview  大きく3つのモジュールに分かれる  Dataset collection  Embedding  Neural Relation Extraction
  • 6. Dataset Collection  学習データ: sentence-triple pairs -> 質を高くしたいので以下のアプローチ  2 step のアプローチ 1. co-reference resolution (Clark and Manning, 2016) とヒューリスティックによる first sentence の名詞を main entity に言い換え(例)  例: Barack Obama の Wikipedia の first sentence  He was reelected to the Illinois Senate in 1998.  -> Barack Obama was reelected to the Illinois Senate in 1998. 2. 辞書による言い換えと sentence filter  PATTY (Nakashole et al., 2012), POLY (Grycner and Weikum, 2016), PPDB (Ganitkevitch et al., 2013) -> これらは 540 predicates と 24, 013 の unique paraphrases を持つ  relationship paraphrase の例: “place of birth” -> {born in, was born in, ...}  sentence filter の例:  ⟨Barack Obama, place of birth, Honolulu⟩ に対して  OK: Barack Obama was born in 1961 in Honolulu, Hawaii.  NG (filter される): Barack Obama visited Honolulu in 2010.
  • 7. Joint Learning of Word and Entity Embeddings  Entity embedding JE と Word embedding JW を 足した J を objective function に TransE (Bordes et al., 2013) Skip-gram (Mikolov et al., 2013)
  • 8. N-gram Based Attention Model  普通の attention モデルだと entitiy が複数の word に対応する点を捉えることが できない  例: New York University 3単語で一つの entity  そこで、N-gram (N=3) までみて attention を張る  n indicates the n-gram combination
  • 9. Triple Generation  課題:  モデルの出力は triple (おさらい)  embeddings の similarity が原因で間違ったエンティティが選ばれることがある  例: ”New York City” と “Chicago”  課題に対する2つの戦略  Modifyied beam  Output entity と Input sentence の n-gram の間の、edit distance を計算して re-ranking し、top k (k=10) を選ぶ  triple classifier (filtering invalid triples)  2値分類の classifier  quality of entity embeddings (Socher et al., 2013)  Joint learning で作成した embeddings を用いて score = (h + r − t) を作成  負の例は negative sampling で作成
  • 11. Conclusion  KB の質向上のための関係抽出の研究の課題である NER のエラー伝播の課題に対処する ために以下を提案  Distant supervision によるハイクオリティなデータ取得方法  co-reference resolution と paraphrase detection  モデル  n-gram based attention model  Joint learning entity and word embeddings  modified beam search and a triple classification  結果: state-of-the-art model を2つのデータセットで超えた  15.51% and 8.38% (F1 score)