SlideShare a Scribd company logo
1 of 13
Knowledge Graph Alignment
with Entity-Pair Embedding
Zhichun Wang, Jinjian Yang, Xiaoju Ye
EMNLP 2020 , @論文読み会, 紹介者: Yoshiaki Kitagawa
※スライド中の資料は(論文/著者の発表スライド)を利用しています(スライド最後にリンクあり)
Summary
 Task
 Knowledge Graph Alignment
 2 つの KG の Entity の対応 をとる
 先行研究と比べてどこがすごいか?
 KG Alignment で State-of-the-art で性能
がめちゃくちゃ良い
 Graph attention networks (GAT) model に
なかった edge に対する attention を貼る
手法
 技術や手法のキモ
 Entity pair に対する embedding と PCG に
よる KG Alignment の定式化
 CNN による特徴抽出と edge を考慮した
GAT model の改良した GNN
 どうやって有効だと検証したか?
 ラベル付された entity alignment データを
使って学習と予測
 正解と予測した上位 k 個を用いて MRR と
hits at K を計測
 議論はあるか?
 性能が良すぎるので、正当な比較か厳密に
チェックしたい
 翻訳誤りに起因する誤りがありそう
 次に読むべき論文
 以下を読んだ方が本論文の理解が深まりそう
 GAT model (Velickovic et al., 2017)
Pair-wise Connectivity Graph (PCG)
 2つのシンプルな KG の例
 Node が 3つの KG を2つ合わせて
PCG を作る
 3*3 で 9個の 可能な node pair
 2*2 で 2個の relation pair
Generating the PCG
 可能な entity pair の数は膨大なので LSH (Local Sensitive Hashing)を使う
 Entity の前処理として以下を実行しておく
 N-grams of Names; entity 名の文字 N-gram
 N-grams of Attributes; Attribute 名の文字 N-gram
 Seeding alignments; あらかじめ対応が取れているものは繋げておく
 Jaccard 係数の閾値を決めて閾値以下は候補から除外
Overall Architecture
まず全体図を確認。この後各要素を追っていく
CNN-based Feature Extraction
 同じ entity は同じ attribute を持つ傾向
がある
 2つの entity の attribute の similarity マ
トリックスを作成
 類似度は文字 n-gram の jaccard 係数
 L 階層の Max-pooling で xi を作成
Name similarities
 以下の4つを並べたベクトル
 z1: String equality
 完全一致か否かの binary
 z2: Edit Distance
 z3: Jaccard Similarity
 文字 N-gram
 z4: Substring Similarity
 LCS は Longest Common Substring
GNN-based Feature Propagation (図)
 hi: CNN の出力と Name similarity の concat
GNN-based Feature Propagation (式)
W はそれぞれ違う重み?
↑ tk が edge 情報を持つのでここが重要そう
Training
 正解の entity ペアを用いて学習
 同じ正解データで、CNN と GNN 部分を分けて学習
 損失関数はどちらの学習でも (13)の margin-based ranking loss function を使用
Experimental Results
 DBP (DBpedia) の言語違いのペア、DBP-WD, DBP-YG で MRR と Hits@k を測定(他言語の変換は翻訳を利用)
 EPEA (Entity-Pair Embedding Approach) が提案手法
Summary
 Task
 Knowledge Graph Alignment
 2 つの KG の Entity の対応 をとる
 先行研究と比べてどこがすごいか?
 KG Alignment で State-of-the-art で性能
がめちゃくちゃ良い
 Graph attention networks (GAT) model に
なかった edge に対する attention を貼る
手法
 技術や手法のキモ
 Entity pair に対する embedding と PCG に
よる KG Alignment の定式化
 CNN による特徴抽出と edge を考慮した
GAT model の改良した GNN
 どうやって有効だと検証したか?
 ラベル付された entity alignment データを
使って学習と予測
 正解と予測した上位 k 個を用いて MRR と
hits at K を計測
 議論はあるか?
 性能が良すぎるので、正当な比較か厳密に
チェックしたい
 翻訳誤りに起因する誤りがありそう
 次に読むべき論文
 以下を読んだ方が本論文の理解が深まりそう
 GAT model (Velickovic et al., 2017)
参考資料
 論文: https://www.aclweb.org/anthology/2020.emnlp-main.130.pdf

More Related Content

What's hot

Prml Reading Group 11 LDPC
Prml Reading Group 11 LDPCPrml Reading Group 11 LDPC
Prml Reading Group 11 LDPC
正志 坪坂
 

What's hot (19)

[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
[DL輪読会]A Higher-Dimensional Representation for Topologically Varying Neural R...
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
【輪読会】Braxlines: Fast and Interactive Toolkit for RL-driven Behavior Engineeri...
 
[DL輪読会]物理学による帰納バイアスを組み込んだダイナミクスモデル作成に関する論文まとめ
[DL輪読会]物理学による帰納バイアスを組み込んだダイナミクスモデル作成に関する論文まとめ[DL輪読会]物理学による帰納バイアスを組み込んだダイナミクスモデル作成に関する論文まとめ
[DL輪読会]物理学による帰納バイアスを組み込んだダイナミクスモデル作成に関する論文まとめ
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
Graph Attention Network
Graph Attention NetworkGraph Attention Network
Graph Attention Network
 
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
 
グラフデータ分析 入門編
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
 
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
 
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
[DL輪読会]Graph Convolutional Policy Network for Goal-Directed Molecular Graph G...
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
 
introduce to Multimodal Deep Learning for Robust RGB-D Object Recognition
introduce to Multimodal Deep Learning for Robust RGB-D Object Recognitionintroduce to Multimodal Deep Learning for Robust RGB-D Object Recognition
introduce to Multimodal Deep Learning for Robust RGB-D Object Recognition
 
Prml Reading Group 11 LDPC
Prml Reading Group 11 LDPCPrml Reading Group 11 LDPC
Prml Reading Group 11 LDPC
 
【CVPR 2019】Do Better ImageNet Models Transfer Better?
【CVPR 2019】Do Better ImageNet Models Transfer Better?【CVPR 2019】Do Better ImageNet Models Transfer Better?
【CVPR 2019】Do Better ImageNet Models Transfer Better?
 
Reducing the Dimensionality of Data with Neural Networks
Reducing the Dimensionality of Data with Neural NetworksReducing the Dimensionality of Data with Neural Networks
Reducing the Dimensionality of Data with Neural Networks
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
 
BERT+XLNet+RoBERTa
BERT+XLNet+RoBERTaBERT+XLNet+RoBERTa
BERT+XLNet+RoBERTa
 
STAIR Lab Seminar 202105
STAIR Lab Seminar 202105STAIR Lab Seminar 202105
STAIR Lab Seminar 202105
 

Similar to Knowledge_graph_alignment_with_entity-pair_embedding

A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Ace12358
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
Ace12358
 

Similar to Knowledge_graph_alignment_with_entity-pair_embedding (20)

GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
ACL 2015 読み会 @ 小町研 "Gated Recursive Neural Network for Chinese Word Segmentat...
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
 
Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章Pythonで体験する深層学習 5章
Pythonで体験する深層学習 5章
 
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
論文紹介「PointNetLK: Robust & Efficient Point Cloud Registration Using PointNet」
 
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
 
ICML2018読み会: Overview of NLP / Adversarial Attacks
ICML2018読み会: Overview of NLP / Adversarial AttacksICML2018読み会: Overview of NLP / Adversarial Attacks
ICML2018読み会: Overview of NLP / Adversarial Attacks
 
Paper: seq2seq 20190320
Paper: seq2seq 20190320Paper: seq2seq 20190320
Paper: seq2seq 20190320
 
[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers[DL輪読会]End-to-End Object Detection with Transformers
[DL輪読会]End-to-End Object Detection with Transformers
 
Graph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generationGraph convolutional policy network for goal directed molecular graph generation
Graph convolutional policy network for goal directed molecular graph generation
 
ArtTrack: Articulated Multi-Person Tracking in the Wild : CV勉強会関東
ArtTrack: Articulated Multi-Person Tracking in the Wild : CV勉強会関東ArtTrack: Articulated Multi-Person Tracking in the Wild : CV勉強会関東
ArtTrack: Articulated Multi-Person Tracking in the Wild : CV勉強会関東
 
Jokyokai
JokyokaiJokyokai
Jokyokai
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
A semantics aware-transformer_model_of_relation_linking_for_knowledge_base_qu...
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing
 
[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map[DL輪読会]Learning to Navigate in Cities Without a Map
[DL輪読会]Learning to Navigate in Cities Without a Map
 
AIエッジコンテスト|1位 & 3位解法
AIエッジコンテスト|1位 & 3位解法AIエッジコンテスト|1位 & 3位解法
AIエッジコンテスト|1位 & 3位解法
 
【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016【2016.08】cvpaper.challenge2016
【2016.08】cvpaper.challenge2016
 
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
 
AlphaGo Zero 解説
AlphaGo Zero 解説AlphaGo Zero 解説
AlphaGo Zero 解説
 

More from Ace12358

Can language models be biomedical knowledge bases
Can language models be biomedical knowledge basesCan language models be biomedical knowledge bases
Can language models be biomedical knowledge bases
Ace12358
 
I know what you asked graph path learning using amr for commonsense reasoning
I know what you asked  graph path learning using amr for commonsense reasoningI know what you asked  graph path learning using amr for commonsense reasoning
I know what you asked graph path learning using amr for commonsense reasoning
Ace12358
 
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Ace12358
 
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filteringThe contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
Ace12358
 
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb  a-dual_learning_bridge_between_text_and_knowledge_baseDual tkb  a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Ace12358
 
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Neural relation extraction for knowledge base enrichment introduced by Yoshia...Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Ace12358
 

More from Ace12358 (15)

Can language models be biomedical knowledge bases
Can language models be biomedical knowledge basesCan language models be biomedical knowledge bases
Can language models be biomedical knowledge bases
 
I know what you asked graph path learning using amr for commonsense reasoning
I know what you asked  graph path learning using amr for commonsense reasoningI know what you asked  graph path learning using amr for commonsense reasoning
I know what you asked graph path learning using amr for commonsense reasoning
 
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
Camouflaged chinese spam_content_detection_with_semi-supervised_generative_ac...
 
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filteringThe contribution of_stylistic_information_to_content-based_mobile_spam_filtering
The contribution of_stylistic_information_to_content-based_mobile_spam_filtering
 
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb  a-dual_learning_bridge_between_text_and_knowledge_baseDual tkb  a-dual_learning_bridge_between_text_and_knowledge_base
Dual tkb a-dual_learning_bridge_between_text_and_knowledge_base
 
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Neural relation extraction for knowledge base enrichment introduced by Yoshia...Neural relation extraction for knowledge base enrichment introduced by Yoshia...
Neural relation extraction for knowledge base enrichment introduced by Yoshia...
 
Emnl preading2016
Emnl preading2016Emnl preading2016
Emnl preading2016
 
Chainer meetup lt
Chainer meetup ltChainer meetup lt
Chainer meetup lt
 
Emnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cwsEmnlp2015 reading festival_lstm_cws
Emnlp2015 reading festival_lstm_cws
 
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
 
Naacl2015unsupervised morph
Naacl2015unsupervised morphNaacl2015unsupervised morph
Naacl2015unsupervised morph
 
DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358DeepLearning論文紹介@Ace12358
DeepLearning論文紹介@Ace12358
 
DeepLearning3@Ace12358
DeepLearning3@Ace12358DeepLearning3@Ace12358
DeepLearning3@Ace12358
 
EMNLPreading@Ace12358
EMNLPreading@Ace12358 EMNLPreading@Ace12358
EMNLPreading@Ace12358
 
ACLreading2014@Ace12358
ACLreading2014@Ace12358ACLreading2014@Ace12358
ACLreading2014@Ace12358
 

Recently uploaded

Recently uploaded (11)

論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 

Knowledge_graph_alignment_with_entity-pair_embedding

  • 1. Knowledge Graph Alignment with Entity-Pair Embedding Zhichun Wang, Jinjian Yang, Xiaoju Ye EMNLP 2020 , @論文読み会, 紹介者: Yoshiaki Kitagawa ※スライド中の資料は(論文/著者の発表スライド)を利用しています(スライド最後にリンクあり)
  • 2. Summary  Task  Knowledge Graph Alignment  2 つの KG の Entity の対応 をとる  先行研究と比べてどこがすごいか?  KG Alignment で State-of-the-art で性能 がめちゃくちゃ良い  Graph attention networks (GAT) model に なかった edge に対する attention を貼る 手法  技術や手法のキモ  Entity pair に対する embedding と PCG に よる KG Alignment の定式化  CNN による特徴抽出と edge を考慮した GAT model の改良した GNN  どうやって有効だと検証したか?  ラベル付された entity alignment データを 使って学習と予測  正解と予測した上位 k 個を用いて MRR と hits at K を計測  議論はあるか?  性能が良すぎるので、正当な比較か厳密に チェックしたい  翻訳誤りに起因する誤りがありそう  次に読むべき論文  以下を読んだ方が本論文の理解が深まりそう  GAT model (Velickovic et al., 2017)
  • 3. Pair-wise Connectivity Graph (PCG)  2つのシンプルな KG の例  Node が 3つの KG を2つ合わせて PCG を作る  3*3 で 9個の 可能な node pair  2*2 で 2個の relation pair
  • 4. Generating the PCG  可能な entity pair の数は膨大なので LSH (Local Sensitive Hashing)を使う  Entity の前処理として以下を実行しておく  N-grams of Names; entity 名の文字 N-gram  N-grams of Attributes; Attribute 名の文字 N-gram  Seeding alignments; あらかじめ対応が取れているものは繋げておく  Jaccard 係数の閾値を決めて閾値以下は候補から除外
  • 6. CNN-based Feature Extraction  同じ entity は同じ attribute を持つ傾向 がある  2つの entity の attribute の similarity マ トリックスを作成  類似度は文字 n-gram の jaccard 係数  L 階層の Max-pooling で xi を作成
  • 7. Name similarities  以下の4つを並べたベクトル  z1: String equality  完全一致か否かの binary  z2: Edit Distance  z3: Jaccard Similarity  文字 N-gram  z4: Substring Similarity  LCS は Longest Common Substring
  • 8. GNN-based Feature Propagation (図)  hi: CNN の出力と Name similarity の concat
  • 9. GNN-based Feature Propagation (式) W はそれぞれ違う重み? ↑ tk が edge 情報を持つのでここが重要そう
  • 10. Training  正解の entity ペアを用いて学習  同じ正解データで、CNN と GNN 部分を分けて学習  損失関数はどちらの学習でも (13)の margin-based ranking loss function を使用
  • 11. Experimental Results  DBP (DBpedia) の言語違いのペア、DBP-WD, DBP-YG で MRR と Hits@k を測定(他言語の変換は翻訳を利用)  EPEA (Entity-Pair Embedding Approach) が提案手法
  • 12. Summary  Task  Knowledge Graph Alignment  2 つの KG の Entity の対応 をとる  先行研究と比べてどこがすごいか?  KG Alignment で State-of-the-art で性能 がめちゃくちゃ良い  Graph attention networks (GAT) model に なかった edge に対する attention を貼る 手法  技術や手法のキモ  Entity pair に対する embedding と PCG に よる KG Alignment の定式化  CNN による特徴抽出と edge を考慮した GAT model の改良した GNN  どうやって有効だと検証したか?  ラベル付された entity alignment データを 使って学習と予測  正解と予測した上位 k 個を用いて MRR と hits at K を計測  議論はあるか?  性能が良すぎるので、正当な比較か厳密に チェックしたい  翻訳誤りに起因する誤りがありそう  次に読むべき論文  以下を読んだ方が本論文の理解が深まりそう  GAT model (Velickovic et al., 2017)