Entity relation extraction as multi-turn question answering
- 10. 回答spanの抽出
10
QAを解くことをMRC (Machine Reading Comprehension)タスクとして設定.
従来
Q = {𝑞1, 𝑞2, … , 𝑞𝑁𝑞
}
C = {𝑐1, 𝑐2, … , 𝑐𝑁𝑐
}
質問
文
=(SQuAD)
文を構成するトークン数𝑁𝑐の中から回答範囲を予測する
提案モデル
BERTのSQuADモデルを用いる
各トークンのBMEOラベルを予測
範囲を強化学習で獲得
始まりのインデックス番号
終了のインデックス番号をsoftmaxで予測
𝑐1, 𝑐2, 𝑐3, 𝑐4, 𝑐5, 𝑐6, 𝑐7, 𝑐8
0 1 0 0 0 1 0 0
トークン
出力
𝑐1, 𝑐2, 𝑐3, 𝑐4, 𝑐5, 𝑐6, 𝑐7, 𝑐8
O B I I I E O O
トークン
出力
- 12. 実験 データ
12
ACE04 ACE05 CoNLL04
entity type rel type
Person (PER) Physical (PHYS)
Organization
(ORG)
Person-Social
(PER-SOC)
Geographical
Entities (GPE)
Employment-
Organization
(EMP-ORG)
Location (LOC) Agent-Artifact
(ART)
Facility (FAC) PER/ORG
Affiliation
(OTHER-AFF)
Weapon (WEA) GPE- Affiliation
(GPE-AFF)
Vehicle (VEH) Discourse
(DISC)
entity type rel type
Person (PER) Physical (PHYS)
Organization
(ORG)
Person-Social
(PER-SOC)
Geographical
Entities (GPE)
Employment-
Organization
(EMP-ORG)
Location (LOC) Agent-Artifact
(ART)
Facility (FAC) GPE- Affiliation
(GPE-AFF)
Weapon (WEA) PART-WHOLE
Vehicle (VEH)
entity type rel type
Person (PER) LOCATED IN
Organization
(ORG)
WORK FOR
Location (LOC) ORGABASED IN
Others LIVE IN
KILL
Li and Ji (2014)と同じ分割
Miwa and Sasaki(2014)と同じ分割
- 14. 実験 結果
14
Person → Company → Position → Time の順番で抽出
tagging + relation
BERT(Entity抽出) → CNN(Relation抽出)
tagging + dependency
BERT(Entity抽出) → Biaffine(Relation抽出)