9. タスク
9
n Semantic Role Labeling: 意味役割付与タスク(タグがBIOで付与される)
l 文を入力に、誰が、誰に対して、何をしたかと言った情報を抽出する問題
l データ:Ontonotes 5.0 dataをしよう
l モデル:He2017
l assigns labels to words or phrases in a sentence that indicate their semantic role in the sentence
l It consists of the detection of the semantic arguments associated with the predicate or verb of a
sentence and their classification into their specific roles. For example, given a sentence like
"Mary sold the book to John", the task would be to recognize the verb "to sell" as representing
the predicate, "Mary" as representing the seller (agent), "the book" as representing the goods
(theme), and "John" as representing the recipient.
11. タスク
11
n Consistency Parsing: 句構造解析
l データ:PennTreebankを使用
l モデル:Joshi2018 Reconciled Span Parser
n Named Entity Recognition: 固有表現抽出,
l データ:CoNLL2003データを使用
l モデル:Peter2018を使用(charbase CNN word rep + biLSTM + CRFloss)
15. 分析3:教師なし共参照分析
15
n CoNLL 2012の一文中の代名詞が指すものについて実施。
n ベースライン
l Lee2017: 64%
l ルール
l すぐ前の名詞:27%
l 最初の名詞:35%
l +さらにルール追加(詳細不明):41%
l +数の一致:47%
n やり方
l 代名詞のベクトルから平均を引く
l 局所的な類似度がもとも高くなるから
l もっとも代名詞より前に出ている似ている名詞を選ぶ
l 精度は57%
l 数の一致み入れている。このルールを抜くと2-3%落ちる