Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
Xiaohua Liu, Ming Zhou, Furu Wei,
Zhongyang Fu, Xiangyang Zhou
ACL2012
Joint Inference of Named Entity
Recognition and Nor...
Named Entity Recognition (NER)
● 固有表現抽出 (NER)
○ テキストから固有表現(人名、地名など)を抽出
I wanna see Anneke Gronloh.
→ PERSON
I live in New ...
Named Entity Normalization (NEN)
● 固有表現の正規化 (NEN)
○ 固有表現を曖昧性のない標準的な表現に変換
○ Anneke Gronlohは他に Mw.,Gronloh, Anneke Kronloh,
...
Purpose
● ツイートに対してNERとNENを適用
● 提案点
○ 複数のツイートに対してNERとNENを同時に解く
■ 教師あり学習
■ ツイートの冗長性を利用
○ ベースラインより高い性能を発揮
Problem of Cascaded Approach
● NERとNENは別タスク
● NER → NENの順序で適用
○ NERのoutputがNENのinput
● 問題点
○ NERのエラーがNENに伝播
■ NENのエラーの多くはN...
Joint Inference
● 複数のツイートに対してNERとNENを同時に解く
● NERの性能向上はNENの性能を向上させる
● NENからのフィードバック
·· she knew Burger King when he was a P...
Redundancy in Tweets
● 複数のツイートを同時に考慮することで
ツイートの冗長性を利用できる
·· Bobby Shaw you don’t invite the wind ··
·· I own yah ! Loool b...
Task Definition
対象:ピリオドを含むかあるクエリに関連したツイート集合
1. 各ツイートに対して固有表現とそのタイプを抽出 (NER)
○ PERSON, ORGANIZATION, PRODUCT, LOCATION
2. 各...
Method Overview
● 系列ラベリング
○ 観測列xに対してラベル列y, zを付与
■ NERのためのラベルy
■ NENのためのラベルz
○ linear chain CRF
Label for NER
● 各ツイートに対してBILOUラベルを付与: yi
m
○ B: Begining
○ I: Inside
○ L: Last
○ O: Outside
○ U: Unit-length
·· without yo...
Label for NEN
● 2値変数 zij
mn
○ 同じ単語の ti
m
と tj
n
のペア
○ 同じ実体を表す固有表現かどうか zij
mn
= 1 or -1
·· Gaga’s Christmas dinner with her...
Recognize Same Entity
固有表現のタイプと正規化ラベルを利用して
同じ実体を表す固有表現かどうかを以下の3点で判定
1. 同じ固有表現タイプである
2. 部分文字列
3. zij
mn
= 1 が存在
·· Gaga’s C...
Recognize Same Entity
固有表現のタイプと正規化ラベルを利用して
同じ固有表現かどうかを以下の3点で判定
1. 同じ固有表現タイプである
2. 部分文字列
3. zij
mn
= 1 が存在
·· Gaga’s Christ...
Recognize Same Entity
固有表現のタイプと正規化ラベルを利用して
同じ固有表現かどうかを以下の3点で判定
1. 同じ固有表現タイプである
2. 部分文字列
3. zij
mn
= 1 が存在
·· Gaga’s Christ...
Recognize Same Entity
固有表現のタイプと正規化ラベルを利用して
同じ固有表現かどうかを以下の3点で判定
1. 同じ固有表現タイプである
2. 部分文字列
3. zij
mn
= 1 が存在
·· Gaga’s Christ...
Factor Graph
● yi
m
: m番目のツイートのi番目の単語 ti
m
のNERラベル
● fi
m
: 素性関数 (yi-1
m
, yi
m
)
● zij
mn
: ti
m
とtj
n
のNENラベル
● fij
mn
:...
Model
tweets: T = {tm
}N
m=1
graph: g = (Y, Z, F, E)
Y: y-serials, Z: z-serials
F: factor vertices, E: edges
δij
mn
= 1:
t...
Training
Θ = {λ(1)
k
}K1
K=1
U {λ(2)
k
}K2
K=1
の学習
最急勾配法
Θnew
= Θold
+ Δ
λで微分
Inference
学習したΘ*を利用してY, Zを求める
Features for NER
● 表層素性
○ 大文字かどうか
○ 英数字からなる、または、スラッシュを含むかどうか
○ ストップワードかどうか
○ 単語の接頭辞、接尾辞
● 語彙素性
○ 前後1単語の語彙、品詞
○ 辞書に含まれているかど...
Features for NER
● 表層素性
○ 大文字かどうか
○ 英数字からなる、または、スラッシュを含むかどうか
○ ストップワードかどうか
○ 単語の接頭辞、接尾辞
● 語彙素性
○ 前後1単語の語彙、品詞
○ 辞書に含まれているかど...
Features for NER
● 表層素性
○ 大文字かどうか
○ 英数字からなる、または、スラッシュを含むかどうか
○ ストップワードかどうか
○ 単語の接頭辞、接尾辞
● 語彙素性
○ 前後1単語の語彙、品詞
○ 辞書に含まれているかど...
Features for NEN
● 表層素性
○ 大文字かどうか ( ti
m
/ tj
n
)
○ 英数字またはスラッシュを含むかどうか ( ti
m
/ tj
n
)
○ 単語の接頭辞、接尾辞 ( ti
m
)
● 語彙素性
○ 語彙 (...
Experiments Setting
● データ
○ 人手で正解を付与した12,245ツイート
● ベースライン
○ NER → NEN の順序で適用した手法
■ NER: Liu et al. (2011)
■ NEN: ルールベース Ji...
Experimental Results
·· Goldman sees massive upside risk in oil prices ··
NER Result F-measure
ベースライン 80.2
提案手法 83.6
NER R...
Effect of Features
辞書素性が性能に大きく貢献
Features NER NEN
表層 59.2 61.3
表層+語彙 65.8 68.7
表層+辞書 80.1 77.2
表層+語彙+辞書 83.6 82.6
Discussion
● 約半分のエラーはスラングか省略
○ 異なる単語には z 要素を作成してない
·· And Now, He Lives All The Way In California ··
·· i love Cali so muc...
Conclusion
● ツイートに対してNERとNENを適用
○ NERとNENを同時に解く
○ NER、NENと順番に適用するも性能が向上
● 感想
○ 人名と組織名や地名の区別は難しいのでNENの知見を取り
入れてうまくできてるのはよさそ...
Upcoming SlideShare
Loading in …5
×

Joint inference of named entity recognition and normalization for tweets

1,189 views

Published on

社内輪読会で紹介した「Joint inference of named entity recognition and normalization for tweets」の資料

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Joint inference of named entity recognition and normalization for tweets

  1. 1. Xiaohua Liu, Ming Zhou, Furu Wei, Zhongyang Fu, Xiangyang Zhou ACL2012 Joint Inference of Named Entity Recognition and Normalization for Tweets id:skozawa 論文輪読会 2014/06/18
  2. 2. Named Entity Recognition (NER) ● 固有表現抽出 (NER) ○ テキストから固有表現(人名、地名など)を抽出 I wanna see Anneke Gronloh. → PERSON I live in New York → LOCATION
  3. 3. Named Entity Normalization (NEN) ● 固有表現の正規化 (NEN) ○ 固有表現を曖昧性のない標準的な表現に変換 ○ Anneke Gronlohは他に Mw.,Gronloh, Anneke Kronloh, Mevrouw G. などとも表される I wanna see Anneke Gronloh. I wanna see Anneke Kronloh. → Anneke Grouloh ● NENの性能 ○ User generated Contentに対しては性能が低下 ○ Wikipediaに基づくNENシステム ■ ニュース:94% ■ User Generated Content: 77%
  4. 4. Purpose ● ツイートに対してNERとNENを適用 ● 提案点 ○ 複数のツイートに対してNERとNENを同時に解く ■ 教師あり学習 ■ ツイートの冗長性を利用 ○ ベースラインより高い性能を発揮
  5. 5. Problem of Cascaded Approach ● NERとNENは別タスク ● NER → NENの順序で適用 ○ NERのoutputがNENのinput ● 問題点 ○ NERのエラーがNENに伝播 ■ NENのエラーの多くはNERのエラー ○ NENからNERへのフィードバックがない
  6. 6. Joint Inference ● 複数のツイートに対してNERとNENを同時に解く ● NERの性能向上はNENの性能を向上させる ● NENからのフィードバック ·· she knew Burger King when he was a Prince! ·· ·· I’m craving all sorts of food: mcdonalds, burger king, pizza, chinese ··. ○ 2つのツイートの内容は異なるので、 NENではBurger Kingとburger kingをマッピングしない ○ NERが異なるラベルタイプを付与することを補助
  7. 7. Redundancy in Tweets ● 複数のツイートを同時に考慮することで ツイートの冗長性を利用できる ·· Bobby Shaw you don’t invite the wind ·· ·· I own yah ! Loool bobby shaw ·· ● 1文目のBobby ShawはPERSON ○ 大文字 + you ● 2文目のbobby shawがPERSONだと判定する補助
  8. 8. Task Definition 対象:ピリオドを含むかあるクエリに関連したツイート集合 1. 各ツイートに対して固有表現とそのタイプを抽出 (NER) ○ PERSON, ORGANIZATION, PRODUCT, LOCATION 2. 各固有表現を代表的な表現にする (NEN) ○ 固有表現のペアが与えられ、同じ実体かどうかを決定 ○ 同じ固有表現を全て関連付け、代表的な表現を取得 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ·· 代表的な表現: Lady Gaga
  9. 9. Method Overview ● 系列ラベリング ○ 観測列xに対してラベル列y, zを付与 ■ NERのためのラベルy ■ NENのためのラベルz ○ linear chain CRF
  10. 10. Label for NER ● 各ツイートに対してBILOUラベルを付与: yi m ○ B: Begining ○ I: Inside ○ L: Last ○ O: Outside ○ U: Unit-length ·· without you is like an iphone without apps; O O O O O U-PRODUCT O O Lady gaga without her telephone ·· B-PERSON L-PERSON O O O
  11. 11. Label for NEN ● 2値変数 zij mn ○ 同じ単語の ti m と tj n のペア ○ 同じ実体を表す固有表現かどうか zij mn = 1 or -1 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ·· z11 13 = 1 ( Gaga1 1 = Gaga1 3 ) z11 23 = 1 ( Lady1 2 = Lady1 3 ) her, with などはストップワード
  12. 12. Recognize Same Entity 固有表現のタイプと正規化ラベルを利用して 同じ実体を表す固有表現かどうかを以下の3点で判定 1. 同じ固有表現タイプである 2. 部分文字列 3. zij mn = 1 が存在 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ··
  13. 13. Recognize Same Entity 固有表現のタイプと正規化ラベルを利用して 同じ固有表現かどうかを以下の3点で判定 1. 同じ固有表現タイプである 2. 部分文字列 3. zij mn = 1 が存在 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ·· Gaga1 1 = Lady Gaga1 3 = PERSON z11 13 = 1
  14. 14. Recognize Same Entity 固有表現のタイプと正規化ラベルを利用して 同じ固有表現かどうかを以下の3点で判定 1. 同じ固有表現タイプである 2. 部分文字列 3. zij mn = 1 が存在 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ·· Lady1 2 Gaaaaga = Lady1 3 Gaga = PERSON z11 23 = 1
  15. 15. Recognize Same Entity 固有表現のタイプと正規化ラベルを利用して 同じ固有表現かどうかを以下の3点で判定 1. 同じ固有表現タイプである 2. 部分文字列 3. zij mn = 1 が存在 ·· Gaga’s Christmas dinner with her family. Awwwwn ·· ·· Lady Gaaaaga with her family on Christmas ·· ·· Buying a magazine just because Lady Gaga’s on the cover ·· canonical form は単語数の長いもの (同数の場合はWikipediaのエントリにあるもの) Lady Gaga1 3
  16. 16. Factor Graph ● yi m : m番目のツイートのi番目の単語 ti m のNERラベル ● fi m : 素性関数 (yi-1 m , yi m ) ● zij mn : ti m とtj n のNENラベル ● fij mn : 素性関数 (yi-1 m と yi m と zij mn )
  17. 17. Model tweets: T = {tm }N m=1 graph: g = (Y, Z, F, E) Y: y-serials, Z: z-serials F: factor vertices, E: edges δij mn = 1: ti m とtj n が同じ単語 Φ(1) k , Φ(2) k : features λ(1) k , λ(2) k : weight
  18. 18. Training Θ = {λ(1) k }K1 K=1 U {λ(2) k }K2 K=1 の学習 最急勾配法 Θnew = Θold + Δ λで微分
  19. 19. Inference 学習したΘ*を利用してY, Zを求める
  20. 20. Features for NER ● 表層素性 ○ 大文字かどうか ○ 英数字からなる、または、スラッシュを含むかどうか ○ ストップワードかどうか ○ 単語の接頭辞、接尾辞 ● 語彙素性 ○ 前後1単語の語彙、品詞 ○ 辞書に含まれているかどうか ○ ハッシュタグ、リンク、ユーザ名かどうか ● 外部辞書(Gazetteer)素性 ○ 含まれているか ○ ラベル
  21. 21. Features for NER ● 表層素性 ○ 大文字かどうか ○ 英数字からなる、または、スラッシュを含むかどうか ○ ストップワードかどうか ○ 単語の接頭辞、接尾辞 ● 語彙素性 ○ 前後1単語の語彙、品詞 ○ 辞書に含まれているかどうか ○ ハッシュタグ、リンク、ユーザ名かどうか ● 外部辞書(Gazetteer)素性 ○ 含まれているか ○ ラベル
  22. 22. Features for NER ● 表層素性 ○ 大文字かどうか ○ 英数字からなる、または、スラッシュを含むかどうか ○ ストップワードかどうか ○ 単語の接頭辞、接尾辞 ● 語彙素性 ○ 前後1単語の語彙、品詞 ○ 辞書に含まれているかどうか ○ ハッシュタグ、リンク、ユーザ名かどうか ● 外部辞書(Gazetteer)素性 ○ 含まれているか ○ ラベル ·· Buying a magazine just because Lady Gaga’s on the cover ·· Lady Gaga on 名詞 名詞 前置詞 0 0 1 1 0 -, ‘s 1 People
  23. 23. Features for NEN ● 表層素性 ○ 大文字かどうか ( ti m / tj n ) ○ 英数字またはスラッシュを含むかどうか ( ti m / tj n ) ○ 単語の接頭辞、接尾辞 ( ti m ) ● 語彙素性 ○ 語彙 ( ti m ) ○ 辞書に含まれているかどうか ( ti m ) ○ 前後1単語が全て同じ品詞かどうか (ti-1 m ti m ti+1 m / tj-1 n tj n tj+1 n ) ○ 同じラベルタイプかどうか ( yi m / yj n ) ● 外部辞書(Gazetteer)素性 ○ 含まれているか(前後1単語) (Yi-1 m ∧Yj-1 n , Yi m ∧Yj n , Yi+1 m ∧Yj+1 n ) ○ 同じラベルかどうか ( Yi m / Yj n )
  24. 24. Experiments Setting ● データ ○ 人手で正解を付与した12,245ツイート ● ベースライン ○ NER → NEN の順序で適用した手法 ■ NER: Liu et al. (2011) ■ NEN: ルールベース Jijkoun et al. (2008)
  25. 25. Experimental Results ·· Goldman sees massive upside risk in oil prices ·· NER Result F-measure ベースライン 80.2 提案手法 83.6 NER Result PERSON PRODUCT LOCATION ORGNIZATION ベースライン 83.9 78.7 81.3 79.8 提案手法 84.2 80.5 82.1 85.2 NEN Result Accuracy ベースライン 79.4 提案手法 82.6 ベースライン: PERSON (Albert Goldman) 提案手法 : ORGANIZATION (Goldman Sachs)
  26. 26. Effect of Features 辞書素性が性能に大きく貢献 Features NER NEN 表層 59.2 61.3 表層+語彙 65.8 68.7 表層+辞書 80.1 77.2 表層+語彙+辞書 83.6 82.6
  27. 27. Discussion ● 約半分のエラーはスラングか省略 ○ 異なる単語には z 要素を作成してない ·· And Now, He Lives All The Way In California ·· ·· i love Cali so much ·· ·· I, bobby shaw, am gonna put BS on everything ·· ● 解決案 ○ 同じ単語ではなく、共通の接頭辞を持つ単語に拡張 ○ スラングや省略を正規化する手法を構築 正しくLOCATIONと判定 誤ってPERSONと判定 NERで失敗
  28. 28. Conclusion ● ツイートに対してNERとNENを適用 ○ NERとNENを同時に解く ○ NER、NENと順番に適用するも性能が向上 ● 感想 ○ 人名と組織名や地名の区別は難しいのでNENの知見を取り 入れてうまくできてるのはよさそう ■ 評価実験はベースラインとは別に提案手法を NERとNENに分けたものも欲しい

×