SlideShare a Scribd company logo
1 of 20
Neural Architectures for
Named Entity Recognition
Guillaume Lample, Miguel Ballesteros,
Sandeep Subramanian, Kazuya Kawakami,
Chris Dyer
Hironsan
2017/07/07
目次
自己紹介
Deepな固有表現認識
論文の要旨
モデルの概要
モデルの定式化
実験結果
おわりに
自己紹介
Deepな固有表現認識
固有表現認識とは?
論文の要旨
先行研究の課題
特徴エンジニアリングあり (e.g. POS tag, word prefix, suffix)
外部知識を利用 (e.g. gazetteers)
➡︎どちらも言語固有の情報なので他の言語への適用が難しい
論文のモデルでは
特徴エンジニアリングなし
外部知識利用なし
単語の綴りと分布の情報を利用して単語を表現
➡︎言語に依存せずに適用可能!
モデルの概要
入力は word embeddings(後述)
Bi-LSTMにword embeddingを
入力し、結果を結合(concat)
結合したベクトルをCRFに入力
Bi-LSTMなのは、固有表現を認識する際に
後ろから読むことが効果的であるため
(e.g. 本日、安倍首相は…)
CRFによりラベル間の依存性をモデル化
B-PERの後ろはI-PERかE-PERのはず
モデルの定式化
BiLSTMからの出力をProjectionして行列 P(n x k) に変換する
n : 文のサイズ
k : ラベル数
ラベル間の依存性を考慮するため、遷移行列 A を用意
sequence y = (y1, y2, …, yn) のスコアを以下のように計算
P(y|x)の組み合わせ爆発への対処
http://www.phontron.com/slides/nlp-programming-ja-04-hmm.pdf
Viterbiアルゴリズムで効率的に解く
Input Word Embeddings
文字レベルのembeddingsから単語
レベルのembeddingsを作成し、単
語レベルのembeddingsと結合して
入力を作成
char embeddingsをBiLSTMに
入力し、文字レベルの情報から
word embeddingsを作成
一方、Lookup tableからword
embeddingsを取得
両者を連結し、入力のembeddings
として扱う
実験結果
英語ではほぼSOTA、英語以外の3言語ではSOTA
実験結果
pretrain済みのword embeddingsを
使用したのがかなり効いている
(+7.31 in F1)
CRF層により +1.79
Dropoutにより +1.17
文字レベルword embeddingsによ
る効果は +0.74
ドイツ語 : +3.70
オランダ語: +8.60
スペイン語: +2.31
(a) English
実験結果
pretrain済みのword embeddingsを
使用したのがかなり効いている
(+7.31 in F1)
CRF層により +1.79
Dropoutにより +1.17
文字レベルword embeddingsによ
る効果は +0.74
ドイツ語 : +3.70
オランダ語: +8.60
スペイン語: +2.31
(a) English
実験結果
pretrain済みのword embeddingsを
使用したのがかなり効いている
(+7.31 in F1)
CRF層により +1.79
Dropoutにより +1.17
文字レベルword embeddingsによ
る効果は +0.74
ドイツ語 : +3.70
オランダ語: +8.60
スペイン語: +2.31
(a) English
実験結果
pretrain済みのword embeddingsを
使用したのがかなり効いている
(+7.31 in F1)
CRF層により +1.79
Dropoutにより +1.17
文字レベルword embeddingsによ
る効果は +0.74
ドイツ語 : +3.70
オランダ語: +8.60
スペイン語: +2.31
(a) English
まとめ
まとめ
事前学習済み word embeddings を使うことで大きく性能向上
出力ラベル間の依存性を考慮するためにCRF層を入れることで、
性能向上
英語では文字レベルの word embeddings を使用した効果は
薄かった
一方、ドイツ語、オランダ語、スペイン語では文字レベルの
word embeddings を使用することで大きく性能向上
参考文献
Chiu, J. and Nichols, E. (2015).
Named Entity Recognition with Bidirectional LSTM-CNNs.
Transactions of the Association for Computational Linguistics, 4:357–370.
Huang, Z., Xu, W., and Yu, K. (2015).
Bidirectional LSTM-CRF Models for Sequence Tagging.
arXiv preprint arXiv:1508.01991.
Ma, X. and Hovy, E. (2016).
End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF.
In Proceedings of ACL, pages 1064–1074, Berlin, Germany. Association
for Computational Linguistics.
おわりに
arXivTimes という論文のまとめを共有するリポジトリを
運営しています。(Twitter: @arxivtimes)
投稿だけでなくディスカッションもオープンに行えればと
思いますので、ご参加お待ちしております。
–Hironsan
“Thank You”

More Related Content

Similar to Neural Architecture for Named Entity Recognition

さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションantibayesian 俺がS式だ
 
「ドメイン駆動設計」の複雑さに立ち向かう
「ドメイン駆動設計」の複雑さに立ち向かう「ドメイン駆動設計」の複雑さに立ち向かう
「ドメイン駆動設計」の複雑さに立ち向かう増田 亨
 
Interspeech2022 参加報告
Interspeech2022 参加報告Interspeech2022 参加報告
Interspeech2022 参加報告Yuki Saito
 
文章生成の高速化とチーム開発でのTensor board活用事例
文章生成の高速化とチーム開発でのTensor board活用事例文章生成の高速化とチーム開発でのTensor board活用事例
文章生成の高速化とチーム開発でのTensor board活用事例Atsushi Hara
 
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈	BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈 順也 山口
 
20190407 第7章 事例研究:自然言語処理における素性
20190407 第7章 事例研究:自然言語処理における素性20190407 第7章 事例研究:自然言語処理における素性
20190407 第7章 事例研究:自然言語処理における素性Kazuki Motohashi
 
My short term abroad program
My short term abroad programMy short term abroad program
My short term abroad programTakumi Tomita
 
Nonaka's Scrum, Phronetic Leadership and Requirements Development
Nonaka's Scrum, Phronetic Leadership and Requirements DevelopmentNonaka's Scrum, Phronetic Leadership and Requirements Development
Nonaka's Scrum, Phronetic Leadership and Requirements DevelopmentKenji Hiranabe
 
ノーコード・ローコード開発の意義
ノーコード・ローコード開発の意義ノーコード・ローコード開発の意義
ノーコード・ローコード開発の意義千紘 佐野
 
JDLA_GAI Test2023.pptx
JDLA_GAI Test2023.pptxJDLA_GAI Test2023.pptx
JDLA_GAI Test2023.pptxJDLAPR
 
F#のコンピュテーション式
F#のコンピュテーション式F#のコンピュテーション式
F#のコンピュテーション式pocketberserker
 
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27Kensuke Mitsuzawa
 
現場で役立つシステム設計の原則
現場で役立つシステム設計の原則現場で役立つシステム設計の原則
現場で役立つシステム設計の原則増田 亨
 
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...Deep Learning JP
 
大人の基礎C#【Niigat.NET 2015-10】
大人の基礎C#【Niigat.NET 2015-10】大人の基礎C#【Niigat.NET 2015-10】
大人の基礎C#【Niigat.NET 2015-10】Mitsuhito Ishino
 
テストコードってすごい.pptx
テストコードってすごい.pptxテストコードってすごい.pptx
テストコードってすごい.pptxcistb220msudou
 
3週連続DDDその1 ドメイン駆動設計の基本を理解する
3週連続DDDその1  ドメイン駆動設計の基本を理解する3週連続DDDその1  ドメイン駆動設計の基本を理解する
3週連続DDDその1 ドメイン駆動設計の基本を理解する増田 亨
 
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化Takamitsu Nakao
 

Similar to Neural Architecture for Named Entity Recognition (20)

さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
 
「ドメイン駆動設計」の複雑さに立ち向かう
「ドメイン駆動設計」の複雑さに立ち向かう「ドメイン駆動設計」の複雑さに立ち向かう
「ドメイン駆動設計」の複雑さに立ち向かう
 
Interspeech2022 参加報告
Interspeech2022 参加報告Interspeech2022 参加報告
Interspeech2022 参加報告
 
文章生成の高速化とチーム開発でのTensor board活用事例
文章生成の高速化とチーム開発でのTensor board活用事例文章生成の高速化とチーム開発でのTensor board活用事例
文章生成の高速化とチーム開発でのTensor board活用事例
 
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈	BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
BERT の解剖学: interpret-text による自然言語処理 (NLP) モデル解釈
 
20190407 第7章 事例研究:自然言語処理における素性
20190407 第7章 事例研究:自然言語処理における素性20190407 第7章 事例研究:自然言語処理における素性
20190407 第7章 事例研究:自然言語処理における素性
 
My short term abroad program
My short term abroad programMy short term abroad program
My short term abroad program
 
Nonaka's Scrum, Phronetic Leadership and Requirements Development
Nonaka's Scrum, Phronetic Leadership and Requirements DevelopmentNonaka's Scrum, Phronetic Leadership and Requirements Development
Nonaka's Scrum, Phronetic Leadership and Requirements Development
 
ノーコード・ローコード開発の意義
ノーコード・ローコード開発の意義ノーコード・ローコード開発の意義
ノーコード・ローコード開発の意義
 
JDLA_GAI Test2023.pptx
JDLA_GAI Test2023.pptxJDLA_GAI Test2023.pptx
JDLA_GAI Test2023.pptx
 
F#のコンピュテーション式
F#のコンピュテーション式F#のコンピュテーション式
F#のコンピュテーション式
 
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
 
Point net
Point netPoint net
Point net
 
現場で役立つシステム設計の原則
現場で役立つシステム設計の原則現場で役立つシステム設計の原則
現場で役立つシステム設計の原則
 
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
【DL輪読会】Non-Linguistic Supervision for Contrastive Learning of Sentence Embedd...
 
大人の基礎C#【Niigat.NET 2015-10】
大人の基礎C#【Niigat.NET 2015-10】大人の基礎C#【Niigat.NET 2015-10】
大人の基礎C#【Niigat.NET 2015-10】
 
テストコードってすごい.pptx
テストコードってすごい.pptxテストコードってすごい.pptx
テストコードってすごい.pptx
 
3週連続DDDその1 ドメイン駆動設計の基本を理解する
3週連続DDDその1  ドメイン駆動設計の基本を理解する3週連続DDDその1  ドメイン駆動設計の基本を理解する
3週連続DDDその1 ドメイン駆動設計の基本を理解する
 
作文入門
作文入門作文入門
作文入門
 
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化
微博(ウェイボ)型社内SNSとモバイルで始める社内の可視化
 

Neural Architecture for Named Entity Recognition