SlideShare a Scribd company logo
1 of 16
Download to read offline
COLING読み会2014 
11/05 
Relation Classification via 
Convolutional Deep Neural Network (Zeng et al.) 
※このスライド中の一部の図はこの論文中のものです 
! 
B4 宮崎亮輔
Agenda 
❖ Task Definition! 
❖ Method! 
❖ Word Representation! 
❖ Feature Extraction (Neural network)! 
❖ Back Propagation! 
❖ Experiments! 
❖ Conclusion 
2
Task Definition 
❖ 今までの研究では素性エンジニアリングをしていた! 
❖ 複雑なNLPの操作による素性抽出はエラーもある! 
❖ e.g. 構文解析, 係り受け解析! 
❖ 素性エンジニアリングをせずに関係分類をする! 
❖ 名詞にマークのついた入力Sに対して関係分類 
3
Word Representation 
❖ Word Embeddingを使う(いわゆるword2vec)! 
❖ Distributed representation の! 
❖ dense, low-dimensional, real-valuedなやつ! 
❖ 自分でトレーニングして作るのはツライので(4週間かかる研究も 
ある)既存のトレーニングされたものを使う (Turian et al., 2010)! 
❖ この後でWord Embeddingを使うシーンがたくさんある! 
❖ 全てこれを参照 (Look up table) して使ってる 
4
Method 
最後に全体像を説明するので、! 
それまでは部分的なMethodだと思ってなんとなく頭に入れておいてください 
5
Lexical Level Features 
❖ Word Embeddingsを利用する! 
❖ 関係分類したい対象の名詞ペアそれぞれと! 
❖ その周辺の単語と! 
❖ 名詞ペアの上位語 (WordNetを利用)を! 
❖ 連結したベクトルをLexical Level Featuresとして利用 
6
Sentence Level Features 
❖ Word Features! 
❖ Window size分だけ連結したWord Embeddingを使ったベクトル! 
❖ window size = 3なら! 
❖ .    (xnは入力文のn番目のword embedding)! 
❖ Position Features! 
❖ 注目している単語とマークされた名詞との距離! 
! 
❖ movingを見ていたら、前も後ろも3! 
❖ ベクトルd1, d2としてマップされる 
(次元数はhyperparameter)! 
❖ この2つを連結したものがSentence Level Features 
7
Sentence Level Features 
❖ Convolution (Collobert et al., 2011)! 
❖ ローカルな全ての素性を活用するためにConvolution! 
❖ Sentence Level FeaturesをW1で畳み込む! 
❖ 畳み込んだ行列の各rowから値がmaxのものをとりだす! 
❖ 一番使える素性を得るため 
8
Sentence Level Features 
❖ 1層隠れ層を入れる! 
❖ maxをとった後のベクトルを入力! 
❖ この層の出力にtanhを発火関数として出力する! 
❖ Back propagationの計算が楽になる! 
❖ この発火関数の出力がSentence Level Features 
9
Output 
❖ 最後にもう1層! 
❖ Lexical FeaturesのベクトルとSentence Featuresのベクト 
ルを連結して入力に使う! 
❖ 事前に定義した関係タイプ数と同じ数の出力ノード数! 
❖ 出力ベクトルにsoftmaxをかませて確率に 
10
From input to output 
if window size = 3 
xs 
x1 
x2 
WF 
Input sentence 
Window Processing 
Convolution 
中間 
tanh 
W1 
W2 
Sentence Level Features 
Lexical Level Features 
出力層 
Out put 
softmax 
W3 
11
Back Propagation 
! 
❖ 誤差逆伝搬! 
❖ パラメータW1, W2, W3, N, Xを学習する! 
❖ Wは各層での重み, Nは上位語のベクトル表現, 
XはWord FeaturesとPosition Featuresの連結ベクトル 
12
Experiments 
❖ SemEval-2010のタスクのデータ・セットを使う! 
❖ 10717のアノテーションされた事例、9の関係が定義! 
❖ Parameterのtuning! 
❖ 既存研究との比較! 
❖ どの素性が効いていたか 
13
Experiments 
❖ パラメータのtuning 
❖ 先行研究との比較 
14
Experiments 
❖ どの素性が効いていたか! 
❖ Lexical FeatureとPosition Featureが結構効いてる 
15
Conclusion 
❖ Convolutional deep neural networkで 
feature engineeringをしなくても良い結果! 
❖ Position Featureを加えると特に結果が良くなった 
16

More Related Content

More from marujirou

Deep Multi-Task Learning with Shared Memory
Deep Multi-Task Learning with Shared MemoryDeep Multi-Task Learning with Shared Memory
Deep Multi-Task Learning with Shared Memorymarujirou
 
怖くない誤差逆伝播法 Chainerを添えて
怖くない誤差逆伝播法 Chainerを添えて怖くない誤差逆伝播法 Chainerを添えて
怖くない誤差逆伝播法 Chainerを添えてmarujirou
 
Cross-Lingual Sentiment Analysis using modified BRAE
Cross-Lingual Sentiment Analysis using modified BRAECross-Lingual Sentiment Analysis using modified BRAE
Cross-Lingual Sentiment Analysis using modified BRAEmarujirou
 
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...marujirou
 
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...marujirou
 
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...marujirou
 
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)marujirou
 
DL勉強会 01ディープボルツマンマシン
DL勉強会 01ディープボルツマンマシンDL勉強会 01ディープボルツマンマシン
DL勉強会 01ディープボルツマンマシンmarujirou
 

More from marujirou (8)

Deep Multi-Task Learning with Shared Memory
Deep Multi-Task Learning with Shared MemoryDeep Multi-Task Learning with Shared Memory
Deep Multi-Task Learning with Shared Memory
 
怖くない誤差逆伝播法 Chainerを添えて
怖くない誤差逆伝播法 Chainerを添えて怖くない誤差逆伝播法 Chainerを添えて
怖くない誤差逆伝播法 Chainerを添えて
 
Cross-Lingual Sentiment Analysis using modified BRAE
Cross-Lingual Sentiment Analysis using modified BRAECross-Lingual Sentiment Analysis using modified BRAE
Cross-Lingual Sentiment Analysis using modified BRAE
 
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive N...
 
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...
Representation Learning Using Multi-Task Deep Neural Networks
for Semantic Cl...
 
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
Combining Distant and Partial Supervision for Relation Extraction (Angeli et ...
 
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
Semantic Compositionality through Recursive Matrix-Vector Spaces (Socher et al.)
 
DL勉強会 01ディープボルツマンマシン
DL勉強会 01ディープボルツマンマシンDL勉強会 01ディープボルツマンマシン
DL勉強会 01ディープボルツマンマシン
 

Recently uploaded

【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 

Recently uploaded (9)

【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 

Relation Classification via Convolutional Deep Neural Network (Zeng et al.)

  • 1. COLING読み会2014 11/05 Relation Classification via Convolutional Deep Neural Network (Zeng et al.) ※このスライド中の一部の図はこの論文中のものです ! B4 宮崎亮輔
  • 2. Agenda ❖ Task Definition! ❖ Method! ❖ Word Representation! ❖ Feature Extraction (Neural network)! ❖ Back Propagation! ❖ Experiments! ❖ Conclusion 2
  • 3. Task Definition ❖ 今までの研究では素性エンジニアリングをしていた! ❖ 複雑なNLPの操作による素性抽出はエラーもある! ❖ e.g. 構文解析, 係り受け解析! ❖ 素性エンジニアリングをせずに関係分類をする! ❖ 名詞にマークのついた入力Sに対して関係分類 3
  • 4. Word Representation ❖ Word Embeddingを使う(いわゆるword2vec)! ❖ Distributed representation の! ❖ dense, low-dimensional, real-valuedなやつ! ❖ 自分でトレーニングして作るのはツライので(4週間かかる研究も ある)既存のトレーニングされたものを使う (Turian et al., 2010)! ❖ この後でWord Embeddingを使うシーンがたくさんある! ❖ 全てこれを参照 (Look up table) して使ってる 4
  • 6. Lexical Level Features ❖ Word Embeddingsを利用する! ❖ 関係分類したい対象の名詞ペアそれぞれと! ❖ その周辺の単語と! ❖ 名詞ペアの上位語 (WordNetを利用)を! ❖ 連結したベクトルをLexical Level Featuresとして利用 6
  • 7. Sentence Level Features ❖ Word Features! ❖ Window size分だけ連結したWord Embeddingを使ったベクトル! ❖ window size = 3なら! ❖ .    (xnは入力文のn番目のword embedding)! ❖ Position Features! ❖ 注目している単語とマークされた名詞との距離! ! ❖ movingを見ていたら、前も後ろも3! ❖ ベクトルd1, d2としてマップされる (次元数はhyperparameter)! ❖ この2つを連結したものがSentence Level Features 7
  • 8. Sentence Level Features ❖ Convolution (Collobert et al., 2011)! ❖ ローカルな全ての素性を活用するためにConvolution! ❖ Sentence Level FeaturesをW1で畳み込む! ❖ 畳み込んだ行列の各rowから値がmaxのものをとりだす! ❖ 一番使える素性を得るため 8
  • 9. Sentence Level Features ❖ 1層隠れ層を入れる! ❖ maxをとった後のベクトルを入力! ❖ この層の出力にtanhを発火関数として出力する! ❖ Back propagationの計算が楽になる! ❖ この発火関数の出力がSentence Level Features 9
  • 10. Output ❖ 最後にもう1層! ❖ Lexical FeaturesのベクトルとSentence Featuresのベクト ルを連結して入力に使う! ❖ 事前に定義した関係タイプ数と同じ数の出力ノード数! ❖ 出力ベクトルにsoftmaxをかませて確率に 10
  • 11. From input to output if window size = 3 xs x1 x2 WF Input sentence Window Processing Convolution 中間 tanh W1 W2 Sentence Level Features Lexical Level Features 出力層 Out put softmax W3 11
  • 12. Back Propagation ! ❖ 誤差逆伝搬! ❖ パラメータW1, W2, W3, N, Xを学習する! ❖ Wは各層での重み, Nは上位語のベクトル表現, XはWord FeaturesとPosition Featuresの連結ベクトル 12
  • 13. Experiments ❖ SemEval-2010のタスクのデータ・セットを使う! ❖ 10717のアノテーションされた事例、9の関係が定義! ❖ Parameterのtuning! ❖ 既存研究との比較! ❖ どの素性が効いていたか 13
  • 14. Experiments ❖ パラメータのtuning ❖ 先行研究との比較 14
  • 15. Experiments ❖ どの素性が効いていたか! ❖ Lexical FeatureとPosition Featureが結構効いてる 15
  • 16. Conclusion ❖ Convolutional deep neural networkで feature engineeringをしなくても良い結果! ❖ Position Featureを加えると特に結果が良くなった 16