Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Supervised Learning of Universal Sentence Representations from Natural Language Inference Data

1,323 views

Published on

Alexis Conneau, Douwe Kiela, Holger Schwenk, Loïc Barrault, and Antoine Bordes. EMNLP 2017, pages 681-691.

Published in: Engineering
  • Be the first to comment

Supervised Learning of Universal Sentence Representations from Natural Language Inference Data

  1. 1. Supervised Learning of Universal Sentence Representations from Natural Language Inference Data Alexis Conneau, Douwe Kiela, Holger Schwenk, Loïc Barrault, and Antoine Bordes EMNLP 2017, pages 681-691. 論文 コード(エンコーダ) コード(評価) 読み手: 岡崎 直観 (東京工業大学情報理工学院) (@chokkanorg) ACL2017読み会@すずかけ台 ※但し書きがある場合を除き,スライド中の図・表はConneau+ (2017) の引用
  2. 2. 汎用的な文エンコーダは作れる! • 構成方法 • 双方向LSTMにmax-poolingを組み合わせたDNN • Stanford Natural Language Inference (SNLI) で訓練 • 検証方法 • SNLIデータで様々なエンコーダの性能を比較 • SkipThoughtやFastSentなどの既存手法を含め,訓練済 みのエンコーダを12個のタスクに適用して性能を比較 • 検証結果 • 提案手法の文エンコーダは,様々なタスクへ転用する ことが可能で,かつ既存手法よりも高性能 • 提案手法の訓練は,既存手法の訓練よりも高速 • 文の特徴抽出器として利用可能(モデルを公開) 2Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  3. 3. 本研究で用いたタスク: Stanford Natural Language Inference (SNLI) (Bowman+ 15) • Flickr30kのキャプションを基に,含意(entailment), 矛盾(contradiction),中立(neutral)する文をクラ ウドソーシングで収集したもの(57万文対) https://nlp.stanford.edu/projects/snli/ 3Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  4. 4. 本研究で訓練するDNNの構成: 2文のエンコーダに基づく3値分類 A soccer game with multiple males playing. Some men are playing a sport. 文のエンコーダ 文のエンコーダ (Premise) (Hypothesis) 𝑢𝑢 𝑣𝑣 × ー 512次元の隠れ層とsoftmax層(3値分類) Premiseの ベクトル Hypothesisの ベクトル 含意,矛盾,中立のスコア(教師信号) 2文のエンコード結果を 統合したベクトル ×は要素ごとの積 -は要素ごとの差の絶対値 4Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  5. 5. 文のエンコーダの構成 • 以下の7種類の手法を比較・検討 • Long Short-Term Memory (LSTM) • Gated Recurrent Unit (GRU) • 双方向GRU (両方向の最終内部ベクトルを結合) • 双方向LSTM • 各単語に対応する内部ベクトルの平均をとる (mean pooling) • 各単語に対応する内部ベクトルの最大値を取る (max pooling) • Self-attentive network • Hierarchical Convolutional Network • 単語埋め込みはGloVeで固定 • 公開されている単語ベクトル(300次元)を利用 5Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  6. 6. 双方向GRU Skip-thoughtで用いられているエンコーダと 同じアーキテクチャを採用 The movie was great 𝑥𝑥𝑡𝑡 ℎ𝑡𝑡 𝑢𝑢 または 𝑣𝑣 ℎ𝑡𝑡 𝑤𝑤𝑡𝑡 ℎ𝑡𝑡 = GRU (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) ℎ𝑡𝑡 = GRU (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) 𝑢𝑢 = ℎ𝑇𝑇, ℎ1 6Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  7. 7. 双方向LSTMとプーリング The movie was great 𝑥𝑥𝑡𝑡 ℎ𝑡𝑡 ℎ𝑡𝑡 𝑤𝑤𝑡𝑡 ℎ𝑡𝑡 = LSTM (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) ℎ𝑡𝑡 = LSTM (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) ℎ𝑡𝑡, ℎ𝑡𝑡 各次元について, 全時刻における 最大値もしくは 平均値をとる 7Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  8. 8. Self-attentive network (Liu+ 16; Lin+ 17) The movie was great 𝑥𝑥𝑡𝑡 ℎ𝑡𝑡 ℎ𝑡𝑡 𝑤𝑤𝑡𝑡 ℎ𝑡𝑡 = LSTM (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) ℎ𝑡𝑡 = LSTM (𝑤𝑤1, … , 𝑤𝑤𝑇𝑇) ℎ𝑡𝑡 = ℎ𝑡𝑡, ℎ𝑡𝑡 𝑞𝑞𝑖𝑖 𝑎𝑎𝑖𝑖 (𝑡𝑡) = exp( �ℎ𝑡𝑡 ⋅ 𝑞𝑞𝑖𝑖) ∑𝑡𝑡𝑡 exp(ℎ𝑡𝑡′ ⋅ 𝑞𝑞𝑖𝑖) �ℎ𝑡𝑡 = tanh(𝑊𝑊ℎ𝑡𝑡 + 𝑏𝑏𝑖𝑖) 𝑢𝑢𝑖𝑖 = � 𝑡𝑡 𝑎𝑎𝑖𝑖(𝑡𝑡)ℎ𝑡𝑡 ※実際は𝑞𝑞1 , 𝑞𝑞2 ,𝑞𝑞3 ,𝑞𝑞4 の4種類の ベクトル(観点)を学習し,4種類の 𝑢𝑢1 , 𝑢𝑢2 ,𝑢𝑢3 ,𝑢𝑢4 を計算して,連結する (アテンション計算用) (学習で求める) 8Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  9. 9. Hierarchical convolutional network (Zhao+ 15) The movie was the best of all 𝑥𝑥𝑡𝑡 𝑐𝑐𝑡𝑡 1 𝑐𝑐𝑡𝑡 2 𝑐𝑐𝑡𝑡 3 𝑐𝑐𝑡𝑡 4 ※実際には4層まで畳み込みを適用するが,この例では 単語数が足りないため4層まで到達していない 最 大 値 プ ー リ ン グ 4層分のプーリング結果の連結を文ベクトルとする 9Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  10. 10. 評価に用いたタスク • 分類問題 • 評判分析(MR, SST) • 質問タイプ分類(TREC) • 商品レビュー分析(CR) • 主観・客観分類(SUBJ) • 意見極性分類(MPQA) • 意味的関係 • 含意関係認識(SICK-E) • 意味的関連度(SICK-R) • SemEvalの意味的類似度(STS14) • 言い換えの認識 • 言い換えの認識(Microsoft Research Paraphrase Corpus) • キャプション/画像検索 • キャプションからの画像検索 • 画像からのキャプション検索 10Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  11. 11. エンコーダ構成の比較 転用先12タスク での性能の平均 11 ※ NLIで高い性能のものが転用先でも高い性能を示すとは限らない Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  12. 12. タスク横断の比較 12Conneau+ (2017) Supervised Learning of Universal Sentence Representations 6,400万文で訓練 したSkipThoughtに 対し,57万文対で 訓練した提案手法 が上回る(SUBJと TRECを除く) STS14の結果より, SkipThoughtよりも 提案手法の文ベク トルの方がコサイ ン類似度を正確に 計算できている (提案手法の中に 要素積や要素差 の情報が取り込ま れているため?) (AllNLI = SNLI + MultiGenre NLI) 機械翻訳や辞書 定義文などで訓練 するよりも高性能
  13. 13. 画像・キャプション検索の性能 • 上段は画像と言語の対応を直接的に学習するもの • 下段は訓練済みの画像と言語の特徴抽出器を用い, それらを同じ空間にマップしてランキング学習を行った • 直接訓練する手法に迫る性能を示す 13Conneau+ (2017) Supervised Learning of Universal Sentence Representations
  14. 14. 議論 • SNLIデータは文エンコーダの訓練に適している • NLIは文の深い意味や関係の理解が必須だから? • 教師なし(単なる生コーパス)の大量データよりも, SNLIの教師ありデータの方が,性能・学習時間の 観点から優れている • 今後の展開 • 実際にはどのようなタスクに転用可能なのか? 機械 翻訳の性能は向上の余地があるのか? • 日本語のNLIのデータを作る? 14Conneau+ (2017) Supervised Learning of Universal Sentence Representations

×