SlideShare a Scribd company logo
1 of 20
読む人: 慶應義塾大学大学院
山本眞大
Context Gates for
Neural Machine Translation
最先端NLP勉強会
Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, Hang Li (TACL2017)
※ 基本的に図表は原論文からの引用です。
概要 1
• NMTにおいて、sourceとtargetのcontextが
adequacyとfluencyにどう影響するかを調査
• sourceのcontext: adequacyに影響
• targetのcontext: fluencyに影響
adequacy: sourceの単語が正確に翻訳できているか
fluency : 単語のつながりの自然さ
• (直感的にも…)
• 内容語を生成する際: sourceのcontextを参照すべき
• 機能語を生成する際: targetのcontextを参照すべき
• 既存のNMT: 各contextを均一に扱う
→ sourceとtargetのcontextを動的に参照するための
gate (context gates)を提案
Neural Machine Translation 2
• 翻訳確率
• i番目の単語の生成確率
入力系列出力系列
Encoderの情報Decoderの隠れ層
線形変換を行った後、
sofrmax関数を適用する
Neural Machine Translation 3
• i番目のデコーダの隠れ層
単語ベクトルRNN
target context source context
Source & Target Contextの影響の調査 4
• 目的: sourceとtargetのcontextが
adequacyとfluencyに影響するかを調査
• 方法:デコーダの隠れ層の計算方法を変更
• 一般的な計算方法
• 今回の計算方法
target context source context
スカラー値
スカラー値
Source & Target Contextの影響の調査 5
• 定性的な調査
(a, b) = (1.0, 0.5)
Fluencyが低い
(a, b) = (0.5, 1.0)
Adequacyが低い
Source & Target Contextの影響の調査 6
• 翻訳の長さについての調査
• targetの割合を減少
→ 長い文が生成されやすい
• sourceの割合を減少
→ 短い文が生成されやすい
Source & Target Contextの影響の調査 7
• AdequacyとFluencyに関する調査
• sourceの割合を減少
→ Adequecyが減少
• targetの割合を減少
→ Fluencyが減少
+ Adequecyも減少
なぜ?
・繰り返しによる生成長の限界
Context Gatesを導入したNMT 8
• Context gatesの基本的な構成
• 各contextをどの程度利用するか計算 ( )
• 各context と を要素毎に乗算
• sourceのみ: source
• targetのみ : target
• 両方 : both
Context Gatesを導入したNMT 9
• source: sourceのcontextと を要素毎に乗算
※ 一般的な計算方法
要素積
Context Gatesを導入したNMT 10
• target: targetのcontextと を要素毎に乗算
※ 一般的な計算方法
Context Gatesを導入したNMT 11
• both: 両方のcontextと を要素毎に乗算
※ 一般的な計算方法
実験 12
• 中英翻訳
• LDCコーパス (1.25M 対訳対)
• 実験内容
• 翻訳の質の評価 (BLEU, 主観)
• アライメントの質の評価
• ネットワーク構造の分析
• 文長の影響の調査
• 比較手法
• Moses: SMT
• GroundHog: NMT
• GroundHog-Coverge: 被覆を導入したNMT
実験 13
• 翻訳の質の評価: BLEUによる評価
• #2-4: パラメータを減らしつつ、GRUと同じくらいの性能
• #4-7: 提案手法による性能の向上、bothが一番良い性能
• #1, 8-9: 提案手法による性能の向上、SMTよりも高い性能
実験 14
• 翻訳の質の評価: 主観評価
• ランダム選択した200文を2名の主観で評価
• 出力された2文を見てどちらが良いか判断
• 結果
• Adequacy: 30%良, 52%同じ, 18%悪
• Fluency : 29%良, 52%同じ, 19%悪
実験 15
• アライメントの質の評価
• GroundHogにcontext gateを加えても良くならない
• 被覆の概念を導入したモデルに加えると良くなる
※ 低いほうが良い
実験 16
• アライメントの質の評価
実験 17
• ネットワーク構造の分析
• #2-3: 要素積により性能が向上
• #3-4: 両方参照したほうがいい
• #4-5: Encoderの情報を使ったほうがいい
• #5-6: 1個前に生成された単語の情報は有用
実験 18
• 文長の影響の調査
• 長い文についても、GroundHog ほど精度が落ちない
まとめ 19
• 各contextがadequacyとfluencyにどう影響するか調査
• source context: adequacyに影響
• target context : fluencyに影響
• context gateを提案
• 動的に各contextの影響をコントロール可能

More Related Content

What's hot

Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelKei Uchiumi
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2ndAce12358
 
J-LIWC2015の紹介
J-LIWC2015の紹介J-LIWC2015の紹介
J-LIWC2015の紹介igarashilab
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本hoxo_m
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本hoxo_m
 
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...Kazutoshi Shinoda
 
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine TranslationSummary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine TranslationHiroshi Matsumoto
 
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5Python nlp handson_20220225_v5
Python nlp handson_20220225_v5博三 太田
 
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回博三 太田
 
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201博三 太田
 
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123博三 太田
 
Logics 18th ota_20211201
Logics 18th ota_20211201Logics 18th ota_20211201
Logics 18th ota_20211201博三 太田
 
対話テキストの自動要約
対話テキストの自動要約対話テキストの自動要約
対話テキストの自動要約Masahiro Yamamoto
 
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目schoowebcampus
 
09 manual writing20130611sample
09 manual writing20130611sample09 manual writing20130611sample
09 manual writing20130611sample和也 高山
 

What's hot (17)

Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
 
J-LIWC2015の紹介
J-LIWC2015の紹介J-LIWC2015の紹介
J-LIWC2015の紹介
 
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
 
複数の客観的手法を用いたテキスト含意認識評価セットの構築
複数の客観的手法を用いたテキスト含意認識評価セットの構築複数の客観的手法を用いたテキスト含意認識評価セットの構築
複数の客観的手法を用いたテキスト含意認識評価セットの構築
 
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
 
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine TranslationSummary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
 
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
 
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
 
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
 
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
 
Logics 18th ota_20211201
Logics 18th ota_20211201Logics 18th ota_20211201
Logics 18th ota_20211201
 
対話テキストの自動要約
対話テキストの自動要約対話テキストの自動要約
対話テキストの自動要約
 
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
 
09 manual writing20130611sample
09 manual writing20130611sample09 manual writing20130611sample
09 manual writing20130611sample
 

Recently uploaded

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 

Recently uploaded (9)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 

最先端NLP勉強会 Context Gates for Neural Machine Translation

  • 1. 読む人: 慶應義塾大学大学院 山本眞大 Context Gates for Neural Machine Translation 最先端NLP勉強会 Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, Hang Li (TACL2017) ※ 基本的に図表は原論文からの引用です。
  • 2. 概要 1 • NMTにおいて、sourceとtargetのcontextが adequacyとfluencyにどう影響するかを調査 • sourceのcontext: adequacyに影響 • targetのcontext: fluencyに影響 adequacy: sourceの単語が正確に翻訳できているか fluency : 単語のつながりの自然さ • (直感的にも…) • 内容語を生成する際: sourceのcontextを参照すべき • 機能語を生成する際: targetのcontextを参照すべき • 既存のNMT: 各contextを均一に扱う → sourceとtargetのcontextを動的に参照するための gate (context gates)を提案
  • 3. Neural Machine Translation 2 • 翻訳確率 • i番目の単語の生成確率 入力系列出力系列 Encoderの情報Decoderの隠れ層 線形変換を行った後、 sofrmax関数を適用する
  • 4. Neural Machine Translation 3 • i番目のデコーダの隠れ層 単語ベクトルRNN target context source context
  • 5. Source & Target Contextの影響の調査 4 • 目的: sourceとtargetのcontextが adequacyとfluencyに影響するかを調査 • 方法:デコーダの隠れ層の計算方法を変更 • 一般的な計算方法 • 今回の計算方法 target context source context スカラー値 スカラー値
  • 6. Source & Target Contextの影響の調査 5 • 定性的な調査 (a, b) = (1.0, 0.5) Fluencyが低い (a, b) = (0.5, 1.0) Adequacyが低い
  • 7. Source & Target Contextの影響の調査 6 • 翻訳の長さについての調査 • targetの割合を減少 → 長い文が生成されやすい • sourceの割合を減少 → 短い文が生成されやすい
  • 8. Source & Target Contextの影響の調査 7 • AdequacyとFluencyに関する調査 • sourceの割合を減少 → Adequecyが減少 • targetの割合を減少 → Fluencyが減少 + Adequecyも減少 なぜ? ・繰り返しによる生成長の限界
  • 9. Context Gatesを導入したNMT 8 • Context gatesの基本的な構成 • 各contextをどの程度利用するか計算 ( ) • 各context と を要素毎に乗算 • sourceのみ: source • targetのみ : target • 両方 : both
  • 10. Context Gatesを導入したNMT 9 • source: sourceのcontextと を要素毎に乗算 ※ 一般的な計算方法 要素積
  • 11. Context Gatesを導入したNMT 10 • target: targetのcontextと を要素毎に乗算 ※ 一般的な計算方法
  • 12. Context Gatesを導入したNMT 11 • both: 両方のcontextと を要素毎に乗算 ※ 一般的な計算方法
  • 13. 実験 12 • 中英翻訳 • LDCコーパス (1.25M 対訳対) • 実験内容 • 翻訳の質の評価 (BLEU, 主観) • アライメントの質の評価 • ネットワーク構造の分析 • 文長の影響の調査 • 比較手法 • Moses: SMT • GroundHog: NMT • GroundHog-Coverge: 被覆を導入したNMT
  • 14. 実験 13 • 翻訳の質の評価: BLEUによる評価 • #2-4: パラメータを減らしつつ、GRUと同じくらいの性能 • #4-7: 提案手法による性能の向上、bothが一番良い性能 • #1, 8-9: 提案手法による性能の向上、SMTよりも高い性能
  • 15. 実験 14 • 翻訳の質の評価: 主観評価 • ランダム選択した200文を2名の主観で評価 • 出力された2文を見てどちらが良いか判断 • 結果 • Adequacy: 30%良, 52%同じ, 18%悪 • Fluency : 29%良, 52%同じ, 19%悪
  • 16. 実験 15 • アライメントの質の評価 • GroundHogにcontext gateを加えても良くならない • 被覆の概念を導入したモデルに加えると良くなる ※ 低いほうが良い
  • 18. 実験 17 • ネットワーク構造の分析 • #2-3: 要素積により性能が向上 • #3-4: 両方参照したほうがいい • #4-5: Encoderの情報を使ったほうがいい • #5-6: 1個前に生成された単語の情報は有用
  • 19. 実験 18 • 文長の影響の調査 • 長い文についても、GroundHog ほど精度が落ちない
  • 20. まとめ 19 • 各contextがadequacyとfluencyにどう影響するか調査 • source context: adequacyに影響 • target context : fluencyに影響 • context gateを提案 • 動的に各contextの影響をコントロール可能