Submit Search
Upload
最先端NLP勉強会 Context Gates for Neural Machine Translation
•
Download as PPTX, PDF
•
1 like
•
1,098 views
M
Masahiro Yamamoto
Follow
2017年最先端NLP勉強会の資料です。 Context Gates for Neural Machine Translation (TACL2017)
Read less
Read more
Technology
Report
Share
Report
Share
1 of 20
Download now
Recommended
Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language Models
Shun Kiyono
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
antibayesian 俺がS式だ
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
antibayesian 俺がS式だ
おとなのテキストマイニング
おとなのテキストマイニング
Munenori Sugimura
Signl213
Signl213
Kei Uchiumi
平易な表現への言い換えに必要なテキスト修正処理
平易な表現への言い換えに必要なテキスト修正処理
swenbe
[DL輪読会]Attention InterpretabilityAcross NLPTasks
[DL輪読会]Attention InterpretabilityAcross NLPTasks
Deep Learning JP
Machine translation
Machine translation
Hiroshi Matsumoto
Recommended
Dynamic Entity Representations in Neural Language Models
Dynamic Entity Representations in Neural Language Models
Shun Kiyono
第三回さくさくテキストマイニング勉強会 入門セッション
第三回さくさくテキストマイニング勉強会 入門セッション
antibayesian 俺がS式だ
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
antibayesian 俺がS式だ
おとなのテキストマイニング
おとなのテキストマイニング
Munenori Sugimura
Signl213
Signl213
Kei Uchiumi
平易な表現への言い換えに必要なテキスト修正処理
平易な表現への言い換えに必要なテキスト修正処理
swenbe
[DL輪読会]Attention InterpretabilityAcross NLPTasks
[DL輪読会]Attention InterpretabilityAcross NLPTasks
Deep Learning JP
Machine translation
Machine translation
Hiroshi Matsumoto
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
Acl reading 2nd
Acl reading 2nd
Ace12358
J-LIWC2015の紹介
J-LIWC2015の紹介
igarashilab
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
複数の客観的手法を用いたテキスト含意認識評価セットの構築
複数の客観的手法を用いたテキスト含意認識評価セットの構築
長岡技術科学大学 自然言語処理研究室
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
Kazutoshi Shinoda
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Hiroshi Matsumoto
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
博三 太田
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
博三 太田
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
博三 太田
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
博三 太田
Logics 18th ota_20211201
Logics 18th ota_20211201
博三 太田
対話テキストの自動要約
対話テキストの自動要約
Masahiro Yamamoto
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
schoowebcampus
09 manual writing20130611sample
09 manual writing20130611sample
和也 高山
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
More Related Content
What's hot
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
Acl reading 2nd
Acl reading 2nd
Ace12358
J-LIWC2015の紹介
J-LIWC2015の紹介
igarashilab
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
複数の客観的手法を用いたテキスト含意認識評価セットの構築
複数の客観的手法を用いたテキスト含意認識評価セットの構築
長岡技術科学大学 自然言語処理研究室
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
Kazutoshi Shinoda
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Hiroshi Matsumoto
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
博三 太田
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
博三 太田
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
博三 太田
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
博三 太田
Logics 18th ota_20211201
Logics 18th ota_20211201
博三 太田
対話テキストの自動要約
対話テキストの自動要約
Masahiro Yamamoto
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
schoowebcampus
09 manual writing20130611sample
09 manual writing20130611sample
和也 高山
What's hot
(17)
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
Acl reading 2nd
Acl reading 2nd
J-LIWC2015の紹介
J-LIWC2015の紹介
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
複数の客観的手法を用いたテキスト含意認識評価セットの構築
複数の客観的手法を用いたテキスト含意認識評価セットの構築
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
Logics 18th ota_20211201
Logics 18th ota_20211201
対話テキストの自動要約
対話テキストの自動要約
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
09 manual writing20130611sample
09 manual writing20130611sample
Recently uploaded
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
Hiroshi Tomioka
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NTT DATA Technology & Innovation
Recently uploaded
(9)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
最先端NLP勉強会 Context Gates for Neural Machine Translation
1.
読む人: 慶應義塾大学大学院 山本眞大 Context Gates
for Neural Machine Translation 最先端NLP勉強会 Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, Hang Li (TACL2017) ※ 基本的に図表は原論文からの引用です。
2.
概要 1 • NMTにおいて、sourceとtargetのcontextが adequacyとfluencyにどう影響するかを調査 •
sourceのcontext: adequacyに影響 • targetのcontext: fluencyに影響 adequacy: sourceの単語が正確に翻訳できているか fluency : 単語のつながりの自然さ • (直感的にも…) • 内容語を生成する際: sourceのcontextを参照すべき • 機能語を生成する際: targetのcontextを参照すべき • 既存のNMT: 各contextを均一に扱う → sourceとtargetのcontextを動的に参照するための gate (context gates)を提案
3.
Neural Machine Translation
2 • 翻訳確率 • i番目の単語の生成確率 入力系列出力系列 Encoderの情報Decoderの隠れ層 線形変換を行った後、 sofrmax関数を適用する
4.
Neural Machine Translation
3 • i番目のデコーダの隠れ層 単語ベクトルRNN target context source context
5.
Source & Target
Contextの影響の調査 4 • 目的: sourceとtargetのcontextが adequacyとfluencyに影響するかを調査 • 方法:デコーダの隠れ層の計算方法を変更 • 一般的な計算方法 • 今回の計算方法 target context source context スカラー値 スカラー値
6.
Source & Target
Contextの影響の調査 5 • 定性的な調査 (a, b) = (1.0, 0.5) Fluencyが低い (a, b) = (0.5, 1.0) Adequacyが低い
7.
Source & Target
Contextの影響の調査 6 • 翻訳の長さについての調査 • targetの割合を減少 → 長い文が生成されやすい • sourceの割合を減少 → 短い文が生成されやすい
8.
Source & Target
Contextの影響の調査 7 • AdequacyとFluencyに関する調査 • sourceの割合を減少 → Adequecyが減少 • targetの割合を減少 → Fluencyが減少 + Adequecyも減少 なぜ? ・繰り返しによる生成長の限界
9.
Context Gatesを導入したNMT 8 •
Context gatesの基本的な構成 • 各contextをどの程度利用するか計算 ( ) • 各context と を要素毎に乗算 • sourceのみ: source • targetのみ : target • 両方 : both
10.
Context Gatesを導入したNMT 9 •
source: sourceのcontextと を要素毎に乗算 ※ 一般的な計算方法 要素積
11.
Context Gatesを導入したNMT 10 •
target: targetのcontextと を要素毎に乗算 ※ 一般的な計算方法
12.
Context Gatesを導入したNMT 11 •
both: 両方のcontextと を要素毎に乗算 ※ 一般的な計算方法
13.
実験 12 • 中英翻訳 •
LDCコーパス (1.25M 対訳対) • 実験内容 • 翻訳の質の評価 (BLEU, 主観) • アライメントの質の評価 • ネットワーク構造の分析 • 文長の影響の調査 • 比較手法 • Moses: SMT • GroundHog: NMT • GroundHog-Coverge: 被覆を導入したNMT
14.
実験 13 • 翻訳の質の評価:
BLEUによる評価 • #2-4: パラメータを減らしつつ、GRUと同じくらいの性能 • #4-7: 提案手法による性能の向上、bothが一番良い性能 • #1, 8-9: 提案手法による性能の向上、SMTよりも高い性能
15.
実験 14 • 翻訳の質の評価:
主観評価 • ランダム選択した200文を2名の主観で評価 • 出力された2文を見てどちらが良いか判断 • 結果 • Adequacy: 30%良, 52%同じ, 18%悪 • Fluency : 29%良, 52%同じ, 19%悪
16.
実験 15 • アライメントの質の評価 •
GroundHogにcontext gateを加えても良くならない • 被覆の概念を導入したモデルに加えると良くなる ※ 低いほうが良い
17.
実験 16 • アライメントの質の評価
18.
実験 17 • ネットワーク構造の分析 •
#2-3: 要素積により性能が向上 • #3-4: 両方参照したほうがいい • #4-5: Encoderの情報を使ったほうがいい • #5-6: 1個前に生成された単語の情報は有用
19.
実験 18 • 文長の影響の調査 •
長い文についても、GroundHog ほど精度が落ちない
20.
まとめ 19 • 各contextがadequacyとfluencyにどう影響するか調査 •
source context: adequacyに影響 • target context : fluencyに影響 • context gateを提案 • 動的に各contextの影響をコントロール可能
Download now