Submit Search
Upload
NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding
•
Download as PPTX, PDF
•
1 like
•
720 views
S
sakaizawa
Follow
小町研究室で行ったNAACL 2015読み会の資料です.
Read less
Read more
Science
Report
Share
Report
Share
1 of 12
Download now
Recommended
Droid kaigiプレゼン
Droid kaigiプレゼン
Suguru Oho
ディープボルツマンマシン入門〜後半〜
ディープボルツマンマシン入門〜後半〜
sakaizawa
ディープボルツマンマシン入門
ディープボルツマンマシン入門
Saya Katafuchi
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
Taikai Takeda
実装ディープラーニング
実装ディープラーニング
Yurie Oka
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
Masayoshi Kondo
CMSI計算科学技術特論C (2015) 可読性と性能の両立を目指して
CMSI計算科学技術特論C (2015) 可読性と性能の両立を目指して
Computational Materials Science Initiative
概念モデリング ワークショップ 基礎編 - Conceptual Modeling for Real World
概念モデリング ワークショップ 基礎編 - Conceptual Modeling for Real World
Knowledge & Experience
Recommended
Droid kaigiプレゼン
Droid kaigiプレゼン
Suguru Oho
ディープボルツマンマシン入門〜後半〜
ディープボルツマンマシン入門〜後半〜
sakaizawa
ディープボルツマンマシン入門
ディープボルツマンマシン入門
Saya Katafuchi
Chapter 8 ボルツマンマシン - 深層学習本読み会
Chapter 8 ボルツマンマシン - 深層学習本読み会
Taikai Takeda
実装ディープラーニング
実装ディープラーニング
Yurie Oka
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
Masayoshi Kondo
CMSI計算科学技術特論C (2015) 可読性と性能の両立を目指して
CMSI計算科学技術特論C (2015) 可読性と性能の両立を目指して
Computational Materials Science Initiative
概念モデリング ワークショップ 基礎編 - Conceptual Modeling for Real World
概念モデリング ワークショップ 基礎編 - Conceptual Modeling for Real World
Knowledge & Experience
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
正志 坪坂
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
Narihira Takuya
Eclipse xtext 紹介
Eclipse xtext 紹介
Akira Tanaka
More Related Content
Similar to NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Deep Learning JP
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
正志 坪坂
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
Narihira Takuya
Eclipse xtext 紹介
Eclipse xtext 紹介
Akira Tanaka
Similar to NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding
(6)
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
Eclipse xtext 紹介
Eclipse xtext 紹介
NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding
1.
NAACL 2015 読み会 Unsupervised
Multi-Domain Adaptation with Feature Embedding Yi Yang and Jacob Eisenstein 2015/06/24 M1 堺澤 勇也 ※ このスライド中の全ての図はこの論文中のもので
2.
表現学習は DA に対して有力な技術である 最近の研究では,SCLやDenoising
Autoencoderなどで 学習した表現がいい結果を出している しかし,上記の方法は以下のような問題点がある • 訓練コストが高い • ヒューリスッティクに“pivot feature”を与える必要が ある • 単一ソースから単一ターゲットに問題を限定してい る Introduction
3.
SCL と DA
(Denoising Autoencoder) はソースとター ゲット間で類似している表現を学習している → pivot featureを学習 これは,DAを解決するのに有効な 表現を学習出来るが以下の問題点がある • 計算コストが高い • pivot feature を再構築する必要がある 先行研究
4.
直接素性の表現を学習する (noise-constrastive estimation) 目的関数 学習後のインスタンス
n の表現 提案手法 n : インスタンス (n ∈ {1, … , N}) t : 素性テンプレート (t ∈ {1, … , T}) ufn(t) : 入力, vfn(t) : 出力 σ : シグモイド関数 Pt’ (n) : noise distribution 学習
5.
M個の metadata ドメインを入れる(右図) 目的関数 Xn (aug)を作る時はhi (0)
のみ使用 FE across domains
6.
二つの設定で品詞タグ付けを行う ① ニュース記事からweb記事に対してタグ付け(SANCL share
task) ② いくつかの時代とジャンルを超えたドメイン間の品 詞タグ付け(Tycho Brahe corpus) ①の結果→FE が品詞タグ付けによく効くか評価 ②の結果→multi-attribute DA の評価 Experiments
7.
品詞タグ付けを分類問題として解く(SVM使用) 素性
FEMA (Lexical + Affixes = 13) basic feature (All = 16) Experiments detail
8.
学習(news : WSJ)
training : section 02-21 dev : secction 22 Learning representation : 100,000 のラベルな し文 学習(web : SANCL) 5つのジャンル(newsgroups, reviews, weblogs, answers, emails) からそれぞれ100,000 のラベル なし文 ただし, ANSWERS domain のみ27,274文 テスト 各ドメインの1000文のラベルありデータ Evaluation:①
9.
比較システム6つ • baseline :
word2vecで表層の表現のみ使用 • MEMM : maximum entropy Markov model • FlORS : distribution features を使用 • SCL, mDA : pivot feature それぞれ 6918, 2754 • word2vec, FEMA : それぞれ 100 次元でサンプリング数 5 実験結果:
10.
Tycho Brahe
corpus は下の図のような形のコーパス 最新のものを学習データとし,それ以外のジャン ルで品詞タグ付けを行う Evaluation s : source, t : target
11.
実験結果: SCL : 1823 mDA
: 1823 word2vec : 50,15 FEMA(s) : 50,15 FEMA(a) : 50,15 FEMA(s) : ufn(t) 使用 FEMA(a) : hfn(t) (0) 使用
12.
FE は,DA
に対して有効であることがわかった metadata domain attribute を持つ FE の組み合わせ によって,各素性のドメイン普遍の本質を取得し, より頑健な表現を得ることができた まとめ
Download now