SlideShare a Scribd company logo
1 of 12
NAACL 2015 読み会
Unsupervised Multi-Domain
Adaptation with Feature Embedding
Yi Yang and Jacob Eisenstein
2015/06/24
M1 堺澤 勇也
※ このスライド中の全ての図はこの論文中のもので
表現学習は DA に対して有力な技術である
最近の研究では,SCLやDenoising Autoencoderなどで
学習した表現がいい結果を出している
しかし,上記の方法は以下のような問題点がある
• 訓練コストが高い
• ヒューリスッティクに“pivot feature”を与える必要が
ある
• 単一ソースから単一ターゲットに問題を限定してい
る
Introduction
SCL と DA (Denoising Autoencoder) はソースとター
ゲット間で類似している表現を学習している → pivot
featureを学習
これは,DAを解決するのに有効な
表現を学習出来るが以下の問題点がある
• 計算コストが高い
• pivot feature を再構築する必要がある
先行研究
直接素性の表現を学習する (noise-constrastive estimation)
目的関数
学習後のインスタンス n の表現
提案手法
n : インスタンス (n ∈ {1, … , N})
t : 素性テンプレート (t ∈ {1, … , T})
ufn(t) : 入力, vfn(t) : 出力
σ : シグモイド関数
Pt’
(n) : noise distribution
学習
M個の metadata ドメインを入れる(右図)
目的関数
Xn
(aug)を作る時はhi
(0) のみ使用
FE across domains
 二つの設定で品詞タグ付けを行う
① ニュース記事からweb記事に対してタグ付け(SANCL
share task)
② いくつかの時代とジャンルを超えたドメイン間の品
詞タグ付け(Tycho Brahe corpus)
 ①の結果→FE が品詞タグ付けによく効くか評価
 ②の結果→multi-attribute DA の評価
Experiments
 品詞タグ付けを分類問題として解く(SVM使用)
 素性
 FEMA (Lexical + Affixes = 13)
 basic feature (All = 16)
Experiments detail
学習(news : WSJ)
 training : section 02-21
 dev : secction 22
 Learning representation : 100,000 のラベルな
し文
学習(web : SANCL)
 5つのジャンル(newsgroups, reviews, weblogs,
answers, emails) からそれぞれ100,000 のラベル
なし文
 ただし, ANSWERS domain のみ27,274文
テスト
 各ドメインの1000文のラベルありデータ
Evaluation:①
比較システム6つ
• baseline : word2vecで表層の表現のみ使用
• MEMM : maximum entropy Markov model
• FlORS : distribution features を使用
• SCL, mDA : pivot feature それぞれ 6918, 2754
• word2vec, FEMA : それぞれ 100 次元でサンプリング数
5
実験結果:
 Tycho Brahe corpus は下の図のような形のコーパス
 最新のものを学習データとし,それ以外のジャン
ルで品詞タグ付けを行う
Evaluation
s : source, t : target
実験結果:
SCL : 1823
mDA : 1823
word2vec : 50,15
FEMA(s) : 50,15
FEMA(a) : 50,15
FEMA(s) : ufn(t) 使用
FEMA(a) : hfn(t)
(0) 使用
 FE は,DA に対して有効であることがわかった
 metadata domain attribute を持つ FE の組み合わせ
によって,各素性のドメイン普遍の本質を取得し,
より頑健な表現を得ることができた
まとめ

More Related Content

Similar to NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A SurveyDeep Learning JP
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた正志 坪坂
 
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object DetectionDeep Learning JP
 
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介Narihira Takuya
 
Eclipse xtext 紹介
Eclipse xtext 紹介Eclipse xtext 紹介
Eclipse xtext 紹介Akira Tanaka
 

Similar to NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding (6)

[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey[DL輪読会]Deep Face Recognition: A Survey
[DL輪読会]Deep Face Recognition: A Survey
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
 
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
 
Eclipse xtext 紹介
Eclipse xtext 紹介Eclipse xtext 紹介
Eclipse xtext 紹介
 

NAACL 2015 Unsupervised Multi-Domain Adaptation with Feature Embedding