Your SlideShare is downloading. ×
ACL2011読み会: Query Weighting for Ranking Model Adaptation
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

ACL2011読み会: Query Weighting for Ranking Model Adaptation

2,059
views

Published on

ACL2011読み会の発表資料

ACL2011読み会の発表資料

Published in: Technology

0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
2,059
On Slideshare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
13
Comments
0
Likes
2
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. ACL2011読み会: Query Weighting forRanking Model Adapation 2011-09-03 Yoshihiko Suhara @sleepy_yoshi
  • 2. 1012 Query Weighting for Ranking Model Adaptation• by Peng Cai, Wei Gao, Aoying Zhou and Kam- Fai Wong• ランキング学習+転移学習のはなし 2
  • 3. おことわり• ACLは自然言語処理の会議• そう気が付いたのは昨夜の2時でした 3
  • 4. 1枚要約• 目的 – 異なるドメインの訓練データを用いてランキング学習 を行う• 提案 – クエリ単位で事例転移 (instance transfer) を行うこと を提案し,各クエリの重み付け方法を2種類提案• 結論 – 転移元の訓練データだけを用いたベースライン,文 書単位で事例転移する方法に比べて精度向上 4
  • 5. 2つのキーワード• Learning to rank (ランキング学習)• Transfer learning (転移学習) /Domain adapation (ド メイン適応) 5
  • 6. Learning to rank 6
  • 7. 近代的なランキングの実現方法• 多数のランキング素性を用いてランキングを実現 クエリ・文書関連度 (クエリ依存) 1 (, ) e.g., BM25 クエリq ・ ・ ・ (, ) ランキング関数 T Φ(, ) +1 () 検索スコア e.g., PageRank ・ ・ ・クエリqを含む ()文書d 文書の重要度 (クエリ非依存) = Φ(, ) 7
  • 8. ランキング素性の例クエリq = “hoge” のときの文書1の例• TF-TITLE □: 1 TITLE hoge /TITLE BODY ... hoge ....• TF-BODY □: 3 ............................... ..... hoge ................• IN-LINK: 5 ............................... hoge ......................• URL length: 12 /BODY http://www.hoge.com/ ⇒ Φ hoge, 1 = 1, 3, 5, 12 8
  • 9. ランキング学習の訓練データ 素性や評価はクエリ毎に与えられる 1 2 Training 1 1 2 2 (1 , 1 ) (1 , 1 ) (1 , 1 ) data 1 1 2 2 … (2 , 2 ) (2 , 2 ) (2 , 2 ) … 1 1 … … (1 , 1 ) 2 2 ( , ) (2 , 2 ) 9
  • 10. 正解データ (適合性評価) の作成方法• クエリに対する検索結果集合の一部に対して,「クエリが 表す意図」に適合しているかという観点で点数を付与 – 評価点数は多段階 – 複数の被験者の適合度を平均 (余談) 複数アノテータのモデル化 e.g., Amazon Mechanical Turks [Wu+ 11]クエリgooに対する適合度評価 クエリ:goo 適合度 gooトップ 5 1 被験者の事前知識 に依存するため, ブレなく評価するのは 2 スパムブログ 0 難しい... 3 IT記事 評価点数はクエリ・文書ペアに対して付与 4 10
  • 11. ランキング学習におけるモデルの生成 未知のクエリ (1 , ? )Training (2 , ? ) data … ( , ? ) 入力 学習アルゴリズム モデル 学習/生成 出力 直接順列を出力 する手法もある 予測値 = (1 , 1 , ..., ) 11
  • 12. Transfer learning/Domain adaptation 12
  • 13. Transfer learning (転移学習)• Domain adaptation (ドメイン適応) とも呼ばれる• 通常のInductive learningでは訓練データとテスト データの分布が同一であることを仮定• 半教師あり学習はテストデータと同じ分布を仮定• 異なる分布のデータを利用できないか? – 事例x and/or ラベルyが異なる分布⇒ 転移学習 13
  • 14. Traditional ML vs. TL Learning Process of Learning Process of Traditional ML Transfer Learning training items training items source domain target domainLearning System Learning System Learning System Knowledge Learning System 14 ([Pan+ 10]のスライドより引用)
  • 15. 15
  • 16. Transfer Learningの課題• What to transfer – 何を?• How to transfer – どうやって?• When to transfer 16
  • 17. Transfer Learningにおける問題設定 Transfer learning settings Labeled data in Labeled data in Tasks a source domain a target domain Inductive Transfer Learning × √ Classification Regression √ √ …Transductive Transfer Learning √ × Classification Regression …Unsupervised Transfer Learning × × Clustering … 17 ([Pan+ 10]のスライドより引用)
  • 18. Inductive Transfer Learning• 4つのアプローチ – 1. instance transfer – 2. feature representation transfer – 3. parameter-transfer – 4. relational knowledge transfer 18
  • 19. Instance transfer• “... which assumes the certain parts of the data in the source domain can be reused for the target domain by re-weighting.”• major technique – (a) re-weighting – (b) important sampling source domainの訓練データを 「適切に重み付け」することによって target domainの分布に合わせる 19
  • 20. 転移学習文献• [Pan+ 10]のほかに以下の文献が詳しい• 神嶌 敏弘, 転移学習, 人工知能学会誌, vol.25, no.4, pp.572-580 (2010) 20
  • 21. 前座終了 21
  • 22. 本題 22
  • 23. Introduction 23
  • 24. 背景• Learning to rank のための訓練データ作成は コストが高い • できれば,ドメイン毎に訓練データを用意する のは避けたい • 既にあるドメインの訓練データを転用できると うれしい  24
  • 25. 目的と問題設定• 目的 – source domainの訓練データを用いて,target domainで有効に働くランキング関数を生成する• 問題設定 – source domain • labeled data (評価付きデータ) – target domain • unlabeled data (評価なしデータ) 25
  • 26. 文書単位 vs. クエリ単位 26
  • 27. Query-weighting が妥当な例• 文書単位では類似度が高くても,クエリ単位 では類似度が高くない例 27
  • 28. 提案手法の概要• 提案手法は以下の2ステップで実現 – (1) source domainのクエリの重み付け – (2) クエリ重みを考慮したランキング学習 28
  • 29. (1) Query weighting 29
  • 30. クエリの重み付け方法• Query weighting by – (i) Document Feature Aggregation – (ii) Comparing Queries across Domains 30
  • 31. (i) Document Feature Aggregation 31
  • 32. Query feature vector• クエリに含まれる文書の特徴表現を用いてク エリの特徴表現を生成 – (1) 平均 1 = || =1 – (2) 分散 1 2 = − || =1 32
  • 33. 再掲: ランキング学習の訓練データ 素性や評価はクエリ毎に与えられる 1 2 Training 1 1 2 2 (1 , 1 ) (1 , 1 ) (1 , 1 ) data 1 1 2 2 … (2 , 2 ) (2 , 2 ) (2 , 2 ) … 1 1 … … (1 , 1 ) 2 2 ( , ) (2 , 2 ) 平均と分散 33
  • 34. 34
  • 35. 入力はsource domain,target domainの訓練データ 出力はsource domainの各クエリに対する重み情報 35
  • 36. source domain のquery feature vectorを生成 -1の事例とする 36
  • 37. target domain のquery feature vectorを生成 +1の事例とする 37
  • 38. source domainとtarget domain の分類器を学習 38
  • 39. source domainの各クエリの予測結果を確率に変換 (*1) 39
  • 40. 補足: (*1) 超平面からの距離の確率的解釈• SVMの超平面からの距離 (にシグモイド関数をかけ たもの) は,事例の事後確率として解釈できまっせ (意訳) [Platt 99] – 確率にするため,超平面からの距離にシグモイド関数を 適用 (とはデータから学習) ∈ = 1 1 + exp( ∗ + )ロジスティック回帰と一緒 40
  • 41. (i) Document Feature Aggregation のまとめ• クエリに含まれる文書の平均と分散をクエリ の特徴表現とする• source domainのクエリとtarget domainのクエ リを分離するマージン分類器を学習• source domainの各クエリを,分類器の超平 面からの距離に応じて重み付けする そんな簡単な方法でいいの? 平均と分散って情報落としすぎじゃ・・・ 41
  • 42. (ii) Comparing Queries across Domains 42
  • 43. (ii) Comparing Queries across Domains• source domainの各クエリとtarget domainの 各クエリの類似度を計算 – source domainのクエリ×target domainのクエリ 43
  • 44. 44
  • 45. 入力はsource domain,target domainの訓練データ 出力はsource domainの各クエリに対する重み情報 45
  • 46. source domainのクエリiの各文書を-1の事例とする 46
  • 47. target domainのクエリiの各文書を+1の事例とする 47
  • 48. source domainとtargetdomainの分類器を学習 48
  • 49. クエリiに含まれる各文書の超平面からの距離を用いて 事後確率を計算 49
  • 50. それらの平均をクエリiの 重みとする 50
  • 51. (2) Ranking Model Adapation via Query Weighting 51
  • 52. RankingSVM (RSVM)• Pairwise手法 – 文書ペアで損失を設定し,二値分類問題として解く – あれ? クエリ毎に重み付けするモチベーションて,リストワイズ手 法を意識して…ごほっごほっ ただし,zij = sign( yi – yj 52 )
  • 53. RSVMとヒンジ損失• ヒンジ損失を用いて以下のように変形できる loss 53
  • 54. RSVM with Query Weighting• ヒンジ損失に対してクエリ重みを適用 loss 54
  • 55. 参考: IR-SVM [Cao+ 06] 引用されてない...• (1) ペア毎に異なる損失重みを利用 – 評価指標に影響を与えるペアの誤りに対して大きな 損失を与える (ヒンジロスの傾き)• (2) クエリ毎のペアの偏りを排除 – 多くのペアを持つクエリに対して損失を小さくする loss 55
  • 56. Evaluation 56
  • 57. 実験• データセット – LETOR3.0 (複数のデータセットから成る) を利用• ベースライン手法 – source domainのみで学習 (no-weight) – 文書単位の instance transfer 手法であるdoc-pair, doc-avg, doc-comb [Gao+ 10]• 実験条件 – 類似度にはDomain Separator (DS) と Kullback-Leibler divergence (KL) を利用• 評価指標 – MAPで評価 57
  • 58. Experiment 1target domain 0.2628 0.2237 0.2628 0.2237 58
  • 59. Experiment 2target domain 0.7408 0.6675 0.7408 0.6675 59
  • 60. 補足: LETOR3.0データセット [Qin+ 10]より抜粋 60
  • 61. クエリ重み付け妥当性の評価• クエリ重みと,当該クエリで学習したモデルでtarget domainをランキングした際のMAP値の順位相関 61
  • 62. Efficiency• query-compでも,doc-pairに比べて高速 62
  • 63. Conclusion 63
  • 64. まとめ• クエリ単位の事例転移を用いたランキング学 習の枠組みを提案 – クエリ重み付け方法を2種類提案• 文書単位で事例転移を行う既存手法に比べ て高精度に学習可能 64
  • 65. 参考文献• [Wu+ 11] O. Wu, W. Hu, J. Gao, “Learning to Rank under Multiple Annotators”, IJCAI2011.• [Pan+ 10] S. J. Pan and Q. Yang, “A Survey on Transfer Learning”, IEEE Transactions on Knowledge and Data Engineering, pp.1345-1359, Vol.22(10), 2010.• [Platt 99] J. C. Platt, “Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods”, In Advances in Large Margin Classifiers, pp.61-74, MIT Press.• [Cao+ 06] Y. Cao, J. Xu, T.-Y. Liu, H. Li, Y. Huang, H.-W. Hon, “Adapting ranking SVM to document retrieval”, SIGIR2006.• [Gao+ 10] W. Gao, P. Cai, K.-F. Wong, A. Zhou, “Learning to Rank Only Using Training Data from Related Domain”, SIGIR2010.• [Qin+ 10] T. Qin, T.-Y. Liu, J. Xu, H. Li, “LETOR: A benchmark collection for research on learning to rank for information retrieval”, Information Retrieval, Vol.13(4), pp.346–374, 2010. 65