Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

[DL輪読会]Adversarial Representation Active Learning

889 views

Published on

020/02/07
Deep Learning JP:
http://deeplearning.jp/seminar-2/2

Published in: Technology
  • Be the first to comment

[DL輪読会]Adversarial Representation Active Learning

  1. 1. 1 DEEP LEARNING JP [DL Papers] http://deeplearning.jp/ Adversarial Representation Active Learning Keno Harada, UT, B3
  2. 2. 書誌情報 ● 著者情報: ○ Ali Mottaghi, Serena Yeung ○ Stanford University ○ 第一著者はPhD2年目?, 第二著者はCS231nで講師もしていたSerenaさん(2018年にFei-Fei Liの labでPhD, 今はStanfordでAssistant Professor) ○ この二人はArtificial Intelligence in Healthcare (http://web.stanford.edu/class/biods220/) という授業を行うみ たい(授業のslideは公開されている) ● 論文リンク: https://arxiv.org/pdf/1912.09720.pdf ● 一言で: ○ Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり学習をクラス分類器の学習に組 み込んだActive Learning手法を提案, 画像分類のタスクで既存のactive learning手法の性能を上回った
  3. 3. 目次 ● Active Learning ● 提案手法 ○ Variational adversarial acquisition function ○ Semi-supervised framework for incorporating unlabeled data ○ Co-training for full model ● 全体のアルゴリズム ● 実験 ○ 実験結果 ● 所感
  4. 4. Active Learning ● どのようなデータからモデルが学ぶべきかを選択できるという設定で, より少 ないラベル付き学習データで高精度を出せるようにする手法 ○ ラベルなしデータの中でラベル付けされるべきデータを選び, ラベル付け後学習データへ加えて いく ● 全てのデータへのラベル付けがコスト面などから難しい場面など Image from http://burrsettles.com/pub/settles.a ctivelearning.pdf
  5. 5. Active Learning 3つの枠組み ● Membership Query Synthesis ○ 生成したデータにラベル付けを行う ● Stream-Based Selective Sampling ○ ある基準を超えたものをラベル付けして加えていく ● Pool-Based Sampling ○ ラベル付けされていないデータ全体から, ある基準でラベル付け優先度をつけ, 優先度の高いも のをラベル付けしていく ○ よくある設定
  6. 6. Active Learning 基準の計算 (Query strategy framework) ● Uncertainty Sampling ○ ラベルの予測分布のエントロピーから算出など ● Query-By-Committe ○ いくつかモデルを用意して予測が食い違ったものを選ぶ ● Expected Model Change ○ 勾配をもとに, どれがモデルに変化をもたらしそうかを選ぶ ● Expected Error Reduction ○ 残りのunlabeledデータでのエラー率が低くなるようなものを選ぶ ● Variance Reduction ○ 出力の分散を最小化するようなものを選ぶ ● Density-Weighted Methods ○ 何らかの情報量の基準に, 他のデータとの類似性を掛け合わせた値で選ぶ
  7. 7. 提案手法 Adversarial Representation Active Learning
  8. 8. 提案手法 Adversarial Representation Active Learning ● Variational adversarial acquisition functionをサンプリング関数とし, 半教師あり 学習をクラス分類器の学習に組み込んだActive Learning手法を提案 ○ acquisition functionと半教師あり学習で用いるconditional GANはencoder, decoderを共有してお り, それぞれのモデルの向上が相乗効果的に効いてくる(という主張) ○ ラベル無しデータの活用とco-trainが強みだと言っている ● 3つのKey要素 ○ Variational adversarial acquisition function ○ Semi-supervised framework for incorporating unlabeled data ○ Co-training for full model
  9. 9. Variational adversarial acquisition function
  10. 10. Variational adversarial acquisition function Encoder and Decoder(Generator) Loss ● trd_VAAL: β-VAE Loss ● adv_VAAL: VAEのEncoderはラベルあり・無しデータを同じような確率分布に なるように潜在空間に落とし込もうとする
  11. 11. Variational adversarial acquisition function Discriminator (Sampler) Loss ● S(z): 潜在変数がラベルありデータから得られているとする確信度を表す ○ この値が低いとラベル無しデータであると考えられ,ラベル有りデータ空間とは異なるものと みなす ○ ラベル付けする際の基準として用いる ● S_VAAL: Discriminatorは与えられた潜在変数がラベルありデータから得られた ものなのかかラベル無しデータから得られたものなのかを判別する
  12. 12. Semi-supervised framework for incorporating unlabeled data ● Decoderを半教師ありのGeneratorとして活用 ○ ラベル無しのデータ構造についての情報を目的のクラス分類器がより得られる ■ Generatorによるデータ拡張の効果 ● BiGAN構造を採用 ○ https://arxiv.org/pdf/1605.09782.pdf
  13. 13. Semi-supervised framework for incorporating unlabeled data ロス関数 ● C(x)が精度を上げる対象のクラス分類器 ● Discriminatorとネットワーク構造を共有している部分があり,クラス分類器は より良い表現を獲得(?)
  14. 14. Co-training of full model ● Acquisition functionとconditional GANのEncoder, Decoder(Generator)はネット ワーク共通
  15. 15. 全体のアルゴリズム 新たなラベル付け EncoderとDecoderの学習 Discriminatorの学習 Samplerの学習
  16. 16. 実験 ● MNIST, SVHN, CIFAR-10, CelebA, ImageNetで実験 ● 比較手法 ○ Max-Entropy method ○ Bayesian Active Learning by Disagreement (BALD) ○ Variational Adversarial Active Learning (VAAL) ■ VAALのクラス分類器はラベル付けされたデータのみで学習 ○ Random ○ Full training of our model ■ 全部にラベルを付けて学習 ■ upper bound
  17. 17. 実験結果
  18. 18. 実験結果
  19. 19. 実験結果 どの要素が効いているのか? ● No active learning ○ samplerとEncoderへのadversarial部分を削除,randomにラベル付けを行う ● No encoder ○ Encoderを削除,Bayesian Active Learning by Disagreementをもとにラベル付けを行う ● No co-training ○ Variational Adversarial Active Learning(VAAL)をもとにラベル付け,事前に訓練済みのGANで画 像生成しデータ拡張 ● Random ○ ランダムにラベル付け,ラベル有りデータでクラス分類器を学習
  20. 20. 実験結果 どの要素が効いているのか? 半教師あり学習の効果 active learningの効果 Co-trainingの効果
  21. 21. 実験結果 どの要素が効いているのか? ラベル有り・無しで の表現学習の効果
  22. 22. 所感 ● SegmenationやDetectionのタスクでもうまくいくのか? ● Co-trainingでうまく行く理由が未だによくわからない ○ ネットワーク構造一緒にすれば一般的にうまくいくものなのか? ○ multi-task learning? ● Active learningの欠点って何だろう? ○ チューニング大変そう ○ 別のモデルで得られたラベルデータセットで学習し直すと精度下がる事例があるらしい ● 強化学習でのダイナミクスモデルの効率的な学習との共通点はあるか?
  23. 23. Class conditionalの設定に合わせたvariational acquisition functionのロス

×