Advertisement
Advertisement

More Related Content

Similar to CVPR 2011 ImageNet Challenge 文献紹介(20)

Advertisement

Recently uploaded(20)

CVPR 2011 ImageNet Challenge 文献紹介

  1. CVPR/ICCV 2011 輪講 2012/5/14 なりひら
  2. 紹介内容 ●ImageNet challengeの2010,2011 Winnerの報告 ● 2010 NEC-UIUC (CVPR2011) 紹介 ● 2011 XRCE(CVPR2011) 概要紹介 ●ImageNet Challenge 2012 ● Fine-Grained classificationが追加 ● 多分有力:Yao Bangpeng, Fei-Fei Liら
  3. ImageNet Challenge ● 大規模データセットImageNetを使った画像認 識コンペ – とんでもないクラス数 とんでもないサンプル数
  4. 評価方法 ● Ground Truth – N classes labels / image ● アルゴリズム – Top 5 classes labels / image ● 評価 – [ sum [5 classesとも当たっていなければペナ1 for n=1:N] for i=1:numImage ]
  5. ImageNet Challenge 2010 Winner (Published in CVPR 2011) j
  6. The Contribution of this paper 新しいアルゴリズムは目的じゃない 中規模データセット(PASCAL VOCなど) の時と同等の性能で 効率的大規模データセット問題を解くこと 1. Hadoopによる特徴抽出並列化 2. 大規模データでのSVMの効率的な学習
  7. 中規模データセットでの State-of-the-art HoG (Shape), LBP (Texture) Multi-scale 16, 24, 32 LCC: Sparse codingより改善 Super-vector: 高次特徴量 Poolingになんとなく位置情報 Feature mapping次第で線形でいける
  8. 大規模に適用しようとすると (1.2M画像、1000クラス) No more than 500px at either side 〜208日(一枚〜15秒) 250日 Liblinear, svnlight etc.
  9. ScSPM: Sparse coding + Spatial spatial max pooling CVPR2009 pyramid pooling  average pooling  Histogram  max pooling  multiscale max pooling
  10. LCC  JinJun Wang et al, CVPR2010  Sparse codingよりも速く性能も高いcoding方法 解析的に係数が求まるので速い
  11. Super-vector coding
  12. 特徴量の規模 ぐぬぅ…
  13. Feature extractionを Hadoopで配列化 ● 特徴量計算はサンプ ルで独立だから並列 化しやすい ● 流行のHadoop使って やったぜ 208日 → 2日 (120 workers)
  14. 詳しくはWEBで
  15. SVM学習 1000 クラス 1-vs-all binary classifiersを学習 前述のとおり特徴量はとんでもないサイズ SVN^light LibSVMなどはBatch最適化だから無理 Stochastic Gradient Descentでやる Averagingバージョンは更に良い 1000クラスでmemory sharingするとI/O効率的
  16. SVMのコスト関数 正則化+ヒンジロス
  17. コスト関数の偏微分
  18. Stochastic Gradient Descent (SGD) サンプルごとの勾配でwを更新
  19. Averaging Stochastic Gradient Descent (ASGD) 超シンプル 大規模データでないと上手くいかないらしい 2次のSGDと同様な収束性能 Hesseの計算の必要なし ちょっとした計算テクニックも紹介
  20. ASGD SVMの並列化 ● File I/Oがボトルネッ ク(Readだけで19 hours) ● Bin classifier x 1000 を並列化 ● データセットをメモ リ共有 250日 → 4日 (6x12 workers)
  21. Results セット5の結果
  22. ASGD v.s. SGD ● ASGD converged very fast!
  23. 性能 ● Classification accuracy: 52.9% ● Top 5 hit rate: 71.8%
  24. ImageNet Challenge 2011 Winner (Published in CVPR 2011)
  25. ポイント 高次元特徴量(+線形識別器)を使うと性能良い のは知られている しかし、高次元(Fisher Vector)を扱うのは大変 良い特徴量圧縮方法Product quantizationを使う Hash Kernelよりも性能が落ちない
  26. 力尽き…
Advertisement