Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

ICML2016読み会 概要紹介

3,513 views

Published on

ICML読み会で冒頭に発表したスライドです.
http://connpass.com/event/34960/

Published in: Data & Analytics
  • Be the first to comment

ICML2016読み会 概要紹介

  1. 1. 自己紹介 • 2016年4月~:産総研AIセンター研究員 – @hayasick • 専門: 機械学習・データマイニング∩!深層学習 • 今年のICMLでの成果: – Masaaki Imaizumi, KH Doubly Decomposing Nonparametric Tensor Regression (本会議) – Satoshi Hara, KH Making Tree Ensembles Interpretable (解釈性WS) Best paper runner-up
  2. 2. ICML: International Conference of Machine Learning • NIPSに次ぐ機械学習の国際会議 – NIPS >= ICML > AISTATS > 他 (※個人的イメージ) • 母体:The International Machine Learning Society • 今年で33年目
  3. 3. 基本情報 • 開催日:6月19 – 24 – 9 チュートリアル – 5 パラレルセッション + 1 ポスターセッション – 23 ワークショップ • 場所:ニューヨーク – タイムズスクエアの隣
  4. 4. 指数増加!
  5. 5. トレンドの分析
  6. 6. トピックごとの盛り上がり #ofAcceptedPapers ディープラーニングとそれに必要な 最適化が伸びている
  7. 7. ディープラーニング • 去年に比べてさらに伸びている – 17 セッション,57 論文! • 去年の25本から倍以上 • 採択数の増分(322-270=52)の半分を占める? – 2 ベストペーパー (3本中) • Dueling Network Architectures for Deep RL (Google/Deepmind) • Pixel Recurrent Neural Networks (Deepmind) – 3 ワークショップ – 3 チュートリアル • 内容はこの読み会で!
  8. 8. 最適化 • 非凸最適化 – 7+ papers (Ctrl-S), 1 tutorial, 1 workshop • ハイパーパラメータの最適化 – 3+ papers, 1 workshop (AutoML)
  9. 9. ディープラーニング以外のトピック • 従来のトピックも堅実に推移 – 特徴選択・スパース学習がやや落ち込む?
  10. 10. 現地で感じたこと(1) • 企業の参加者が多かった印象 – アカデミアの研究者の数はそこまで増えないはず – 倍増した参加者のほとんどは企業関係? • 倍増の要因は場所(NY)も大きく関係? – 機械学習は米が中心 -> 研究者が来やすい
  11. 11. 現地で感じたこと(2) • 企業ブースも相変わらず充実 – 基本的にはリクルート目的 • DLブームはもう1~2年は続きそう – 流行りのパターン: • 性能・応用がすごいのが出てくる ->理論解析が進む ->やることがなくなる,のサイクル – DLはまだ理論面が進んでいない
  12. 12. 論文チャンス? • 日本からDL論文を出せないか? – 残念ながら本会議では0 • DLは性能・応用重視 – 意味のある応用,実際に必要な応用 – 試行錯誤のため{マン,マシン}パワーが重要 インダストリが得意 • ただし「面白ければ通る」というわけでもない – トップ会議に通すための「作法」 – ストーリー,ロジック,網羅的な実験 アカデミアが得意 インダストリ+アカデミアで 何かできないか?
  13. 13. まとめ • ICML史上最大の参加者 • ディープラーニングの伸びはまだ続きそう Thank you!
  14. 14. Photos • @mpd37, @MaryanMorel, @_beenkim, @jkomiyama_, @GPUComputing, @fabmilo, @f_negibozu

×