Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
HF
Uploaded by
Hiroyuki Fukuda
2,715 views
Learning to learn by gradient descent by gradient descent
NIPS読み会2016で発表したものです。
Data & Analytics
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Downloaded 46 times
1
/ 31
2
/ 31
3
/ 31
4
/ 31
5
/ 31
6
/ 31
7
/ 31
8
/ 31
9
/ 31
10
/ 31
11
/ 31
12
/ 31
13
/ 31
14
/ 31
15
/ 31
16
/ 31
17
/ 31
18
/ 31
19
/ 31
20
/ 31
21
/ 31
22
/ 31
23
/ 31
24
/ 31
25
/ 31
26
/ 31
27
/ 31
28
/ 31
29
/ 31
30
/ 31
31
/ 31
More Related Content
PDF
Conditional Image Generation with PixelCNN Decoders
by
suga93
PPTX
Introduction of "TrailBlazer" algorithm
by
Katsuki Ohto
PPT
時系列データ3
by
graySpace999
PDF
Fast and Probvably Seedings for k-Means
by
Kimikazu Kato
PDF
Value iteration networks
by
Fujimoto Keisuke
PDF
Dual Learning for Machine Translation (NIPS 2016)
by
Toru Fujino
PPTX
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
by
Shuhei Yoshida
PDF
Safe and Efficient Off-Policy Reinforcement Learning
by
mooopan
Conditional Image Generation with PixelCNN Decoders
by
suga93
Introduction of "TrailBlazer" algorithm
by
Katsuki Ohto
時系列データ3
by
graySpace999
Fast and Probvably Seedings for k-Means
by
Kimikazu Kato
Value iteration networks
by
Fujimoto Keisuke
Dual Learning for Machine Translation (NIPS 2016)
by
Toru Fujino
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
by
Shuhei Yoshida
Safe and Efficient Off-Policy Reinforcement Learning
by
mooopan
Viewers also liked
PDF
Interaction Networks for Learning about Objects, Relations and Physics
by
Ken Kuroki
PPTX
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
by
Kazuto Fukuchi
PDF
Improving Variational Inference with Inverse Autoregressive Flow
by
Tatsuya Shirakawa
PDF
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
PDF
論文紹介 Combining Model-Based and Model-Free Updates for Trajectory-Centric Rein...
by
Kusano Hitoshi
PDF
NIPS 2016 Overview and Deep Learning Topics
by
Koichi Hamada
PPTX
Differential privacy without sensitivity [NIPS2016読み会資料]
by
Kentaro Minami
PDF
Matching networks for one shot learning
by
Kazuki Fujikawa
PPTX
ICML2016読み会 概要紹介
by
Kohei Hayashi
PDF
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
Interaction Networks for Learning about Objects, Relations and Physics
by
Ken Kuroki
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
by
Kazuto Fukuchi
Improving Variational Inference with Inverse Autoregressive Flow
by
Tatsuya Shirakawa
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
論文紹介 Combining Model-Based and Model-Free Updates for Trajectory-Centric Rein...
by
Kusano Hitoshi
NIPS 2016 Overview and Deep Learning Topics
by
Koichi Hamada
Differential privacy without sensitivity [NIPS2016読み会資料]
by
Kentaro Minami
Matching networks for one shot learning
by
Kazuki Fujikawa
ICML2016読み会 概要紹介
by
Kohei Hayashi
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
Similar to Learning to learn by gradient descent by gradient descent
PDF
20150310 第1回 ディープラーニング勉強会
by
哲朗 島田
PDF
20160329.dnn講演
by
Hayaru SHOUNO
PDF
深層学習(岡本孝之 著) - Deep Learning chap.3_1
by
Masayoshi Kondo
PDF
強化学習とは (MIJS 分科会資料 2016/10/11)
by
Akihiro HATANAKA
DOCX
レポート深層学習Day4
by
ssuser9d95b3
PDF
多様な強化学習の概念と課題認識
by
佑 甲野
PPTX
深層学習①
by
ssuser60e2a31
PPTX
海鳥の経路予測のための逆強化学習
by
Tsubasa Hirakawa
PDF
数学で解き明かす深層学習の原理
by
Taiji Suzuki
PDF
深層学習(岡本孝之 著)Deep learning Chap.4_2
by
Masayoshi Kondo
PDF
それっぽく感じる機械学習
by
Yuki Igarashi
PDF
深層学習(岡本孝之 著)Deep learning chap.4_1
by
Masayoshi Kondo
PDF
これから始めるディープラーニング
by
Okamoto Laboratory, The University of Electro-Communications
PDF
強化学習の汎用化Ros
by
Masato Nakai
PDF
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
by
Masayoshi Kondo
PPTX
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
by
harmonylab
PDF
Deep learning2
by
ssuserf94232
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
PPTX
人と機械の協働によりデータ分析作業の効率化を目指す協働型機械学習技術(NTTデータ テクノロジーカンファレンス 2020 発表資料)
by
NTT DATA Technology & Innovation
PDF
深層学習(岡本 孝之 著)Deep learning chap.5_1
by
Masayoshi Kondo
20150310 第1回 ディープラーニング勉強会
by
哲朗 島田
20160329.dnn講演
by
Hayaru SHOUNO
深層学習(岡本孝之 著) - Deep Learning chap.3_1
by
Masayoshi Kondo
強化学習とは (MIJS 分科会資料 2016/10/11)
by
Akihiro HATANAKA
レポート深層学習Day4
by
ssuser9d95b3
多様な強化学習の概念と課題認識
by
佑 甲野
深層学習①
by
ssuser60e2a31
海鳥の経路予測のための逆強化学習
by
Tsubasa Hirakawa
数学で解き明かす深層学習の原理
by
Taiji Suzuki
深層学習(岡本孝之 著)Deep learning Chap.4_2
by
Masayoshi Kondo
それっぽく感じる機械学習
by
Yuki Igarashi
深層学習(岡本孝之 著)Deep learning chap.4_1
by
Masayoshi Kondo
これから始めるディープラーニング
by
Okamoto Laboratory, The University of Electro-Communications
強化学習の汎用化Ros
by
Masato Nakai
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
by
Masayoshi Kondo
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
by
harmonylab
Deep learning2
by
ssuserf94232
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
人と機械の協働によりデータ分析作業の効率化を目指す協働型機械学習技術(NTTデータ テクノロジーカンファレンス 2020 発表資料)
by
NTT DATA Technology & Innovation
深層学習(岡本 孝之 著)Deep learning chap.5_1
by
Masayoshi Kondo
Learning to learn by gradient descent by gradient descent
1.
Learning to learn
by gradient descent by gradient descent @NIPS2016読み会 発表者 福田 宏幸
2.
自己紹介 福田 宏幸 2000年4月 (株)電通
入社 コピーライター 2016年7月 (株)電通デジタル 出向 2016年9月 東京大学新領域創成科学研究科 博士課程1年 専門:バイオインフォマティクス
3.
イントロダクション
4.
本論文の要旨 Deep Learningが 学習法の学習も手に入れた。
5.
学習法の学習? • Deep Learningの成功=特徴量の自動学習 •
しかし、 学習アルゴリズム(SGD等の最適化 アルゴリズム)の設計は、未だ人間。 • 本論文では、学習アルゴリズム自体をディー プラーニングで学習する方法を提案。
6.
Alpha GoのDeepMind社の論文
7.
著者のNIPSでの講演 https://www.youtube.com/watch?v=tPWGGwmgwG0
9.
Deep Learningにおける学習 • コスト関数の設定 二乗誤差 クロスエントロピー •
高次元、非凸関数。 • 勾配降下法(Gradient Descent)等により コスト関数を最小にするパラメーターを探索
10.
勾配降下法(Gradient Descent) • 傾きに沿ってパラメーターθを更新していく •
α:学習率 αが大きすぎる:振動する。 αが小さすぎる:更新が遅い。 http://prog3.com/sbdm/blog/google19890102/article/details/50276775
11.
発展形 • パラメーターの更新の仕方がそれぞれ違う • Adagrad(2011) •
RMSprop(2012) • ADAM(2015) http://postd.cc/optimizing-gradient-descent/#fnref:3
12.
http://postd.cc/optimizing-gradient-descent/#fnref:3
13.
学習法を学習する
14.
何を学習すればよいのか? • 更新量をディープラーニングが学習 • Optimizee:
f(θ) 学習したい問題の誤差関数 Optimizer: g(φ) 更新量を出力するNN Gradient Descent Learning to Learn
15.
誤差関数をどう定義するか? • 「良い最適化」を定義したい • 確率分布に従って生成された誤差関数を平 均的に最適化する θ*(f,φ)
最適化されたパラメータ
16.
誤差関数をどう定義するか? • 勾配の時系列を扱えるように定式化 • m:LSTM
:時刻tの勾配 :時刻tの状態 :ウエイト。論文では1を使用。
17.
ネットワーク • LSTMに、時刻tでの勾配を入力していく。 ※LSTMの方のパラメーター最適化は、Adam。
18.
• 計算量を減らすために、それぞれのパラメー タについて独立に更新していく。 (LSTMの重みのみ共通) Coordinatewise LSTM
19.
実験結果
20.
実験 • Quadratic • MNIST •
CIFAR10 • DEEP ART
21.
• Optimizeeが、二次関数。 • Wとyの値をサンプリングで生成し、学習。 •
他のアルゴリズムに比べて早く収束。 Quadratic Function
22.
MNIST • 同じく早く収束。 • テスト時の活性化関数を ReLUに変えると収束しない。
23.
MNIST • 最終的な誤差の値も少さい。
24.
CIFAR10 • CNNでも実験。 (3layers, 32hidden
units) • 畳込み層と全結合層では重みを共有しない。 • CIFAR5、CIFAR2への転移学習も上手くいく。
25.
DEEP ART • 1800の画像と、1つのスタイルを学習。
26.
DEEP ART • 高解像度画像への転移学習。 64×64pixels→128×128pixels
27.
DEEP ART • ディープラーニングが問題を 上手く一般化できている。
28.
まとめ
29.
まとめ • ディープラーニングにより、学習アルゴリズム 自体を学習する方法を提案 • 既存の最適化手法を上回る精度を得た。 •
問題の構造を上手く一般化することができた。
30.
個人的感想 • 結局チューニングがありそう。 • 大きなデータセット、ネットワー? •
データマイニングのコンペティションで試して みたい。
31.
実装も公開されています • 本家 https://github.com/deepmind/learning-to- learn • シンプルな実装 http://runopti.github.io/blog/2016/10/17/lea rningtolearn-1/
Download