Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
tm_2648
445 views
Decoupled Neural Interfaces using Synthetic Gradients
Nextremer勉強会 A.Saito
Science
◦
Related topics:
Neural Networks
•
Read more
0
Save
Share
Embed
Embed presentation
Download
Downloaded 10 times
1
/ 28
2
/ 28
3
/ 28
4
/ 28
5
/ 28
6
/ 28
7
/ 28
8
/ 28
9
/ 28
10
/ 28
11
/ 28
12
/ 28
13
/ 28
14
/ 28
15
/ 28
16
/ 28
17
/ 28
18
/ 28
19
/ 28
20
/ 28
21
/ 28
22
/ 28
23
/ 28
24
/ 28
25
/ 28
26
/ 28
27
/ 28
28
/ 28
More Related Content
PDF
kashimura m
by
harmonylab
PPTX
Distributed Representations of Sentences and Documents
by
sakaizawa
PPTX
Paper: seq2seq 20190320
by
Yusuke Fujimoto
PPTX
Minimally Supervised Classification to Semantic Categories using Automaticall...
by
sakaizawa
PDF
Generating Diverse High-Fidelity Images with VQ-VAE-2
by
harmonylab
PPTX
Depth Creates No Bad Local Minimaの紹介
by
KCS Keio Computer Society
PDF
Bi-Directional Block Self-Attention for Fast and Memory-Efficient Sequence Mo...
by
Satoru Katsumata
PPTX
はじめてのCNN
by
yoshida takayuki
kashimura m
by
harmonylab
Distributed Representations of Sentences and Documents
by
sakaizawa
Paper: seq2seq 20190320
by
Yusuke Fujimoto
Minimally Supervised Classification to Semantic Categories using Automaticall...
by
sakaizawa
Generating Diverse High-Fidelity Images with VQ-VAE-2
by
harmonylab
Depth Creates No Bad Local Minimaの紹介
by
KCS Keio Computer Society
Bi-Directional Block Self-Attention for Fast and Memory-Efficient Sequence Mo...
by
Satoru Katsumata
はじめてのCNN
by
yoshida takayuki
Viewers also liked
PDF
自然言語処理システムに想像力を与える試み
by
tm_2648
PDF
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
PDF
Decoupled Neural Interfaces輪読資料
by
Reiji Hatsugai
PDF
WebDB Forum 2016 gunosy
by
Hiroaki Kudo
PDF
Which Is Deeper - Comparison Of Deep Learning Frameworks On Spark
by
Spark Summit
PDF
TensorFlow White Paperを読む
by
Yuta Kashino
PDF
End to end training with deep visiomotor
by
Masato Nakai
PDF
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
by
Toshihiko Yamasaki
PDF
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
by
tm_2648
PDF
Chainer with natural language processing hands on
by
Ogushi Masaya
PPTX
Wikipedia Entity VectorとWordNetで 対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
by
Ogushi Masaya
PDF
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
by
Ogushi Masaya
PPTX
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
by
Ogushi Masaya
PPTX
Step by Stepで学ぶ自然言語処理における深層学習の勘所
by
Ogushi Masaya
PDF
Word2vecの理論背景
by
Masato Nakai
PPTX
Differentiable neural conputers
by
naoto moriyama
PDF
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
PDF
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
PDF
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
PDF
農業Aiハッカソンやってみた(第10回 Machine Learning 15minutes!)
by
Kohei Mochida
自然言語処理システムに想像力を与える試み
by
tm_2648
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
by
tm_2648
Decoupled Neural Interfaces輪読資料
by
Reiji Hatsugai
WebDB Forum 2016 gunosy
by
Hiroaki Kudo
Which Is Deeper - Comparison Of Deep Learning Frameworks On Spark
by
Spark Summit
TensorFlow White Paperを読む
by
Yuta Kashino
End to end training with deep visiomotor
by
Masato Nakai
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
by
Toshihiko Yamasaki
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
by
tm_2648
Chainer with natural language processing hands on
by
Ogushi Masaya
Wikipedia Entity VectorとWordNetで 対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
by
Ogushi Masaya
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
by
Ogushi Masaya
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
by
Ogushi Masaya
Step by Stepで学ぶ自然言語処理における深層学習の勘所
by
Ogushi Masaya
Word2vecの理論背景
by
Masato Nakai
Differentiable neural conputers
by
naoto moriyama
Convolutional Neural Netwoks で自然言語処理をする
by
Daiki Shimada
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
by
Daiki Shimada
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
農業Aiハッカソンやってみた(第10回 Machine Learning 15minutes!)
by
Kohei Mochida
Similar to Decoupled Neural Interfaces using Synthetic Gradients
PPTX
深層学習とTensorFlow入門
by
tak9029
PDF
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
PPT
Deep Learningの技術と未来
by
Seiya Tokui
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PPTX
RNN.pptx
by
FumiyaOnishi
PDF
attention_is_all_you_need_nips17_論文紹介
by
Masayoshi Kondo
PPTX
ラビットチャレンジレポート 深層学習 Day1
by
ssuserf4860b
PDF
深層学習レポート Day1 (小川成)
by
ssuser441cb9
PDF
A yet another brief introduction to neural networks
by
Yuta Kikuchi
PDF
Deep Learning
by
Masayoshi Kondo
PDF
20140705.西野研セミナー
by
Hayaru SHOUNO
DOCX
レポート深層学習Day3
by
ssuser9d95b3
PPTX
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
PDF
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
PDF
SGDによるDeepLearningの学習
by
Masashi (Jangsa) Kawaguchi
PDF
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
by
hirokazutanaka
PDF
20150803.山口大学集中講義
by
Hayaru SHOUNO
PDF
Recurrent Neural Networks
by
Seiya Tokui
PDF
Deep learning実装の基礎と実践
by
Seiya Tokui
PPTX
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
深層学習とTensorFlow入門
by
tak9029
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
Deep Learningの技術と未来
by
Seiya Tokui
Deep Learningの基礎と応用
by
Seiya Tokui
RNN.pptx
by
FumiyaOnishi
attention_is_all_you_need_nips17_論文紹介
by
Masayoshi Kondo
ラビットチャレンジレポート 深層学習 Day1
by
ssuserf4860b
深層学習レポート Day1 (小川成)
by
ssuser441cb9
A yet another brief introduction to neural networks
by
Yuta Kikuchi
Deep Learning
by
Masayoshi Kondo
20140705.西野研セミナー
by
Hayaru SHOUNO
レポート深層学習Day3
by
ssuser9d95b3
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
SGDによるDeepLearningの学習
by
Masashi (Jangsa) Kawaguchi
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
by
hirokazutanaka
20150803.山口大学集中講義
by
Hayaru SHOUNO
Recurrent Neural Networks
by
Seiya Tokui
Deep learning実装の基礎と実践
by
Seiya Tokui
Deep Learningについて(改訂版)
by
Brains Consulting, Inc.
Decoupled Neural Interfaces using Synthetic Gradients
1.
Nextremer Co., LTD. Confidential
Document 10/6/16 Decoupled Neural Interfaces using Synthetic Gradients Authors: Max Jaderberg et al. Reporter: A. Saito 1
2.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document アウトライン やりたいこと より一般的な分散NNモデルの学習(Model Parallel) 理由:より柔軟なモデルをより効率的に訓練 End to end系のさらなる拡張など 問題 Forward, Backwardの考え方は「硬すぎる」 非同期性と相性悪い 提案 DNI: Decoupled Neural Interface Feedforward NNとRNNの学習から同期性を取り除いた より一般的な分散モデル学習への指針を示した
3.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document やりたいこと より一般的な分散NNモデルとは? 有向グラフで表現 各頂点が分割されたモデルの断片or1台機械に対応 頂点でNNが実行される NNの中間層の出力を入力とする 有向辺上にNNの入出力値orBP値 頂点数でスケールさせたい 非同期性を考慮
4.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 問題 いろいろなLockingが生じる Backward(Forward) Locking – 各々の層は自分より上位(下位)層の全計算完了まで待つ – 最上位=出力&最下位=入力 最悪、深さに比例する待ち時間 その他注意 論文中のUpdate Locking NNに限らない一般な分散モデルでも、待ちを強制される
5.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 提案のアイデア 分散環境の送信値が間違っていてもOK! – 最初は送り手の頂点だって不正確な値を出力する 有向辺に流れる送信値を近似するNNを用意 – 頂点から送信された値との「差分」が目的関数 – 辺の個数と同じだけ目的関数がある 送信値は多種多様 – Back Propagationのデルタ値 – Forward計算の途中値 分散環境全体を見て最適化 – 頂点のモデルの学習に伴い送信値を正確にする
6.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 提案のアイデア 分散環境の送信値が間違っていてもOK! – 最初は送り手の頂点だって不正確な値を出力する 有向辺に流れる送信値を近似するNNを用意 – 頂点から送信された値との「差分」が目的関数 – 辺の個数と同じだけ目的関数がある 送信値は多種多様 – Back Propagationのデルタ値 – Forward計算の途中値 分散環境全体を見て最適化 – 頂点のモデルの学習に伴い送信値を正確にする
7.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 送信値を近似する 分散環境の送信値が間違っていてもOK! 最初は送り手の頂点だって不正確な値を出力する BP勾配の場合 多層に渡るImplicitなパラメータを無視
8.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 送信値を近似する 分散環境の送信値が間違っていてもOK! 最初は送り手の頂点だって不正確な値を出力する BP勾配の場合 多層に渡るImplicitなパラメータを無視 第i層以外を無視
9.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document DNIの図解例 有向辺に流れる送信値を近似するNNを用意 頂点から送信された値との「差分」が目的関数 近似デルタ値をSynthetic gradient 送信値を近似するNN(M_B)を用意 図の送信値は誤差 他の種類もある 点線は非同期可 S_Bは同期強制 cは、付加的な教師情報 分類ラベルのOne-hot-vector等 c付モデル=cDNI これも目的関数 One-hot など
10.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document Decouplingの場所 どこをDecupledにするかは、任意に決められる
11.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 提案のアイデア 分散環境の送信値が間違っていてもOK! – 最初は送り手の頂点だって不正確な値を出力する 有向辺に流れる送信値を近似するNNを用意 – 頂点から送信された値との「差分」が目的関数 – 辺の個数と同じだけ目的関数がある 送信値は多種多様 – Back Propagationのデルタ値 – Forward計算の途中値 分散環境全体を見て最適化 – 頂点のモデルの学習に伴い送信値を正確にする
12.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document Back & Forwardを近似 送信値の例 Back Propagationのデルタ値 Forward計算の途中値 どっちも使う例
13.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 提案のアイデア 分散環境の送信値が間違っていてもOK! – 最初は送り手の頂点だって不正確な値を出力する 有向辺に流れる送信値を近似するNNを用意 – 頂点から送信された値との「差分」が目的関数 – 辺の個数と同じだけ目的関数がある 送信値は多種多様 – Back Propagationのデルタ値 – Forward計算の途中値 分散環境全体を見て最適化 – 頂点のモデルの学習に伴い送信値を正確にする – 例としてUpdate Locking@FNN & RNNを説明
14.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document FNNのBP重み更新の例 隣接3層が1層3個に分割 2個の誤差近似NNを用意 一番上は出力層 最下層から順に繰り返す 近似NN値から層の重み更新 1つ上の層からの誤差and/or 1つ下の層から近似NNの重み更新 2個の目的関数を定義
15.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document FNNのBP重み更新の例 i+1番目の近似NN出力から第i層の重みを更新
16.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document FNNのBP重み更新の例 i+2番目の近似NN出力から第i+1層の重みを更新 第i+1層誤差&第i層出力からi+1番目の近似NN 重み更新
17.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document FNNのBP重み更新の例 教師信号から第i+2層重み更新 第i+2層誤差&第i+1層出力からi+2番目の近似NN 重み更新
18.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document RNNでは RNN 時間長=深さ とりあえずオフラインのBPTTのみ考慮 例:9ステップのとき
19.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document RNNでは RNN 時間長=深さ とりあえずオフラインのBPTTのみ考慮 例:9ステップのとき 深さ3の時間展開されたNNが3つ 各々の深さ3の部分では、通常のBP 間に2つDNI挟む
20.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document RNNでは 例:9ステップのとき 図のt+3以前の区間の重み更新にt+4以降の情報が使用されて いる Truncated BPTTより精密な処理をしている Truncated BPTTは計算グラフの存在を無視 デルタ=0とみなして足しているのと同じ
21.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document RNNでは 例:9ステップのとき – 近似の近似(Synthetic gradientの近似) – 隣接していない2つの断片にもDNIを挟める
22.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document RNNでは 例:9ステップのとき – 近似の近似(Synthetic gradientの近似) – 隣接していない2つの断片にもDNIを挟める
23.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 提案のアイデア 分散環境の送信値が間違っていてもOK! – 最初は送り手の頂点だって不正確な値を出力する 有向辺に流れる送信値を近似するNNを用意 – 頂点から送信された値との「差分」が目的関数 – 辺の個数と同じだけ目的関数がある 送信値多種多様 – Back Propagationのデルタ値 – Forward計算の途中値 分散環境全体を見て最適化 – 頂点のモデルの学習に伴い送信値を正確にする
24.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 実験結果の例 cDNIの付加情報cは効果的 Forward & Update のUnlockでもOK
25.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 実験結果(MNIST) cDNIの付加情報cは効果的!!! ここに one-hot など
26.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 実験結果(MNIST) ちゃんと学習できてるYO!! Forward & Update のUnlockでもOKです。
27.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document 実験結果(PTB) PTBもできてる Character-level language modelling
28.
Nextremer Co., LTD.
Confidential DocumentNextremer Co., LTD. Confidential Document まとめ 俺達の分散モデル学習はこれからだ!!! 先生の次回作にご期待下さい!
Download