モデルアーキテクチャ観点からのDeep Neural Network高速化

Yusuke Uchida
Yusuke UchidaResearch engineer at Mobility Technologies
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの
Deep Neural Network⾼速化
Yusuke Uchida (@yu4u)
1
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
今⽇のおはなし(本発表⼀番のマサカリ場)
2	
			CUDA
cuDNN
NVIDIA	
GPU
GPU
WebGL WebGPU
TPU
Video	
Core	IV
??????
TensorFlow,	
Chainer,	…
deeplearn	
.js
WebDNN??????
@9_Jes	
さん
アプリケーションレイヤ	
@Kiikurage	
さん@notogawa	
さん
@kazunori_279	
さん
@Venginner	
さん
@iwiwi	
さん
@yu4u
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Disclaimer
!  画像を想定した畳み込みニューラルネットワークの話がメインです
!  初歩的な話もしますが許してください
3
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
トレードオフ
!  タスクの精度
!  推論速度
!  訓練速度
!  モデルサイズ(圧縮されたファイルとして)
!  Forwardで必要なメモリサイズ(モデルサイズ含む)
!  推論(訓練速度)はCPUかGPUか、
バッチサイズが1なのか⼤きく取れるのかに⼤きく影響される
4
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
5
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Convolutionの計算量
6	
W
H
W
H
N M
K
K
•  ⼊⼒レイヤサイズ:H	x	W	x	N	
•  畳み込みカーネル:K	x	K	x	N	x	M		
         [conv	K	x	K,	M]と表記	(e.g.	[conv	3x3,	64])	
•  出⼒レイヤサイズ:H	x	W	x	M	
•  畳み込みの計算量:H・W・N・K2・M	
※バイアス項無視、padding	=	“same”
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Convolutionの計算量
7	
W
H
W
H
N M
K
K
•  ⼊⼒レイヤサイズ:H	x	W	x	N	
•  畳み込みカーネル:K	x	K	x	N	x	M		
         [conv	K	x	K,	M]と表記	(e.g.	[conv	3x3,	64])	
•  出⼒レイヤサイズ:H	x	W	x	M	
•  畳み込みの計算量:H・W・N・K2・M	
※バイアス項無視、padding	=	“same”
画像スケール、	
チャネル数、	
カーネルサイズの2乗に⽐例
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
8
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Factorization
!  Low Rank Matrix Factorization
⾏列(=畳み込みカーネル)を低ランク近似することで計算量を削減
!  学習によって得られた⾏列を分解するというよりは
最初から分解した形で重みを学習する
(のでfactorizationと⾔って良いのか?)
9	
≈
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳み込みカーネルの空間的Factorization
!  ⼤きな畳込みカーネルを複数の⼩さな畳込みカーネルに置き換える
⁃  conv 5x5 と conv 3x3 - conv 3x3 は同じreceptive fieldを持つ
⁃  計算量は 25:18
⁃  ⼩さな畳み込みを重ねるパターンはactivation層の数も多いため
表現能⼒の向上が期待できる
!  例
⁃  AlexNet:conv 11x11 - conv 5x5 - conv 3x3 - …
  ↓
⁃  VGGNet:conv 3x3 - conv 3x3 - conv 3x3 - …
10	
conv	5x5 conv	3x3	-	conv	3x3
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳み込みカーネルの空間的Factorization
!  conv 3x3 vs conv 1x3 - conv 3x1
⁃  計算量は 9:6
!  例:
Inception v6→v7
11	
conv	3x3 conv	1x3	-	conv	3x1	
hap://lsun.cs.princeton.edu/slides/ChrisJan.pdf
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
畳込みカーネルの空間⽅向とチャネル⽅向のFactorization
!  通常の畳込みカーネルをdepthwise / pointwise convolutionに分離
!  Depthwise (separable) convolution
⁃  Input tensorに対しチャネル毎に畳み込み
⁃  計算量:H・W・N・K2・M (M=N)
    H・W・K2・N
!  Pointwise convolution
⁃  ただのconv 1x1, M
⁃  計算量:H・W・N・K2・M (K=1)
    H・W・N・M
!  Depthwise + pointwise
⁃  計算量:H・W・N・(K2 + M)
    ≒ H・W・N・M (M >> K2) 12	
W
H
W
H
N
1
1
M
W
H
W
H
N
K
K
N
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Dilated convolution
!  カーネルの重みに規則的に0を⼊れてカーネルサイズを拡張
!  ⼩さいカーネルと同じ計算量+パラメータで広いreceptive fieldを持つ
⁃  Feature mapの解像度を⾼く保ちたいsegmentationや超解像で
良く使われる
!  例
⁃  Dilated Residual Networks, CVPRʼ17.
⁃  WaveNet - A Generative Model for Raw Audio
13	
conv	5x5 conv	3x3,	dilaJon	=	2
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
実際の処理速度は??
!  PyTorchとKeras (TensorFlow backend) で簡単な実験
⁃  特定の種類のconvolutionのみを含む16層CNNを構築
•  Batch normalizationやactivation層はなし
⁃  ⼊⼒tensorを 32x32x32x64(バッチサイズ32、チャネル数64)
⁃  ランダムな⼊⼒を100回forwardした時間を計測
⁃  環境:Ubuntu 16.04, CPU: i7-7700 3.60GHz、
   GPU: GeForce GTX1080
(TensorFlowはAVX2等を使うようにコンパイルしていない)
!  Summary
14
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
実際の処理速度は??
!  PyTorchとKeras (TensorFlow backend) で簡単な実験
⁃  特定の種類のconvolutionのみを含む16層CNNを構築
•  Batch normalizationやactivation層はなし
⁃  ⼊⼒tensorを 32x32x32x64(バッチサイズ32、チャネル数64)
⁃  ランダムな⼊⼒を100回forwardした時間を計測
⁃  環境:Ubuntu 16.04, CPU: i7-7700 3.60GHz、
   GPU: GeForce GTX1080
(TensorFlowはAVX2等を使うようにコンパイルしていない)
!  Summary
15	
Depthwise	
convoluJon
Conv	3x3	
dilaJon	=	2
haps://github.com/yu4u/conv-benchmark
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch CPU
16	
Conv	3x3⽐の	
理論計算量
Depthwise	
convoluJon
Conv	3x3	
dilaJon	=	2
Conv	3x3⽐の
実処理時間
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch CPU
!  Depthwise convolutionとdilated convolution以外は
実処理時間と理論計算量が⼀致
!  どちらもメモリの局所性がないため?
⁃  教えて中村さん!
!  PyTorchのdepthwise convolutionはめっちゃ遅い
⁃  Grouped convolutionでグループ数=チャネル数でやってるため
17
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
PyTorch GPU
!  GPUだとfactorizeしないほうが良さそう
⁃  でも5x5が遅いのは?
18
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Keras CPU
!  PyTorchと傾向は同じ
⁃  Depthwise convolutionは専⽤の効率的な実装が存在
⁃  Dilated convolutionも早い
19
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Keras GPU
!  PyTorchとだいたい同じ?
!  Dilated convolutionは早い
20
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
中間的なFactorization
!  Efficient and Accurate Approximations of Nonlinear Convolutional
Networks, CVPRʼ15.
!  Conv k x k, d を Conv k x k, dʼ - Conv 1 x 1, d に分解
⁃  学習済みのカーネルを、出⼒feature mapの誤差を
最⼩に保つように最適化問題を解くことで分解
⁃  計算量:dk2c → dʼk2c + ddʼ = dʼ(k2c + d) ≒ dʼk2c
21
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Domain-adaptive deep network compression, ICCVʼ17.
!  FC層を低ランク近似することで圧縮する
!  通常は重みWと、Wを低ランク⾏列の積で近似したWʼとの誤差を最⼩に
するが、ここではWX(=Y)の誤差を最⼩にする部分がNovelty
(だが1つ前の⼿法とアプローチは同じでは…)
22
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
23
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Efficient microarchitecture (module)
!  Convをスタックするマクロアーキテクチャ (~VGGNet) から
マイクロアーキテクチャをスタックする時代へ (GoogLeNet, ResNet~)
!  様々なマイクロアーキテクチャ (module or building block)
⁃  mlpconv (Network in Network)
⁃  Inception module (GoogLeNet)
⁃  Residual block, bottleneck block (ResNet)
⁃  ResNeXT
⁃  DenseBlock (DenseNet)
⁃  Fire module (SqueezeNet)
⁃  Separable conv (Xception, MobileNets)
⁃  Neural architecture search (meta learning)
!  ダイレクトに計算量を減らすというよりは
精度と計算量のトレードオフを改善する
⁃  実⽤上は精度を担保して、どれだけ計算量を減らせるか
24
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Residual Networks, ResNet(参考)
25	
基本形
conv	3x3,	64
conv	3x3,	128
conv	3x3,	256
conv	3x3,	512
global	average	pooling	
FC
x	N1
x	N2
x	N3
x	N4
56x56
28x28
14x14
7x7
出⼒	
画像サイズ
Building	block	/	
Residual	unit
•  パラメータの違うResidual	unitを重ねていく
•  Batch	normalizaJon	
•  画像サイズを半分+フィルタ数を倍に
•  最後はglobal	average	pooling
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Residual block, bottleneck block
!  Bottleneckバージョンは、conv 3x3, 256を
Factorizeしたものと⾒ることもできる
⁃  Receptive fieldは⼩さい
26	
通常のresidual	block “boaleneck”	バージョン
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Fire module (SqueezeNet)
!  戦略
⁃  3x3の代わりに1x1のフィルタを利⽤する
⁃  3x3への⼊⼒となるチャネル数を少なくする
!  ちなみに⾮常に⼈気のあるモデルだと思われるが…
⁃  ResNetやInception後の論⽂なので、そこからの差異が⼩さい
とのことで、ICLRʼ17でrejectとなっている
27	
conv	1x1,	s1x1
conv	1x1,	e1x1 conv	3x3,	e3x3
concat
Fire	module	
	
	
	
	
	
32
128128
256
256
Squeeze	layer
Expand	layer
conv	3x3,	256の	
Factorizeと⾒ることもできる
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Fire module (SqueezeNet)
28	
Squeeze layerでの圧縮率
0.75程度だと精度低下なし
0.5でー0.7%
Expand layerの3x3割合
0.75程度だと精度低下なし
0.5でー0.7%
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Depthwise separable convolution
!  Xception
!  MobileNets
!  Xceptionはdepthwise/pointwise convの間にReLUがない
⁃  実験でないほうが良いことを⽰している
!  Xceptionはidentity mappingがある
29	
Depthwise conv 3x3
Pointwise conv 3x3
Batch normalization
ReLU
Separable conv 3x3
ReLU
(Maxpool 3x3, stride=2)
Conv 1x1,
stride=2
Separable conv 3x3
Depthwise conv 3x3
Batch normalization
ReLU
Batch normalization
Pointwise conv 3x3
ReLU
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  moduleアーキテクチャをRNNで最適化
30	
!  ⼤枠のアーキテクチャは決まっている	
•  (ReducJon	cell	+	Normal	cell	×	N)	×	K	
!  ReducJon	cell:feature	mapをダウンサンプル	
!  利⽤可能な要素は下記
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  できたmodule
!  Sep多い
31
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Transferable Architectures for Scalable Image
Recognition, arXiv:1707.07012.
!  結果
!  Mult-addとのトレードオフは良いが実速は?
32
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
33
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Pruning
!  異なるレベルのpruning
⁃  重みレベル
⁃  カーネルレベル
⁃  チャネル(フィルタ)レベル
⁃  レイヤレベル
34	
Structured	
(⾼速化しやすい	
 最適化しづらい)
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  重みレベルのpruning
35	
•  通常通り重みを訓練	
•  しきい値以下の重みをprune(0にする)	
•  0の重みはそのままにfine-tuneする
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
36	
•  ⾮ゼロ要素を7.5%にまで削減	
•  但し、ほとんどFC層	
↑モダンなモデル	(ResNet~)	はglobal	average	poolingを使うので	
 ここまでパラメータの多いFC層がない
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
(余談)Global average pooling
!  Network In Network, ICLRʻ14. で提案された
!  Feature mapサイズの average pooling
!  オリジナルの論⽂では N をクラス数にすることで、
global average poolingの出⼒がそのままprediction結果となる
⁃  その後の使われ⽅としては、後段に出⼒がクラス数のFC層を使う
!  何れにせよ、パラメータ数の多いFC層が不要
37	
W
H
N
N
1
1
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  んで早くなるの?
⁃  早くなる、FCはね!
(←cuSPARSE等のsparse⾏列演算ライブラリを利⽤)
!  Sparseな重みのconvolutionは?
38
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Pruning Filters for Efficient ConvNets, ICLRʼ17.
!  チャネルレベルのpruning
!  チャネル毎に、畳込みパラメータのL1ノルムが⼩さいものからprune
!  精度を保ったままpruningすると、計算量で10%台の削減
39
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
	
	
	
チャネル毎に⼊⼒を平均0分散1に正規化、γとβでscale	&	shit
Learning Efficient Convolutional Networks through
Network Slimming, ICCV'17.
!  チャネルレベルのpruning
!  各チャネルの出⼒をscalingする変数 γ を導⼊、Σi|γi| をロスとして学習
⁃  γ はbatch normalizationに導⼊する(というか最初からある)
⁃  Batch normalizationの正規化が必須
!  学習後、γi が⼩さいチャネルiを削除し、fine-tune
40	
 チャネルi
Batch	
normalizaJon
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Learning Efficient Convolutional Networks through
Network Slimming, ICCV'17.
!  正則化の効果により、pruning後に精度も上がる!
!  感想
⁃  学習した後にpruningするより筋が良い
⁃  シンプル&Batch normalizationで実現するの、素敵
⁃  SOTA精度のモデルをベースにして検証して欲しい
⁃  ResNetのようなskip connectionがあるとややこしい
41
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
L0ではなくLasso
に緩和して解く
Channel Pruning for Accelerating Very Deep Neural
Networks, ICCVʼ17.
!  チャネルレベルのpruning
!  あるfeature mapのチャネルについて、次のレイヤのfeature mapを
なるべく復元できるようなチャネルを選択し、残りを削除
!  VGG:5倍速, 精度0.3%↓、ResNet:2倍速, 精度1.4%↓
42
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
ThiNet: A Filter Level Pruning Method for Deep Neural
Network Compression, ICCVʼ17.
!  チャネルレベルのPruning
!  前のやつとアプローチは同じ、次のレイヤのfeature mapに誤差を発⽣
させないfilterを削除する
!  実際のforwardした結果から特定のフィルタを削除した際の誤差を計算
!  フィルタの削除はGreedyに⾏う、削除した後に、残ったフィルタを個々
にスケーリングして、誤差を軽減(linear regressionとして解ける)
!  最後にfine-tune
43
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
44
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Quantization
!  重みを量⼦化することでモデルのメモリを削減
⁃  半精度を利⽤するとかでなければソフト的には⾼速化ではない
(デモサイト等でのモデルのダウンロード速度は早くなるが)
!  量⼦化の種類
⁃  Scalar quantization(各次元毎に量⼦化
•  Binary
•  Uniform(centroidが⼀定間隔
•  Adaptive(centroidの間隔をkmeans等で学習
⁃  Product quantization(ベクトルを分割して個別に量⼦化
⁃  Residual quantization(量⼦化→残差を量⼦化
⁃  Hierarchical quantization(量⼦化→残差を量⼦化
⁃  Vector quantization
!  量⼦化効率(centroid数 vs 量⼦化誤差)
⁃  binary < scalar < product < residual, hierarchical < vector
45	
違いは後段の量⼦化コードブ
ックが単⼀かどうか
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Quantization
!  重みを量⼦化することでモデルのメモリを削減
⁃  半精度を利⽤するとかでなければソフト的には⾼速化ではない
(デモサイト等でのモデルのダウンロード速度は早くなるが)
!  量⼦化の種類
⁃  Scalar quantization(各次元毎に量⼦化
•  Binary
•  Uniform(centroidが⼀定間隔
•  Adaptive(centroidの間隔をkmeans等で学習
⁃  Product quantization(ベクトルを分割して個別に量⼦化
⁃  Residual quantization(量⼦化→残差を量⼦化
⁃  Hierarchical quantization(量⼦化→残差を量⼦化
⁃  Vector quantization
!  量⼦化効率(centroid数 vs 量⼦化誤差)
⁃  binary < scalar < product < residual, hierarchical < vector
46	
Deep	learningの	
コンテキストでは	
あまりない
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  (再掲)
47	
今度はココ
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
!  0でない重みをadaptive scalar quantization
!  重みを量⼦化した状態のままfine-tuneできる!!
48
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Deep Compression: Compressing Deep Neural Networks with
Pruning, Trained Quantization and Huffman Coding, ICLRʼ16
49	
重みのIDを	
ハフマン符号化
⾮ゼロ要素間のgapを	
ハフマン符号化
!  VGG16が552MB → 11.3MB
⁃  伸張に時間は必要そう
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Binary neural networks
!  神資料があるのでまとめだけ…
⁃  https://www.slideshare.net/kentotajiri/ss-77136469
50	
•  ⼊⼒も重みもバイナリ化すること
で⾼速化が可能	
•  ソフト的にも実装が可能	
•  サポートしているメジャーな	
フレームワークがない	
•  精度がまだ低い
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
51
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14
Deep Learning Workshop.
!  アンサンブルモデルや⼤きなモデルから、⼩さなモデルへの
knowledge transfer
⁃  精度を保ちながら⼩さなモデルを学習
52	
1. アンサンブルモデル
や⼤きなモデルを学習
2. 学習済みモデルを利⽤して
⼩さなモデルを学習
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14 Deep
Learning Workshop.
53	
……
学習画像
学習済みモデル
学習するモデル
…
正解ラベル
(ハード
ターゲット)
通常T	=	1のsotmaxのTを⼤きくした	
ソフトターゲットを利⽤
…
ソフトターゲット
ソフト
ターゲット
ハード
ターゲット
正解ラベルと	
学習モデル出⼒の	
両⽅を利⽤
推論時はT=1とする(argmaxは同じだが…
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Distilling the Knowledge in a Neural Network, NIPSʼ14
Deep Learning Workshop.
!  同⼀モデルでも、アンサンブルから学習したほうが良かったり
!  ソフトターゲットだと⼩数のデータで効率的に学習できたりする
54
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
モデルアーキテクチャ観点からの⾼速化
!  Factorization
!  Efficient microarchitecture (module)
!  Pruning
!  Quantization
!  Distillation
!  Early termination
55
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
BranchyNet: Fast Inference via Early Exiting from Deep
Neural Networks, ICPRʼ16.
!  ネットワークの途中からラベル推定する分岐を作成
!  そのsoft-maxのエントロピーを信頼値として
閾値以上の場合にExitする
!  学習時のロスは、全てのExitのロスの重み付き和
(重みが最後が1で途中が0.3というHeuristic…)
56
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
BranchyNet: Fast Inference via Early Exiting from Deep
Neural Networks, ICPRʼ16.
!  Exitする閾値を幾つか変えて実験(←MNIST、→CIFAR-10)
!  層の途中にもロスが⼊っている影響か、
ベースよりも精度が上がっている
57
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Spatially Adaptive Computation Time for Residual
Networks, CVPRʼ17.
!  各層のhalting scoreの合計が1を超えるとその層までの結果を出⼒
58	
計算量に関するロス
を追加
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Spatially Adaptive Computation Time for Residual
Networks, CVPRʼ17.
!  空間(feature map)レベルに拡張
59	
SACT=空間レベル	
ACT=res	blockレベル
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Adaptive Neural Networks for Efficient Inference,
ICMLʼ17.
60
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
Adaptive Feeding: Achieving Fast and Accurate Detections
by Adaptively Combining Object Detectors, ICCVʼ17.
!  SSD300, SSD500, R-FCNといった異なる精度・計算量のDetectorのう
ち、どれに画像を⼊⼒するかを判定する識別器(SVM)を学習
!  適切なDetectorにFeed→平均的な精度・計算量トレードオフを改善
!  識別器の学習は各画像について実際に各Detectorに検出させ、その
average precisionの⾼い⽅を正解ラベルとする
61
Copyright	©	DeNA	Co.,Ltd.	All	Rights	Reserved.	
まとめ
!  フレームワークより上のレイヤで意味があるのは
⁃  Factorization
⁃  Efficient microarchitecture (module)
⁃  Pruning
•  チャネルレベル(、レイヤレベル)
⁃  Quantization
•  半精度(、バイナリ)
⁃  Distillation
⁃  Early termination
!  精度重視のモデルで学習し、効率的なmoduleにdistillationし、
pruningし、バイナリ化し、early terminationする
→ Efficient module + distillation + channel-level pruning
62
1 of 62

Recommended

近年のHierarchical Vision Transformer by
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K views46 slides
モデル高速化百選 by
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
24.8K views64 slides
Transformerを多層にする際の勾配消失問題と解決法について by
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
4.8K views16 slides
ドメイン適応の原理と応用 by
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
5.5K views50 slides
【論文紹介】How Powerful are Graph Neural Networks? by
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
3.9K views23 slides
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~ by
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII
10.6K views38 slides

More Related Content

What's hot

【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) by
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)Deep Learning JP
3.7K views52 slides
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces by
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
4.8K views34 slides
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 by
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
16K views38 slides
Deep Learningによる超解像の進歩 by
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩Hiroto Honda
29.6K views36 slides
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia... by
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...Deep Learning JP
2.1K views20 slides
モデルではなく、データセットを蒸留する by
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留するTakahiro Kubo
7.8K views16 slides

What's hot(20)

【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc) by Deep Learning JP
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP3.7K views
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces by Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP4.8K views
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料 by Yusuke Uchida
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida16K views
Deep Learningによる超解像の進歩 by Hiroto Honda
Deep Learningによる超解像の進歩Deep Learningによる超解像の進歩
Deep Learningによる超解像の進歩
Hiroto Honda29.6K views
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia... by Deep Learning JP
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
[DL輪読会]Progressive Growing of GANs for Improved Quality, Stability, and Varia...
Deep Learning JP2.1K views
モデルではなく、データセットを蒸留する by Takahiro Kubo
モデルではなく、データセットを蒸留するモデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Takahiro Kubo7.8K views
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute... by SSII
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2.8K views
Skip Connection まとめ(Neural Network) by Yamato OKAMOTO
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO17K views
深層学習の数理 by Taiji Suzuki
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki79.7K views
backbone としての timm 入門 by Takuji Tahara
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara7.4K views
全力解説!Transformer by Arithmer Inc.
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
Arithmer Inc.9.6K views
Attentionの基礎からTransformerの入門まで by AGIRobots
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots40.4K views
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜 by SSII
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII3.7K views
強化学習における好奇心 by Shota Imai
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
Shota Imai3.3K views
Curriculum Learning (関東CV勉強会) by Yoshitaka Ushiku
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku64K views
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De... by Deep Learning JP
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP9K views
【メタサーベイ】基盤モデル / Foundation Models by cvpaper. challenge
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge16.5K views
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary by Deep Learning JP
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP2.2K views
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​ by SSII
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII3.2K views

Viewers also liked

Using Raspberry Pi GPU for DNN by
Using Raspberry Pi GPU for DNNUsing Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNNnotogawa
19.1K views77 slides
TensorFlow XLAの可能性 by
TensorFlow XLAの可能性 TensorFlow XLAの可能性
TensorFlow XLAの可能性 Mr. Vengineer
15.3K views57 slides
バイナリニューラルネットとハードウェアの関係 by
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係Kento Tajiri
23.4K views107 slides
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp by
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjpcocodrips
129.1K views63 slides
CTFはとんでもないものを 盗んでいきました。私の時間です… by
CTFはとんでもないものを 盗んでいきました。私の時間です…CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…Hiromu Yakura
140.4K views233 slides
NVIDIA ディープラーニング用語集 by
NVIDIA ディープラーニング用語集NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集NVIDIA Japan
14.2K views30 slides

Viewers also liked(20)

Using Raspberry Pi GPU for DNN by notogawa
Using Raspberry Pi GPU for DNNUsing Raspberry Pi GPU for DNN
Using Raspberry Pi GPU for DNN
notogawa19.1K views
TensorFlow XLAの可能性 by Mr. Vengineer
TensorFlow XLAの可能性 TensorFlow XLAの可能性
TensorFlow XLAの可能性
Mr. Vengineer15.3K views
バイナリニューラルネットとハードウェアの関係 by Kento Tajiri
バイナリニューラルネットとハードウェアの関係バイナリニューラルネットとハードウェアの関係
バイナリニューラルネットとハードウェアの関係
Kento Tajiri23.4K views
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp by cocodrips
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
強くなるためのプログラミング -プログラミングに関する様々なコンテストとそのはじめ方-#pyconjp
cocodrips129.1K views
CTFはとんでもないものを 盗んでいきました。私の時間です… by Hiromu Yakura
CTFはとんでもないものを 盗んでいきました。私の時間です…CTFはとんでもないものを 盗んでいきました。私の時間です…
CTFはとんでもないものを 盗んでいきました。私の時間です…
Hiromu Yakura140.4K views
NVIDIA ディープラーニング用語集 by NVIDIA Japan
NVIDIA ディープラーニング用語集NVIDIA ディープラーニング用語集
NVIDIA ディープラーニング用語集
NVIDIA Japan14.2K views
CV勉強会@関東 3巻3章4節 画像表現 by Yusuke Uchida
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
Yusuke Uchida2.6K views
パッケージングの今 by Atsushi Odagiri
パッケージングの今パッケージングの今
パッケージングの今
Atsushi Odagiri22.6K views
Pythonではじめる競技プログラミング by cocodrips
Pythonではじめる競技プログラミングPythonではじめる競技プログラミング
Pythonではじめる競技プログラミング
cocodrips22.9K views
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14) by Yusuke Uchida
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Image Retrieval with Fisher Vectors of Binary Features (MIRU'14)
Yusuke Uchida8.6K views
[DL輪読会]YOLO9000: Better, Faster, Stronger by Deep Learning JP
[DL輪読会]YOLO9000: Better, Faster, Stronger[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP201.9K views
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介) by Yusuke Uchida
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
Yusuke Uchida2.8K views
DeNAの機械学習・深層学習活用した 体験提供の挑戦 by Koichi Hamada
DeNAの機械学習・深層学習活用した体験提供の挑戦DeNAの機械学習・深層学習活用した体験提供の挑戦
DeNAの機械学習・深層学習活用した 体験提供の挑戦
Koichi Hamada32.1K views
Deep Learning with GPUs in Production - AI By the Bay by Adam Gibson
Deep Learning with GPUs in Production - AI By the BayDeep Learning with GPUs in Production - AI By the Bay
Deep Learning with GPUs in Production - AI By the Bay
Adam Gibson4.8K views
20170721 future of reactive architectures by Jamie Allen
20170721 future of reactive architectures20170721 future of reactive architectures
20170721 future of reactive architectures
Jamie Allen3.9K views
Scala の関数型プログラミングを支える技術 by Naoki Aoyama
Scala の関数型プログラミングを支える技術Scala の関数型プログラミングを支える技術
Scala の関数型プログラミングを支える技術
Naoki Aoyama9.9K views
iOSエンジニアのためのScala入門 by Masaya Dake
iOSエンジニアのためのScala入門iOSエンジニアのためのScala入門
iOSエンジニアのためのScala入門
Masaya Dake5.3K views
最近のSingle Shot系の物体検出のアーキテクチャまとめ by Yusuke Uchida
最近のSingle Shot系の物体検出のアーキテクチャまとめ最近のSingle Shot系の物体検出のアーキテクチャまとめ
最近のSingle Shot系の物体検出のアーキテクチャまとめ
Yusuke Uchida40.1K views
元インフラエンジニアが
Scalaを触ってつまづいたところ。 by takako onoue
元インフラエンジニアが
Scalaを触ってつまづいたところ。元インフラエンジニアが
Scalaを触ってつまづいたところ。
元インフラエンジニアが
Scalaを触ってつまづいたところ。
takako onoue6.5K views
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability by HPC DAY
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. AvailabilityHPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY 2017 | NVIDIA Volta Architecture. Performance. Efficiency. Availability
HPC DAY593 views

Similar to モデルアーキテクチャ観点からのDeep Neural Network高速化

NUCで始めるVMware Tanzu by
NUCで始めるVMware TanzuNUCで始めるVMware Tanzu
NUCで始めるVMware TanzuHirotaka Sato
1.1K views53 slides
CMD2021 f01 xilinx_20210921_r1.1 by
CMD2021 f01 xilinx_20210921_r1.1CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1Yoshihiro Horie
135 views49 slides
TEE (Trusted Execution Environment)は第二の仮想化技術になるか? by
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?Kuniyasu Suzaki
1.4K views36 slides
大規模 Vue アプリケーションの TypeScript 移行 by
大規模 Vue アプリケーションの TypeScript 移行大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行Shingo Sasaki
1K views56 slides
GPU Container as a Service を実現するための最新OSS徹底比較 by
GPU Container as a Service を実現するための最新OSS徹底比較GPU Container as a Service を実現するための最新OSS徹底比較
GPU Container as a Service を実現するための最新OSS徹底比較NTT Communications Technology Development
6.1K views65 slides
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ... by
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...KenzoOkuda
212 views29 slides

Similar to モデルアーキテクチャ観点からのDeep Neural Network高速化(20)

NUCで始めるVMware Tanzu by Hirotaka Sato
NUCで始めるVMware TanzuNUCで始めるVMware Tanzu
NUCで始めるVMware Tanzu
Hirotaka Sato1.1K views
CMD2021 f01 xilinx_20210921_r1.1 by Yoshihiro Horie
CMD2021 f01 xilinx_20210921_r1.1CMD2021 f01 xilinx_20210921_r1.1
CMD2021 f01 xilinx_20210921_r1.1
Yoshihiro Horie135 views
TEE (Trusted Execution Environment)は第二の仮想化技術になるか? by Kuniyasu Suzaki
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
TEE (Trusted Execution Environment)は第二の仮想化技術になるか?
Kuniyasu Suzaki1.4K views
大規模 Vue アプリケーションの TypeScript 移行 by Shingo Sasaki
大規模 Vue アプリケーションの TypeScript 移行大規模 Vue アプリケーションの TypeScript 移行
大規模 Vue アプリケーションの TypeScript 移行
Shingo Sasaki1K views
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ... by KenzoOkuda
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
KenzoOkuda212 views
2012-03-08 MSS研究会 by Kimikazu Kato
2012-03-08 MSS研究会2012-03-08 MSS研究会
2012-03-08 MSS研究会
Kimikazu Kato1.4K views
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク by Takuma Yoshimura
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワークJSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
JSAI 2020 1J5-GS-2-01 TensorShader 高次元ニューラルネットワーク深層学習フレームワーク
Takuma Yoshimura144 views
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021 by Preferred Networks
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
Preferred Networks9.9K views
「スーパーコンピュータとクラウドゲーム」 by Shinra_Technologies
「スーパーコンピュータとクラウドゲーム」「スーパーコンピュータとクラウドゲーム」
「スーパーコンピュータとクラウドゲーム」
Shinra_Technologies2.3K views
「おうちクラウド」が今熱い! by Hirotaka Sato
「おうちクラウド」が今熱い!「おうちクラウド」が今熱い!
「おうちクラウド」が今熱い!
Hirotaka Sato1K views
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月) by VirtualTech Japan Inc.
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
DeNA private cloud のその後 - OpenStack最新情報セミナー(2017年3月)
Jetson Xavier NX クラウドネイティブをエッジに by NVIDIA Japan
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジに
NVIDIA Japan1K views
Openstackを200%活用するSDSの挑戦 by Tomohiro Hirano
Openstackを200%活用するSDSの挑戦Openstackを200%活用するSDSの挑戦
Openstackを200%活用するSDSの挑戦
Tomohiro Hirano887 views
Quiznowを支える技術 #yapcasia by Yosuke Furukawa
Quiznowを支える技術 #yapcasiaQuiznowを支える技術 #yapcasia
Quiznowを支える技術 #yapcasia
Yosuke Furukawa2.9K views
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料) by NTT DATA Technology & Innovation
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
バイトコードって言葉をよく目にするけど一体何なんだろう?(JJUG CCC 2022 Spring 発表資料)
機械学習 / Deep Learning 大全 (6) Library編 by Daiyu Hatakeyama
機械学習 / Deep Learning 大全 (6) Library編機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
Daiyu Hatakeyama601 views
HELLO AI WORLD - MEET JETSON NANO by NVIDIA Japan
HELLO AI WORLD - MEET JETSON NANOHELLO AI WORLD - MEET JETSON NANO
HELLO AI WORLD - MEET JETSON NANO
NVIDIA Japan1.3K views
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月 by VirtualTech Japan Inc.
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月
GPU Container as a Serviceを実現するための最新OSS徹底比較 - OpenStack最新情報セミナー 2017年7月

More from Yusuke Uchida

You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話 by
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
9.4K views56 slides
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution by
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionSIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionYusuke Uchida
1.6K views15 slides
SIGNATE 鰹節コンペ2nd Place Solution by
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionYusuke Uchida
1.7K views20 slides
DRIVE CHARTを支えるAI技術 by
DRIVE CHARTを支えるAI技術DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術Yusuke Uchida
2.3K views44 slides
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20) by
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)Yusuke Uchida
8.1K views30 slides
画像認識と深層学習 by
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
17.5K views174 slides

More from Yusuke Uchida(20)

You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話 by Yusuke Uchida
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida9.4K views
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution by Yusuke Uchida
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionSIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
Yusuke Uchida1.6K views
SIGNATE 鰹節コンペ2nd Place Solution by Yusuke Uchida
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place Solution
Yusuke Uchida1.7K views
DRIVE CHARTを支えるAI技術 by Yusuke Uchida
DRIVE CHARTを支えるAI技術DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術
Yusuke Uchida2.3K views
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20) by Yusuke Uchida
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida8.1K views
画像認識と深層学習 by Yusuke Uchida
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
Yusuke Uchida17.5K views
Semi supervised, weakly-supervised, unsupervised, and active learning by Yusuke Uchida
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida6.3K views
畳み込みニューラルネットワークの高精度化と高速化 by Yusuke Uchida
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida64.5K views
Humpback whale identification challenge反省会 by Yusuke Uchida
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会
Yusuke Uchida13.3K views
DeNAにおける先端AI技術活用のチャレンジ by Yusuke Uchida
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
Yusuke Uchida5K views
コンピュータビジョン技術の実応用とビジネス by Yusuke Uchida
コンピュータビジョン技術の実応用とビジネスコンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネス
Yusuke Uchida6.2K views
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear... by Yusuke Uchida
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Image Retrieval Overview (from Traditional Local Features to Recent Deep Lear...
Yusuke Uchida13.1K views
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用 by Yusuke Uchida
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
Yusuke Uchida51.7K views
畳み込みニューラルネットワークの研究動向 by Yusuke Uchida
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida139.9K views
Embedding Watermarks into Deep Neural Networks by Yusuke Uchida
Embedding Watermarks into Deep Neural NetworksEmbedding Watermarks into Deep Neural Networks
Embedding Watermarks into Deep Neural Networks
Yusuke Uchida3.9K views
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説 by Yusuke Uchida
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
"Scale Aware Face Detection"と"Finding Tiny Faces" (CVPR'17) の解説
Yusuke Uchida2.3K views
Overcoming Catastrophic Forgetting in Neural Networks読んだ by Yusuke Uchida
Overcoming Catastrophic Forgetting in Neural Networks読んだOvercoming Catastrophic Forgetting in Neural Networks読んだ
Overcoming Catastrophic Forgetting in Neural Networks読んだ
Yusuke Uchida2.6K views
ConvNetの歴史とResNet亜種、ベストプラクティス by Yusuke Uchida
ConvNetの歴史とResNet亜種、ベストプラクティスConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida11.9K views
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ by Yusuke Uchida
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだBeliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Beliefs and Biases in Web Search (SIGIR'13 Best paper)読んだ
Yusuke Uchida630 views

Recently uploaded

光コラボは契約してはいけない by
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけないTakuya Matsunaga
25 views17 slides
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 by
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Hitachi, Ltd. OSS Solution Center.
89 views26 slides
定例会スライド_キャチs 公開用.pdf by
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
132 views64 slides
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)NTT DATA Technology & Innovation
29 views38 slides
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 by
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PC Cluster Consortium
45 views12 slides
SSH応用編_20231129.pdf by
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
380 views13 slides

Recently uploaded(12)

光コラボは契約してはいけない by Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga25 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 by PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
SSH応用編_20231129.pdf by icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4380 views
Windows 11 information that can be used at the development site by Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka90 views
SNMPセキュリティ超入門 by mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda453 views
The Things Stack説明資料 by The Things Industries by CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.76 views
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 by PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...

モデルアーキテクチャ観点からのDeep Neural Network高速化