5
クロス プラットフォーム ディープラーニング
NVIDIAVolta あるいは
Pascal 世代の PC 用 GPU
NVIDIA DGX-1 と
DGX Station
TESLA V100 搭載の
Amazon EC2 P3 インスタンス
6.
6
NGC の GPU最適化ディープラーニング コンテナ
NVCaffe
Caffe2
Chainer
Microsoft Cognitive
Toolkit (CNTK)
DIGITS
MXNet
PyTorch
TensorFlow
Theano
Torch
CUDA (base level
container for developers)
NVIDIA TensorRT inference
accelerator with ONNX
support
ディープラーニングソフトウェアの包括的なカタログ
7.
7
コンテナ化されたアプリケーション
TF Tuned SW
NVIDIADocker
CNTK Tuned SW
NVIDIA Docker
Caffe2 Tuned SW
NVIDIA Docker
PyTorch Tuned SW
NVIDIA Docker
CUDA RTCUDA RTCUDA RTCUDA RT
Linux Kernel と CUDA ドライバ
Tuned SW
NVIDIA Docker
CUDA RT
Other
Frameworks
and Apps. . .
常に最新
エヌビディアによるフレームワークとコンテナの月例更新
8.
8
コンテナをPULLイメージをデプロイサインアップ
3 ステップで始める AWSと NGC でのディープラーニング
まずは NGC のアカウントを作成
してください。
www.nvidia.com/ngcsignup
お好みのコンテナを PULL して
ください。
これで準備完了です!
NVIDIA Volta Deep
Learning AMI for NGC
で P3 インスタンスを作成!
9.
9
VOLTA でのパフォーマンスを最大化
Tesla K80の 10 倍以上のパフォーマンスを発揮
0
2
4
6
8
10
12
K80 V100 TC
GPU の世代による学習性能の比較
NGC から提供されるフレームワークは
NVIDIA が Volta 向けに最適化済み
NVIDIA 提供のクラウド イメージは最高
の性能を発揮するようにチューニング
Volta は Tesla K80 との比較で 10 倍
以上のパフォーマンスを発揮
ResNet-152 Training, 8x K80 (16 GPUs total) compared with 8x V100 NVLink GPUs using NVIDIA 17.10 containers