今日からはじめるディープラーニング
~ マルチGPUサーバー HPE Apollo 6500 と
TensorFlow 環境構築サービス ~
日本ヒューレット・パッカード株式会社
サーバー事業統括本部
サーバー製品統括本部 スケールアウト・サーバー製品部
岡野 家和
テクノロジーコンサルティング事業統括
トランスフォーメーション・コンサルティング本部 テクノロジーアーキテクト部
北山 晋吾
2016年10月5日
本日の内容
2
1. HPE Apollo 6500 System のご紹介
2. ディープラーニング開発環境構築サービスのご紹介
HPE Apollo 6500 System
今日からはじめるディープラーニング
3
HPE Apollo System ファミリー
4
HPE Apollo 2000
HPE Apollo 4000 ファミリー
Scalable Multi-node
Storage Density
HPE Apollo 6000
HPE Apollo 8000
Rack-scale Efficiency
Warm-water Supercomputer
ワークロードに最適化されたモジュラー型サーバー
HPE Apollo 6500
 2Uサーバートレイに8 GPU搭載
 4Uシャーシに2サーバー・16 GPUを稼働
 Tesla K80、M40、P100*をサポート
 「電源の外出し」で熱と温度の課題に対処
Ultra-dense GPU Server
* Tesla P100は11月販売開始予定
New
HPE Apollo 6500 とは
Ultra-dense GPU Server
5
サーバー
HPE ProLiant XL270d Gen9
シャーシ
HPE Apollo d6500 chassis
外付けパワーサプライ
HPE Apollo 6000 Power Shelf
GPU×4枚
GPU×4枚
• 最大8 GPU搭載可能な2Uラックサーバー
• 1シャーシに2サーバーを搭載
• 実績豊富な「ProLiant」 (M/BはApollo 2000)
• サーバーノードは個別メンテナンス可
• 前面抜き挿し型サーバートレイ
• 前面アクセス ホットプラグドライブ
• 冗長性のホットプラグ冷却ファン
• HPE Apollo 6000 で実績豊富な
1.5U パワーシェルフ
4U
2U
ディープラーニングを念頭にGPU搭載密度を追及したマルチノードサーバー
HPE ProLiant XL270d Gen9 基本仕様
6
項目 仕様
ラック 奥行1,200mm ラック推奨
シャーシ HPE Apollo d6500 シャーシ (4U、2台のサーバートレイ、1シャーシ最大16 GPU稼働)
プロセッサー インテル Xeon プロセッサー E5-2600 v4 ファミリー
電源 HP Apollo 6000 パワーシェルフ
メモリ 16×2,400MHz DDR4 DIMM、最大容量1,024GB (16 x 64GB DIMM)
ネットワーク
オプション
• 2×1GbE シングルポート モジュール標準搭載
• 2×PCI Express x16 LPスロットにInfiniBand、OmniPath(リリース後)、Ethernet アダプタ搭載可能
(1Gb, 10Gb, 25GbE)
I/O スロット
1サーバートレイあたり8枚の350W GPUをサポー
• 1×PCI Express x8 メザニン型スロット (Smartアレイ用)
• 2×PCE Express x16 ロープロファイル スロット
ストレージ 最大8本のホットプラグ式 SFF SAS HFF/ SATA HDD/ SSD – 前面アクセスドライブ
アクセラレータ
• NVIDIA Tesla: K80, M40 (K40 ~ 9月予定) Pascal GPU (発表され次第)
• インテル Xeon Phi KNL (PCIe用発表され次第)
• AMD : FirePro S9150
管理 HP iLO 4, HP Advance Power Manager
OS Red Hat Enterprise Linux 6.7, 7.2, SLES 11 SP4, 12, MS Windows Server 2012 R2
アプリ特性に応じて選択可能 : XL270d Gen9 トポロジー
7
8 GPU : 1 CPU トポロジー
P542D
PLX8796
GPU
GPU
GPU
GPU
PLX8796
GPU
GPU
GPU
GPU
CPU2
オプション
CPU1
Fabric
Fabric
x16
x16
x16
x16 x16
x16
QPI
20
GBs
25 GBs
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 4枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
4 GPU : 1 CPU トポロジー
GPU
GPU
GPU
GPU
PLX
8747
GPU
GPU
GPU
GPU
CPU2 CPU1
Fabric
Fabric
x16 x16
x16 x16
x16
QPI
25 GBs
14
GBs
PLX
8764
PLX
8747
x16
PLX
8764
20 GBs
P542D
x8
GPUサポート(1サーバーノードあたり):
• 8枚 Tesla M40
• 8枚 Tesla K80
• 8枚 Tesla K40
• 8枚 Tesla P100 (販売開始次第)
HPE Apollo 6500 Overview
8
クラス最高のノードあたりGPU搭載密度
• 最大 8 GPU を2Uサーバートレイに
• アプリケーションに応じて最大4:1 または8:1 のGPU:CPU構成を選べる柔軟性
ラックスケールのGPUコンピューティング
• アクセラレータ、トップビンCPU、高速HPCクラスタなどHPCパフォーマンスを念頭に設計
• ストレージの柔軟性と豊富なI/Oオプションによるワークロードへの最適化が可能
拡張性とシンプルさを実現 – あくまでもProLiant Gen9
• HPE ProLiant のエンタープライズクラス管理・運用ツール
• HPE iLO が管理者の時間とコストを削減
• HPE Advanced Power Manager (APM) がラックあたりの効率を最大化
Designed for GPUHigh Density ProLiant
スモールスタートならHPE Apollo 2000
今日からはじめるディープラーニング
9
HPE Apollo 2000
ProLiant XL170r Gen9
1U サーバートレイ
ProLiant XL190r Gen9
2Uハーフワイド サーバートレイ
• 1サーバー2 GPU搭載
• Tesla M40, M60, K40, K80, P100*をサポート
• 2Uスペースに2サーバー4 GPU搭載可能
• XL190r でのTesla M60国内実績 400枚以上
* Tesla P100は11月販売開始予定
HPEブースでお待ちしいます – ぜひ現物をご覧ください
10
4サーバー 32 GPU構成 in 9.5U
ディープラーニング開発環境構築サービス
今日からはじめるディープラーニング
11
サービス利用モデル開発
機械学習/ディープラーニングの利用と分類
手元のデータから独自のモデルを開発する
ディープラーニングフレームワークの利用
・TensorFlow
・Chainer
・Caffe
データ分析
すでに効果が見えているデータ群から、リソース
を利用して機械学習モデルを設計する
・Google Cloud Machine Learning
・Microsoft Azure Machine Learning
トレーニング済みの機械学習サービスを利用し
たモデル適用を行う
・Google Cloud Vision API
・Microsoft Project Oxford
・HPE Haven OnDemand
ディープラーニングは、利用目的に応じて3つの利用形態が存在する。
GPU/CUDAを利用した自社モデル開発
拡張性の高さ 敏捷性の高さ
クラウドリソースを利用したモデル開発 既存モデルを利用したSaaS利用
モデル開発におけるディープラーニングフレームワーク
ディープラーニングを始めるためには、わかりやすいフレームワークを活用することが重要。
また、ディープラーニングフレームワークを用いることで、GPUを意識することなくモデル構築することが可能。
ディープラーニング アプリケーション
Caffe Torch Chainer
Tensor
Flow
Theano
CUDA
ディープラーニングフレームワーク
GPU (NVIDIA)
※CUDA最適化ライブラリ
cuDNN
ディープラーニング用ライブラリ
cuBLAS
密行列演算ライブラリ
cuSPARSE
疎行列演算ライブラリ
(深層学習を使ったデータモデリングをするためのライブラリ)
クライアントアプリケーションは、
PythonやC++などで実装
ディープラーニングフレームワーク
によって、複雑なDeep Neutral
Network構造を容易に実装
CUDAライブラリによって、GPUプ
ログラミングは容易に実装可能
14
Open Source化された機械学習ライブラリ
・Python言語で複雑なDeep Neutral Network構造を容易に実装可能
・計算処理をグラフ構造で表現した、直感的に理解しやすいフレームワーク体系
・マルチGPUに対応。コードの変更なく、GPUリソースを最大限に活用可能
Googleの商用サービスでの利用実績
・Google PhotosなどのGoogle商用サービスでもすでに豊富な利用実績があり、多数の開発者がTensorFlowを使
用して開発を実施
TensorBoardによるデータフローや学習過程の可視化にも対応
・付属のTensorBoardを使い、複雑なデータフロー構造や学習過程でのエントロピー低減の状態が可視化可能
Tensorflowによるディープラーニング開発環境の特徴
学習課程 データフロー構造
15
Tensorflowの利用シェア拡大
2015年11月のローンチ後、最も多く利用されているディープラーニングフレームワーク
16
Tensorflow構築支援サービス
•サンプルプログラムの操作に
関する技術移管
(オンサイト)
•Q&A対応
(1週間のリモート対応)
•Ubuntu14.04LTSインストール
•nvidiaドライバインストール
•Cuda7.0、cuDNN6.5インストール
•tensorflowインストール
•サンプルプログラムの動作確認
(MNIST, CIFAR-10)
設計・構築 技術移管 納品
•導入作業報告書
本サービスは、ディープラーニング開発環境としてHPE Apollo 6500サーバ上にTensorFlowを導入し、NVIDIA GPUを最
大限活用した高速機械学習環境を構築するサービスです。画像認識精度の飛躍的な向上、あるいは、お客様の保有する
データを利用した全く新しいInsight(気づき)の獲得など、これまで実現できなかったビジネスモデルを作り上げるための基
盤となるディープラーニング環境の導入をご支援いたします。
サービス概要
サービス内容
※ 正式見積は詳細を確認させていただいた上で提示いたします。
※ その他、個別のご相談にも応じます
HPE Apollo + GPU 「まるごと半額」キャンペーン
HPE Apollo 6500発表記念
17
キャンペーン内容
 対象製品を購入の場合は一律 50% Off
 GPUタイプ、購入台数、一切の制限なし
 2017年1月31日まで
対象製品
 HPE Apollo 2000 + GPU
• NVIDIA Tesla M40, M60, K40, K80
• NVIDIA Quadro M4000
 HPE Apollo 6500 + GPU
• NVIDIA Tesla M40, K40, K80
まとめ
サーバーHWから開発環境構築サービスまで、HPEが一括で提供
18
HPE Apollo + GPUで「まるごと半額」。始めるなら今!
HPE Apollo 6500
高密度GPU搭載サーバー
ディープラーニング
環境構築サービス
技術移管
• サンプルプログラムの操作に関する技術移管 (オンサイト)
• Q&A(1週間のリモート対応)
構築・試験
• Ubuntu14.04LTS インストール
• NVIDIAドライバ インストール
• Cuda7.0, cuDNN6.5 インストール
• TensorFlow インストール
• サンプルプログラム (MNIST, CIFAR-10) 動作確認
提出物
• 導入作業報告書の提出TensorFlow : Googleが開発
し、オープンソース化された機械
学習ライブラリ
サービス内容 作業期間 2週間程度
Apollo + GPU 「まるごと半額キャンペーン」実施中
専用4Uシャーシに8 GPU搭載マシンを2台搭載可能なマルチノードサーバー
アンケートご協力のお願い
19
セッションアンケートは
ここ!
ブースNo. ⑲ ⑳
日本ヒューレット・パッカード ブース
ぜひ、ブースにも
お立ち寄りください!
Thank you
facebook.com/HPEJapan
twitter.com/HPEJapan
youtube.com/HPEJapan
20
是非、サーバを導入したその日から
ディープラーニング始めてみませんか

今日からはじめるディープラーニング