2015年1月15日(金)開催のNVIDIA Deep Learning Day 2016 の講演資料です。
ディープラーニングという言葉を聞かない日がないほど、ディープラーニングは注目を集めています。このセッションでは、ディープラーニングとは何か、なぜ注目されるのか、GPUが必要とされる理由を基礎から分かり易くご紹介します。またエヌビディアがディープラーニングのために提供しているGPUおよびソフトウェア製品、ソリューションについてもご紹介します。
2015年1月15日(金)開催のNVIDIA Deep Learning Day 2016 の講演資料です。
ディープラーニングという言葉を聞かない日がないほど、ディープラーニングは注目を集めています。このセッションでは、ディープラーニングとは何か、なぜ注目されるのか、GPUが必要とされる理由を基礎から分かり易くご紹介します。またエヌビディアがディープラーニングのために提供しているGPUおよびソフトウェア製品、ソリューションについてもご紹介します。
スケーラブルで手間なく動かせる!もうすぐ 一般提供開始 Azure Database for MySQL / PostgreSQLMicrosoft Azure Japan
3/13に実施したイベント「Intelligent Mobile App と Cloud Native が創るアプリ開発の未来」の資料です。
日本マイクロソフト株式会社 川崎 庸市
Microsoft Corporation C+E Senior Program Manager Jan Engelsberg
This document introduces deep reinforcement learning and provides some examples of its applications. It begins with backgrounds on the history of deep learning and reinforcement learning. It then explains the concepts of reinforcement learning, deep learning, and deep reinforcement learning. Some example applications are controlling building sway, optimizing smart grids, and autonomous vehicles. The document also discusses using deep reinforcement learning for robot control and how understanding the principles can help in problem setting.
32. DNN Processing Units
EFFICIENCYFLEXIBILITY
Soft DPU
(FPGA)
Contro
l Unit
(CU)
Registers
Arithmeti
c Logic
Unit
(ALU)
CPUs GPUs
ASICsHard
DPU
Cerebras
Google TPU
Graphcore
Groq
Intel Nervana
Movidius
Wave Computing
Etc.
BrainWave
Baidu SDA
Deephi Tech
ESE
Teradeep
Etc.
33. スケーラブルなDNN H/Wマイクロサービス
F F F
L0
L1
F F F
L0
Pretrained DNN Model
in CNTK, etc.
Scalable DNN Hardware
Microservice
BrainWave
Soft DPU
Instr Decoder
& Control
Neural FU
33
Network switches
FPGAs
38. A framework-neutral federated compiler and runtime for
compiling pretrained DNN models to soft DPUs
Adaptive ISA for narrow precision DNN inference
Flexible and extensible to support fast-changing AI algorithms
38
39. A framework-neutral federated compiler and runtime for
compiling pretrained DNN models to soft DPUs
Adaptive ISA for narrow precision DNN inference
Flexible and extensible to support fast-changing AI algorithms
BrainWave Soft DPU microarchitecture
Highly optimized for narrow precision and low batch
39
40. A framework-neutral federated compiler and runtime for
compiling pretrained DNN models to soft DPUs
Adaptive ISA for narrow precision DNN inference
Flexible and extensible to support fast-changing AI algorithms
BrainWave Soft DPU microarchitecture
Highly optimized for narrow precision and low batch
Persist model parameters entirely in FPGA on-chip memories
Support large models by scaling across many FPGAs
40
41. A framework-neutral federated compiler and runtime for
compiling pretrained DNN models to soft DPUs
Adaptive ISA for narrow precision DNN inference
Flexible and extensible to support fast-changing AI algorithms
BrainWave Soft DPU microarchitecture
Highly optimized for narrow precision and low batch
Persist model parameters entirely in FPGA on-chip memories
Support large models by scaling across many FPGAs
Intel FPGAs deployed at scale with HW microservices
[MICRO’16]
41
47. Web search
ranking
Traditional software (CPU) server plane
QPICPU
QSFP
40Gb/s ToR
FPGA
CPU
40Gb/s
QSFP QSFP
Hardware acceleration plane
相互接続されたFPGAが従来のソ
フトウェアレイヤーとは分離さ
れて動作
CPUから独立して管理・使用が
可能
Web search
ranking
Deep neural
networks
SDN offload
SQL
47
CPUs
FPGAs
Routers