SlideShare a Scribd company logo
インテル株式会社プログラマブル・ソリューション営業本部
シニア・テクノロジー・スペシャリスト アクセラレーション&HLD
竹村 幸尚
Programmable Solutions Group 3
インテル® FPGA ポートフォリオ
性能
低コスト ミッドレンジ ハイエンド
機能
▪ 2 ~ 50KLE
▪ 不揮発性メモリー
▪ デュアル・コンフィグ
レーション
▪ アナログハード IP
▪ DDR3 メモリー
▪ Nios II ソフト CPU
• 25 ~ 300KLE
• 3/6Gbps SERDES
• 12Mb エンベデッド・
メモリー
• DDR3/L メモリー
• PCIe Gen2 x4
• ARM HPS または
Nios® II ソフト CPU
• 560 個のユーザー I/O
• 160 ~ 1,150KLE
• 25Gbps SERDES
• 53Mb エンベデッド・メ
モリー
• DDR4 メモリー・
コントローラー
• PCIe Gen3 x8 (4)
• ハード FP DSP
• ARM HPS または
Nios II ソフト CPU
• 768 個のユーザー I/O
• 378 ~ 5,510KLE
• GHz コア・ファブリック
• 28/56Gbps SERDES
• 137Mb エンベデッド・
メモリ
• DDR4 メモリー
• PCIe Gen3 x16 (6)
• HBM DRAM
• ハード FP DSP
• ARM HPS または
Nios II ソフト CPU
• 1,640 個のユーザー
I/O
• 85 ~ 220KLE
• 12.5Gbps SERDES
• 11Mb エンベデッド・
メモリー
• DDR3/L メモリー・
コントローラー
• PCIe Gen2 x4
• ハード FP DSP
• Nios II ソフト CPU
• 284 個のユーザー I/O▪ 6 ~ 120KLE
▪ 528 個のユーザー I/O
▪ Nios II® ソフト CPU
Programmable Solutions Group 4
FPGA概要
•Sea of programmable logic and routing
•DSPs (floating-point units)
•M20K SRAMs (2.5KB/SRAM)
•Range of devices:
- Intel® Stratix® 10 FPGA: 14 nm, high performance
- Intel Arria® 10 FPGA: 20 nm, mid range
- Intel Cyclone® 10 FPGA: 20 nm, low power
FPGAs are well positioned for deep learning…
X
+
Programmable Solutions Group 5
インテル® FPGA が AI 分野で「勝る」理由 (採用事例)
「マイクロソフト、自社の ‘Brainwave*’ AI-on-FPGA サービスを外部の試験機関に開放。」- ZDNet (2018年5
月)
https://www.zdnet.com/article/microsoft-opens-its-brainwave-ai-on-fpga-service-to-external-testers/
「弊社では新設計の AI NVR 製品上で、インテル® Core™ i5 プロセッサーをインテル® Arria®10 FPGA ととも
に使用中。インテル® FPGA により自社システムを加速化することで、リアルタイムなビジョンベースのソリュー
ションに対するディープラーニング能力が強化され、1 ドルあたりのワットごとのパフォーマンスが向上。」
– インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf
「OpenVINO™ ツールキット統合の Greengrass デバイスを使用することで、顧客はディープラーニング作業を
行うためにエッジで展開可能なクラウド式 ML モデルを構築でき、またこれらは特定の性能ニーズに合わせて
カスタマイズ可能。」– インテル ニュースルーム (2018年5月)
https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf
「NeoFace Accelerator* の制作に際し・・エンジンのソフトウェア IP をインテル® Arria® 10 FPGA に統合し・・・
インテル® Xeon® プロセッサー・ベースのサーバー上で運用。」– インテル ニュースルーム (2017年6月)
https://newsroom.intel.com/news/intel-fpga-technology-supports-nec-face-recognition-technology/
Alibaba
Cloud
「この中国のクラウド・サプライヤーは、FPGA ベースの超低レイテンシーかつハイパフォーマンスのディープ
ラーニング・プロセッサー (DLP) を開発。同社によれば、自社の DLP はスパース・コンボリューションと低精度
なデータ・コンピューティングを同時にサポートできるという・・・」 - ComputerWeekly (2018年8月)
https://www.computerweekly.com/blog/Eyes-on-APAC/An-inside-look-at-Alibabas-deep-learning-processor
NEC
Internet of Things Group 7
エッジ
コンピューター
インテルは性能、消費電力、価格の目標に応じ
柔軟にAIシステム構成できるソリューションを提供
機器 アプリケーション、
メディア処理、AI推論
AI推論
アクセラレーター
共通のコード| 汎用的なアルゴリズム
CPU, GPU, AIアクセラレーターで共有可能
Internet of Things Group
既存インフラやプラットフォームに新しい拡張の波
20以上のOpenVINO™
Toolkitに基づく製品
5000名以上の
開発者
FPGA 及び VPUサポー
トを実装, ONNX 及び コ
ンテナのサポート
オープンソース化:
2018年10月16日
8
Programmable Solutions Group 9
OpenVINO™ ツールキット
Visual Inferencing (視覚的推論) と Neural Network Optimization (ニューラル・ネットワークの最適化)
従来の CV ツール & ライブラリー
最適化コンピューター・ビジョン・ライブラリー
GPUCPU FPGA VPU
訓練済
みモデ
ル
FPGA 向け Linux* のみ
プロセッサーのグラフィック性能の向上 - Linux* のみ
GPU = インテグレーテッド・グラフィックス・プロセシング・ユニット搭載のインテル® CPU/
インテル® プロセッサー・グラフィックス
VPU = インテル® Movidius™ Vision Processing Unit (ビジョン・プロセシング・ユニット)
OpenVX および OpenVX ロゴは the Khronos Group Inc. の商標です。
OpenCL および OpenCL ロゴは Apple Inc. の商標であり、Khronos の許可を得て使用していま
す。
インテル® ディープラーニング・
デプロイメント・ツールキット
モデル・オプティマイザー
変換 & 最適化
IR
推論エンジン
(DLA で FPGA 用に最適化)
OpenCV OpenVX*
OpenCL*
インテル® インテグレーテッド・
グラフィックス・ドライバー & ランタイム
インテル® メディア SDK
(オープンソース版)
ビットストリームFPGA ランタイム環境 (RTE)
(インテル® FPGA SDK for OpenCL™ から)
IR =
Intermediate
Representation
(中間表現)
フォーマット
Photography Vision
コードサンプル & 10 個の事前訓練済みモデル コードサンプル
以下により H/W に実装:
Programmable Solutions Group
ディープラーニング・デプロイメント・ツールキット
Caffe
TensorFlow
MxNet
ONNX
全てのターゲットに
フィットするように
変換・最適化
InferenceEngine
共通API(C++,Python)
ロード、推論
CPU Plugin
GPU Plugin
FPGA Plugin
Model
Optimizer
.bin
IR
.XML
変換 汎用的最適化 ターゲット別最適化 コンパイル 実行
◼ 全ての関連インテル® 製品に対し、トレーニング済みモデルをデプロイ可能
◼ CPU, GPU, FPGA, Myriad
◼ 最大性能を得るためにモデル最適化
◼ 動作検証と最適化を可能に
◼ 使い勝手の良いランタイムAPI
Myriad Plugin
Internet of Things Group
**ボードベンダーの詳細についてはインテルの担当者にお問い合わせ下さい。
Intel、インテル、Intel ロゴは、アメリカ合衆国および/またはその他の国における Intel Corporation またはその子会社の商標です。
※ その他の社名、製品名などは、一般に各社の表示、商標または登録商標です。
11
M.2, Key E miniPCIe PCIe x4インターフェース
インテル® Movidius
MA2485 VPU
X 1
インテル® Movidius
MA2485 VPUs
x2
インテル® Movidius
MA2485 VPUs
x8
製品化予定
ボードベンダー*
インテル® Arria® 10 FPGA
1150GX/660GX
PCIe x8
OpenVINO™ ツールキット
エッジで実行するNN推論モデルの構築; インテル® CPU, GPU, VPU, FPGAで共通の開発環境
ソフトウェア
開発ツール
インテル® ビジョン・アクセラレーター・デザイン・プロダクト
(インテル® Movidius™ VPU搭載版)
インテル® ビジョン・アクセラ
レーター・デザイン・プロダクト
(インテル® Arria® 10 FPGA
搭載版)
インテル® ビジョン・
アクセラレーター・
デザインに基づく
アドインカード(例)
Programmable Solutions Group 12
iEi® Mustang-F100-A10 + TANK AIoT Dev Kit
Programmable Solutions Group 13
Programmable Solutions Group 14
AAEON® UP Platform
16© 2019 Intel Corporation. 無断での引用、転載を禁じます。
Award-Winning*EdgeAISolutionbyLeapMind
1-bit Quantization and Compression Technology and Tool
Chain for Embedded Deep Learning
• Real-time Response, Low Latency
• Lower Power, Small Footprint
• No Internet Connection Required
Application Example:
• Food Inspection
• PCB Soldering Inspection
• Human Detection
• Powerline Inspection by Autonomous Drone
*Leapmind’s DeLTA family received ET Technology Award 2018 in Tokyo
Programmable Solutions Group 17
Terasic DE10-Nano Kit
• Intel® Cyclone® V SoC
• 110K Les
• 1GB DDR3 SDRAM
• HDMI I/F
• Arduino expansion header
• Uno R3 compatibility
• $130
• OpenVINO is not supported
Programmable Solutions Group 18
aws fpgaiot
Programmable Solutions Group 19
Terasic DE10-Nano + Intel® Neural Compute Stick 2
Programmable Solutions Group 20
Programmable Solutions Group 21
FPGAを用いたEdge AIの現状

More Related Content

What's hot

NGINXをBFF (Backend for Frontend)として利用した話
NGINXをBFF (Backend for Frontend)として利用した話NGINXをBFF (Backend for Frontend)として利用した話
NGINXをBFF (Backend for Frontend)として利用した話
Hitachi, Ltd. OSS Solution Center.
 
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks
 
LinuxのFull ticklessを試してみた
LinuxのFull ticklessを試してみたLinuxのFull ticklessを試してみた
LinuxのFull ticklessを試してみた
Hiraku Toyooka
 
Glibc malloc internal
Glibc malloc internalGlibc malloc internal
Glibc malloc internal
Motohiro KOSAKI
 
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
MITSUNARI Shigeo
 
FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12
Jun Ando
 
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみようPythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
Shinya Takamaeda-Y
 
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
NTT DATA Technology & Innovation
 
最近のOpenStackを振り返ってみよう
最近のOpenStackを振り返ってみよう最近のOpenStackを振り返ってみよう
最近のOpenStackを振り返ってみよう
Takashi Kajinami
 
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモDNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
Shinya Takamaeda-Y
 
その ionice、ほんとに効いてますか?
その ionice、ほんとに効いてますか?その ionice、ほんとに効いてますか?
その ionice、ほんとに効いてますか?
Narimichi Takamura
 
Zynqで始めるUSB開発-FPGAとARMで動く USBオーディオデバイスの実例とともに-
Zynqで始めるUSB開発-FPGAとARMで動くUSBオーディオデバイスの実例とともに-Zynqで始めるUSB開発-FPGAとARMで動くUSBオーディオデバイスの実例とともに-
Zynqで始めるUSB開発-FPGAとARMで動く USBオーディオデバイスの実例とともに-
mmitti
 
Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)
ryos36
 
ACRi HLSチャレンジ 高速化テクニック紹介
ACRi HLSチャレンジ 高速化テクニック紹介ACRi HLSチャレンジ 高速化テクニック紹介
ACRi HLSチャレンジ 高速化テクニック紹介
Jun Ando
 
BGP Unnumbered で遊んでみた
BGP Unnumbered で遊んでみたBGP Unnumbered で遊んでみた
BGP Unnumbered で遊んでみた
akira6592
 
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
Deep Learning Lab(ディープラーニング・ラボ)
 
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
Mr. Vengineer
 
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
直久 住川
 
ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門
Fixstars Corporation
 
Ansibleで始めるインフラ構築自動化
Ansibleで始めるインフラ構築自動化Ansibleで始めるインフラ構築自動化
Ansibleで始めるインフラ構築自動化
dcubeio
 

What's hot (20)

NGINXをBFF (Backend for Frontend)として利用した話
NGINXをBFF (Backend for Frontend)として利用した話NGINXをBFF (Backend for Frontend)として利用した話
NGINXをBFF (Backend for Frontend)として利用した話
 
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
 
LinuxのFull ticklessを試してみた
LinuxのFull ticklessを試してみたLinuxのFull ticklessを試してみた
LinuxのFull ticklessを試してみた
 
Glibc malloc internal
Glibc malloc internalGlibc malloc internal
Glibc malloc internal
 
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
深層学習フレームワークにおけるIntel CPU/富岳向け最適化法
 
FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12FPGAでベンチマークしたときに苦労した話@fpgax#12
FPGAでベンチマークしたときに苦労した話@fpgax#12
 
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみようPythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
PythonとPyCoRAMでお手軽にFPGAシステムを開発してみよう
 
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
PostgreSQLのgitレポジトリから見える2022年の開発状況(第38回PostgreSQLアンカンファレンス@オンライン 発表資料)
 
最近のOpenStackを振り返ってみよう
最近のOpenStackを振り返ってみよう最近のOpenStackを振り返ってみよう
最近のOpenStackを振り返ってみよう
 
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモDNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
DNNのモデル特化ハードウェアを生成するオープンソースコンパイラNNgenのデモ
 
その ionice、ほんとに効いてますか?
その ionice、ほんとに効いてますか?その ionice、ほんとに効いてますか?
その ionice、ほんとに効いてますか?
 
Zynqで始めるUSB開発-FPGAとARMで動く USBオーディオデバイスの実例とともに-
Zynqで始めるUSB開発-FPGAとARMで動くUSBオーディオデバイスの実例とともに-Zynqで始めるUSB開発-FPGAとARMで動くUSBオーディオデバイスの実例とともに-
Zynqで始めるUSB開発-FPGAとARMで動く USBオーディオデバイスの実例とともに-
 
Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)Polyphony の行く末(2018/3/3)
Polyphony の行く末(2018/3/3)
 
ACRi HLSチャレンジ 高速化テクニック紹介
ACRi HLSチャレンジ 高速化テクニック紹介ACRi HLSチャレンジ 高速化テクニック紹介
ACRi HLSチャレンジ 高速化テクニック紹介
 
BGP Unnumbered で遊んでみた
BGP Unnumbered で遊んでみたBGP Unnumbered で遊んでみた
BGP Unnumbered で遊んでみた
 
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
[Track2-2] 最新のNVIDIA AmpereアーキテクチャによるNVIDIA A100 TensorコアGPUの特長とその性能を引き出す方法
 
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
ZynqMPのブートとパワーマネージメント : (ZynqMP Boot and Power Management)
 
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
「FPGA 開発入門:FPGA を用いたエッジ AI の高速化手法を学ぶ」
 
ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門ARM CPUにおけるSIMDを用いた高速計算入門
ARM CPUにおけるSIMDを用いた高速計算入門
 
Ansibleで始めるインフラ構築自動化
Ansibleで始めるインフラ構築自動化Ansibleで始めるインフラ構築自動化
Ansibleで始めるインフラ構築自動化
 

Similar to FPGAを用いたEdge AIの現状

CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1Computational Materials Science Initiative
 
20170421 tensor flowusergroup
20170421 tensor flowusergroup20170421 tensor flowusergroup
20170421 tensor flowusergroup
ManaMurakami1
 
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PC Cluster Consortium
 
NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄
Tak Izaki
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
Fixstars Corporation
 
マイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップマイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップ
Deep Learning Lab(ディープラーニング・ラボ)
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProX
Toru Makabe
 
Cmc cmd slim
Cmc cmd slimCmc cmd slim
Cmc cmd slim
Shinji Shimojo
 
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
Fixstars Corporation
 
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep LearningWatsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Atsumori Sasaki
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
 
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
Insight Technology, Inc.
 
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Daiyu Hatakeyama
 
第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料
直久 住川
 
Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618 Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618
Ayumu Inaba
 
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
シスコシステムズ合同会社
 
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
一路 川染
 
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
Hitoshi Sato
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門
Seong-Hun Choe
 
ICD/CPSY 201412
ICD/CPSY 201412ICD/CPSY 201412
ICD/CPSY 201412
Takefumi MIYOSHI
 

Similar to FPGAを用いたEdge AIの現状 (20)

CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
CMSI計算科学技術特論B(15) インテル Xeon Phi コプロセッサー向け最適化、並列化概要 1
 
20170421 tensor flowusergroup
20170421 tensor flowusergroup20170421 tensor flowusergroup
20170421 tensor flowusergroup
 
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
PCCC22:インテル株式会社 テーマ3「インテル® oneAPI ツールキット 最新情報のご紹介」
 
NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄NVIDIA deep learning最新情報in沖縄
NVIDIA deep learning最新情報in沖縄
 
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
 
マイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップマイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップ
 
インフラ野郎AzureチームProX
インフラ野郎AzureチームProXインフラ野郎AzureチームProX
インフラ野郎AzureチームProX
 
Cmc cmd slim
Cmc cmd slimCmc cmd slim
Cmc cmd slim
 
Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)Fpga online seminar by fixstars (1st)
Fpga online seminar by fixstars (1st)
 
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep LearningWatsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
Watsonをささえる ハイパフォーマンスクラウドで はじめるDeep Learning
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
 
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
[db tech showcase Tokyo 2016] D13: NVMeフラッシュストレージを用いた高性能高拡張高可用なデータベースシステムの実現方...
 
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
Deep Learning Lab - Microsoft Machine Learning meetup 2018/06/27 - 推論編
 
第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料第11回ACRiウェビナー_インテル/竹村様ご講演資料
第11回ACRiウェビナー_インテル/竹村様ご講演資料
 
Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618 Azure vm usacase and value.1.0.20.0618
Azure vm usacase and value.1.0.20.0618
 
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
ITpro EXPO 2014: Cisco UCSによる最新VDIソリューションのご紹介
 
FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料FPGA+SoC+Linux実践勉強会資料
FPGA+SoC+Linux実践勉強会資料
 
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
第162回情報処理学会ハイパフォーマンスコンピューティング研究発表会
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門
 
ICD/CPSY 201412
ICD/CPSY 201412ICD/CPSY 201412
ICD/CPSY 201412
 

FPGAを用いたEdge AIの現状

  • 2.
  • 3. Programmable Solutions Group 3 インテル® FPGA ポートフォリオ 性能 低コスト ミッドレンジ ハイエンド 機能 ▪ 2 ~ 50KLE ▪ 不揮発性メモリー ▪ デュアル・コンフィグ レーション ▪ アナログハード IP ▪ DDR3 メモリー ▪ Nios II ソフト CPU • 25 ~ 300KLE • 3/6Gbps SERDES • 12Mb エンベデッド・ メモリー • DDR3/L メモリー • PCIe Gen2 x4 • ARM HPS または Nios® II ソフト CPU • 560 個のユーザー I/O • 160 ~ 1,150KLE • 25Gbps SERDES • 53Mb エンベデッド・メ モリー • DDR4 メモリー・ コントローラー • PCIe Gen3 x8 (4) • ハード FP DSP • ARM HPS または Nios II ソフト CPU • 768 個のユーザー I/O • 378 ~ 5,510KLE • GHz コア・ファブリック • 28/56Gbps SERDES • 137Mb エンベデッド・ メモリ • DDR4 メモリー • PCIe Gen3 x16 (6) • HBM DRAM • ハード FP DSP • ARM HPS または Nios II ソフト CPU • 1,640 個のユーザー I/O • 85 ~ 220KLE • 12.5Gbps SERDES • 11Mb エンベデッド・ メモリー • DDR3/L メモリー・ コントローラー • PCIe Gen2 x4 • ハード FP DSP • Nios II ソフト CPU • 284 個のユーザー I/O▪ 6 ~ 120KLE ▪ 528 個のユーザー I/O ▪ Nios II® ソフト CPU
  • 4. Programmable Solutions Group 4 FPGA概要 •Sea of programmable logic and routing •DSPs (floating-point units) •M20K SRAMs (2.5KB/SRAM) •Range of devices: - Intel® Stratix® 10 FPGA: 14 nm, high performance - Intel Arria® 10 FPGA: 20 nm, mid range - Intel Cyclone® 10 FPGA: 20 nm, low power FPGAs are well positioned for deep learning… X +
  • 5. Programmable Solutions Group 5 インテル® FPGA が AI 分野で「勝る」理由 (採用事例) 「マイクロソフト、自社の ‘Brainwave*’ AI-on-FPGA サービスを外部の試験機関に開放。」- ZDNet (2018年5 月) https://www.zdnet.com/article/microsoft-opens-its-brainwave-ai-on-fpga-service-to-external-testers/ 「弊社では新設計の AI NVR 製品上で、インテル® Core™ i5 プロセッサーをインテル® Arria®10 FPGA ととも に使用中。インテル® FPGA により自社システムを加速化することで、リアルタイムなビジョンベースのソリュー ションに対するディープラーニング能力が強化され、1 ドルあたりのワットごとのパフォーマンスが向上。」 – インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf 「OpenVINO™ ツールキット統合の Greengrass デバイスを使用することで、顧客はディープラーニング作業を 行うためにエッジで展開可能なクラウド式 ML モデルを構築でき、またこれらは特定の性能ニーズに合わせて カスタマイズ可能。」– インテル ニュースルーム (2018年5月) https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/intelvisionproducts-quotesheet.pdf 「NeoFace Accelerator* の制作に際し・・エンジンのソフトウェア IP をインテル® Arria® 10 FPGA に統合し・・・ インテル® Xeon® プロセッサー・ベースのサーバー上で運用。」– インテル ニュースルーム (2017年6月) https://newsroom.intel.com/news/intel-fpga-technology-supports-nec-face-recognition-technology/ Alibaba Cloud 「この中国のクラウド・サプライヤーは、FPGA ベースの超低レイテンシーかつハイパフォーマンスのディープ ラーニング・プロセッサー (DLP) を開発。同社によれば、自社の DLP はスパース・コンボリューションと低精度 なデータ・コンピューティングを同時にサポートできるという・・・」 - ComputerWeekly (2018年8月) https://www.computerweekly.com/blog/Eyes-on-APAC/An-inside-look-at-Alibabas-deep-learning-processor NEC
  • 6.
  • 7. Internet of Things Group 7 エッジ コンピューター インテルは性能、消費電力、価格の目標に応じ 柔軟にAIシステム構成できるソリューションを提供 機器 アプリケーション、 メディア処理、AI推論 AI推論 アクセラレーター 共通のコード| 汎用的なアルゴリズム CPU, GPU, AIアクセラレーターで共有可能
  • 8. Internet of Things Group 既存インフラやプラットフォームに新しい拡張の波 20以上のOpenVINO™ Toolkitに基づく製品 5000名以上の 開発者 FPGA 及び VPUサポー トを実装, ONNX 及び コ ンテナのサポート オープンソース化: 2018年10月16日 8
  • 9. Programmable Solutions Group 9 OpenVINO™ ツールキット Visual Inferencing (視覚的推論) と Neural Network Optimization (ニューラル・ネットワークの最適化) 従来の CV ツール & ライブラリー 最適化コンピューター・ビジョン・ライブラリー GPUCPU FPGA VPU 訓練済 みモデ ル FPGA 向け Linux* のみ プロセッサーのグラフィック性能の向上 - Linux* のみ GPU = インテグレーテッド・グラフィックス・プロセシング・ユニット搭載のインテル® CPU/ インテル® プロセッサー・グラフィックス VPU = インテル® Movidius™ Vision Processing Unit (ビジョン・プロセシング・ユニット) OpenVX および OpenVX ロゴは the Khronos Group Inc. の商標です。 OpenCL および OpenCL ロゴは Apple Inc. の商標であり、Khronos の許可を得て使用していま す。 インテル® ディープラーニング・ デプロイメント・ツールキット モデル・オプティマイザー 変換 & 最適化 IR 推論エンジン (DLA で FPGA 用に最適化) OpenCV OpenVX* OpenCL* インテル® インテグレーテッド・ グラフィックス・ドライバー & ランタイム インテル® メディア SDK (オープンソース版) ビットストリームFPGA ランタイム環境 (RTE) (インテル® FPGA SDK for OpenCL™ から) IR = Intermediate Representation (中間表現) フォーマット Photography Vision コードサンプル & 10 個の事前訓練済みモデル コードサンプル 以下により H/W に実装:
  • 10. Programmable Solutions Group ディープラーニング・デプロイメント・ツールキット Caffe TensorFlow MxNet ONNX 全てのターゲットに フィットするように 変換・最適化 InferenceEngine 共通API(C++,Python) ロード、推論 CPU Plugin GPU Plugin FPGA Plugin Model Optimizer .bin IR .XML 変換 汎用的最適化 ターゲット別最適化 コンパイル 実行 ◼ 全ての関連インテル® 製品に対し、トレーニング済みモデルをデプロイ可能 ◼ CPU, GPU, FPGA, Myriad ◼ 最大性能を得るためにモデル最適化 ◼ 動作検証と最適化を可能に ◼ 使い勝手の良いランタイムAPI Myriad Plugin
  • 11. Internet of Things Group **ボードベンダーの詳細についてはインテルの担当者にお問い合わせ下さい。 Intel、インテル、Intel ロゴは、アメリカ合衆国および/またはその他の国における Intel Corporation またはその子会社の商標です。 ※ その他の社名、製品名などは、一般に各社の表示、商標または登録商標です。 11 M.2, Key E miniPCIe PCIe x4インターフェース インテル® Movidius MA2485 VPU X 1 インテル® Movidius MA2485 VPUs x2 インテル® Movidius MA2485 VPUs x8 製品化予定 ボードベンダー* インテル® Arria® 10 FPGA 1150GX/660GX PCIe x8 OpenVINO™ ツールキット エッジで実行するNN推論モデルの構築; インテル® CPU, GPU, VPU, FPGAで共通の開発環境 ソフトウェア 開発ツール インテル® ビジョン・アクセラレーター・デザイン・プロダクト (インテル® Movidius™ VPU搭載版) インテル® ビジョン・アクセラ レーター・デザイン・プロダクト (インテル® Arria® 10 FPGA 搭載版) インテル® ビジョン・ アクセラレーター・ デザインに基づく アドインカード(例)
  • 12. Programmable Solutions Group 12 iEi® Mustang-F100-A10 + TANK AIoT Dev Kit
  • 14. Programmable Solutions Group 14 AAEON® UP Platform
  • 15.
  • 16. 16© 2019 Intel Corporation. 無断での引用、転載を禁じます。 Award-Winning*EdgeAISolutionbyLeapMind 1-bit Quantization and Compression Technology and Tool Chain for Embedded Deep Learning • Real-time Response, Low Latency • Lower Power, Small Footprint • No Internet Connection Required Application Example: • Food Inspection • PCB Soldering Inspection • Human Detection • Powerline Inspection by Autonomous Drone *Leapmind’s DeLTA family received ET Technology Award 2018 in Tokyo
  • 17. Programmable Solutions Group 17 Terasic DE10-Nano Kit • Intel® Cyclone® V SoC • 110K Les • 1GB DDR3 SDRAM • HDMI I/F • Arduino expansion header • Uno R3 compatibility • $130 • OpenVINO is not supported
  • 19. Programmable Solutions Group 19 Terasic DE10-Nano + Intel® Neural Compute Stick 2