Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
Takeo Imai
PPTX, PDF
29,611 views
JUIZ DLK: 組込み向け Deep Learning コンパイラ
Talk @ TFUG KANSAI ハード部 #1 https://leapmind.connpass.com/event/74156/
Engineering
◦
Related topics:
Deep Learning
•
Read more
10
Save
Share
Embed
Embed presentation
Download
Downloaded 48 times
1
/ 34
2
/ 34
3
/ 34
4
/ 34
5
/ 34
6
/ 34
7
/ 34
8
/ 34
9
/ 34
10
/ 34
11
/ 34
12
/ 34
13
/ 34
14
/ 34
15
/ 34
16
/ 34
17
/ 34
18
/ 34
19
/ 34
20
/ 34
21
/ 34
22
/ 34
23
/ 34
24
/ 34
25
/ 34
26
/ 34
27
/ 34
28
/ 34
29
/ 34
30
/ 34
31
/ 34
32
/ 34
33
/ 34
34
/ 34
More Related Content
PPTX
TVMの次期グラフIR Relayの紹介
by
Takeo Imai
PPTX
Dll Injection
by
Hiroaki Hata
PDF
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
by
Shohei Hido
PDF
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
by
Preferred Networks
PDF
TensorFlowで遊んでみよう!
by
Kei Hirata
PPTX
Tensor flow勉強会3
by
tak9029
PDF
Final LINQ extensions III
by
Kouji Matsui
PDF
TensorFlowプログラミングと分類アルゴリズムの基礎
by
Etsuji Nakai
TVMの次期グラフIR Relayの紹介
by
Takeo Imai
Dll Injection
by
Hiroaki Hata
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
by
Shohei Hido
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
by
Preferred Networks
TensorFlowで遊んでみよう!
by
Kei Hirata
Tensor flow勉強会3
by
tak9029
Final LINQ extensions III
by
Kouji Matsui
TensorFlowプログラミングと分類アルゴリズムの基礎
by
Etsuji Nakai
What's hot
PDF
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
by
Yuya Unno
PPTX
Epub3.0の国際デジュール動向、現在協議検討されていることについて
by
Makoto Murata
PDF
20170419PFNオープンハウス リサーチャーの仕事_公開用
by
Preferred Networks
PDF
ディープラーニング最新動向と技術情報
by
NVIDIA Japan
PDF
深層学習による機械とのコミュニケーション
by
Yuya Unno
PDF
深層学習フレームワークChainerの特徴
by
Yuya Unno
PPTX
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
by
Yutaka Kato
PDF
PyCharm入門
by
Yuki Nagai
PDF
Pythonはどうやってlen関数で長さを手にいれているの?
by
Takayuki Shimizukawa
PDF
Chainerの使い方と自然言語処理への応用
by
Yuya Unno
PDF
Chainer meetup2016 03-19pub
by
Yuta Kashino
PDF
Tensor flow勉強会 (ayashiminagaranotensorflow)
by
tak9029
PDF
TensorFlowで逆強化学習
by
Mitsuhisa Ohta
PDF
ソフトウェア技術者から見たFPGAの魅力と可能性
by
Kenichiro MITSUDA
PDF
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
by
Shohei Hido
PDF
高位合成におけるC++テンプレートメタプログラミングの効果
by
Kenichiro MITSUDA
PDF
捗るリコメンドシステムの裏事情(ハッカドール)
by
mosa siru
PDF
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
by
株式会社メタップスホールディングス
PPTX
Lチカからの高位合成
by
Kenichiro MITSUDA
NIPS2013読み会: Distributed Representations of Words and Phrases and their Compo...
by
Yuya Unno
Epub3.0の国際デジュール動向、現在協議検討されていることについて
by
Makoto Murata
20170419PFNオープンハウス リサーチャーの仕事_公開用
by
Preferred Networks
ディープラーニング最新動向と技術情報
by
NVIDIA Japan
深層学習による機械とのコミュニケーション
by
Yuya Unno
深層学習フレームワークChainerの特徴
by
Yuya Unno
GBDC 勉強会 #1 Python を用いたツール作成工数の最小化
by
Yutaka Kato
PyCharm入門
by
Yuki Nagai
Pythonはどうやってlen関数で長さを手にいれているの?
by
Takayuki Shimizukawa
Chainerの使い方と自然言語処理への応用
by
Yuya Unno
Chainer meetup2016 03-19pub
by
Yuta Kashino
Tensor flow勉強会 (ayashiminagaranotensorflow)
by
tak9029
TensorFlowで逆強化学習
by
Mitsuhisa Ohta
ソフトウェア技術者から見たFPGAの魅力と可能性
by
Kenichiro MITSUDA
機械学習モデルフォーマットの話:さようならPMML、こんにちはPFA
by
Shohei Hido
高位合成におけるC++テンプレートメタプログラミングの効果
by
Kenichiro MITSUDA
捗るリコメンドシステムの裏事情(ハッカドール)
by
mosa siru
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
by
株式会社メタップスホールディングス
Lチカからの高位合成
by
Kenichiro MITSUDA
Similar to JUIZ DLK: 組込み向け Deep Learning コンパイラ
PDF
20180830 implement dqn_platinum_data_meetup_vol1
by
Keisuke Nakata
PDF
マイクロソフトが考えるAI活用のロードマップ
by
Deep Learning Lab(ディープラーニング・ラボ)
PPTX
なにわTech20170218(tpu) tfug
by
Natsutani Minoru
PDF
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
by
marsee101
PDF
JAWS FESTA TOKAIDO 2016
by
陽平 山口
PDF
GCPUG Sapporo vol.2 ML Night
by
陽平 山口
PPTX
Fpgax20180217
by
Natsutani Minoru
PDF
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
PDF
JAWS DAYS 2017 lunch session
by
陽平 山口
PPTX
DLLAB Engineer Days : ONNX Export & Optimize
by
Kazuki Kyakuno
PDF
TensorFlow User Group #1
by
陽平 山口
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
by
Preferred Networks
PDF
Machine Learning Nagoya 20161015
by
陽平 山口
PDF
JAWS FESTA 20191102
by
陽平 山口
PDF
Deep Learning Lab: DIMo & Chainer
by
Preferred Networks
PDF
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PDF
MII conference177 nvidia
by
Tak Izaki
PDF
IEEE ITSS Nagoya Chapter NVIDIA
by
Tak Izaki
PPTX
AutoMLとQumicoを使って、ラズパイでディープラーニングを動かす話
by
Natsutani Minoru
20180830 implement dqn_platinum_data_meetup_vol1
by
Keisuke Nakata
マイクロソフトが考えるAI活用のロードマップ
by
Deep Learning Lab(ディープラーニング・ラボ)
なにわTech20170218(tpu) tfug
by
Natsutani Minoru
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
by
marsee101
JAWS FESTA TOKAIDO 2016
by
陽平 山口
GCPUG Sapporo vol.2 ML Night
by
陽平 山口
Fpgax20180217
by
Natsutani Minoru
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
JAWS DAYS 2017 lunch session
by
陽平 山口
DLLAB Engineer Days : ONNX Export & Optimize
by
Kazuki Kyakuno
TensorFlow User Group #1
by
陽平 山口
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
by
Preferred Networks
Machine Learning Nagoya 20161015
by
陽平 山口
JAWS FESTA 20191102
by
陽平 山口
Deep Learning Lab: DIMo & Chainer
by
Preferred Networks
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
Deep Learningの基礎と応用
by
Seiya Tokui
MII conference177 nvidia
by
Tak Izaki
IEEE ITSS Nagoya Chapter NVIDIA
by
Tak Izaki
AutoMLとQumicoを使って、ラズパイでディープラーニングを動かす話
by
Natsutani Minoru
JUIZ DLK: 組込み向け Deep Learning コンパイラ
1.
LeapMind株式会社 HW開発チーム コンパイラ&合成ユニット リーダー 今井
健男 2017/12/21 @ TFUG KANSAI JUIZ DLK 組込み向け Deep Learningコンパイラ
2.
Contents 1. 発表者紹介 2. LeapMindの紹介 3.
JUIZ DLK 概要 4. JUIZ DLK における量子化の取り扱い 5. 余談を少し
3.
LeapMind, Inc. ©
2017 今井健男 Takeo Imai 経歴 大阪大学基礎工学部情報工学科卒 LSI高位設計、HW&SW協調設計 東京大学大学院理学系研究科情報科学専攻 修士了 分散・並列プログラミング言語設計 長らく某大手電機メーカーの研究所に所属 LSI設計自動化(EDA) プログラミング言語 ソフトウェア工学 の研究に従事 2017年、LeapMindにジョイン Deep Learning 向けコンパイラ開発 を担当 訳書(共訳) 『抽象によるソフトウェア設計−Alloyではじめる形式手法−』 『型システム入門−プログラミング言語と型の理論−』 発表者紹介
4.
LeapMind, Inc. ©
2017 会社概要 & ビジネス Company LeapMind株式会社 Established in 2012年12月25日 Capital 781,984,235円 (総投資額 $14M) CEO 松田 総一 Major Shareholder Intel capital、伊藤忠テクノロジー ベンチャーズ、Visionnaire Ventures、NTTデータ、NECキャ ピタル Employees 47名 Head Office 東京都渋谷区渋谷3-15-3 土屋ビル3F 研究 ソリューション ライセンス サービス提供共同研究 技術提供
5.
LeapMind, Inc. ©
2017 LeapMind’s Concept Smaller, Faster, More Efficient We enable Deep Learning of Things(DoT)
6.
LeapMind, Inc. ©
2017 New market for Deep Learning Computing Calculation Environment for GPU New Market Calculation Environment Calculation Environment for Cloud
7.
LeapMind, Inc. ©
2017 LeapMindが狙うアプリケーション • 自動運転車 • 瓦礫撤去ロボット • 発電所での異常検知 • 食物の異物混入検査 • ドローンを用いたビル監視 • スマート家電 • etc.
8.
LeapMind, Inc. ©
2017 LeapMindのサービス形態 コンパイル&最適化Deep Learning モデル JUIZ DoT Client Original JUIZ DLK さまざまな製品へデプロイ
9.
LeapMind, Inc. ©
2017 LeapMindコアプロダクト開発体制 全社員の約1/4がココ なぜか全員外国人 ほぼ全員がモデル圧縮 (量子化, pruning, 蒸留, etc.) の研究 Deep Learningモデル向け コンパイラ開発 FPGAアクセラレータ設計 研究チームの開発した アルゴリズムをライブラリ化、 製品化、サービス化
10.
JUIZ DLKの概要
11.
LeapMind, Inc. ©
2017 JUIZ DLKとは GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM
12.
LeapMind, Inc. ©
2017 JUIZ DLKとは GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM
13.
LeapMind, Inc. ©
2017 JUIZ DLKとは GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM
14.
LeapMind, Inc. ©
2017 NNVM / TVMとは 開発者 Tianqi Chen(ワシントン大) w/ DMLC (Distributed (Deep) Machine Learning Community) MXNet, XGBoost, TinyFlow等を開発 NNVM (Neural Network Virtual Machine) ONNX/CoreMLを介して、様々なフレームワークのモデルをインポート DNNのグラフを最適化 グラフ中の複数オペレータを合成(fusion) TVM (Tensor Virtual Machine) Tensor演算(=多重ループ)の最適化、並列化 タイリング、「テンソル化」、etc. 様々なターゲットHW向けのコード生成、コンパイル CPU(Intel, ARM, ...), GPU(OpenCL, CUDA) ↑LeapMindはFPGAをターゲットに拡張
15.
LeapMind, Inc. ©
2017 ん? GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM ?????
16.
LeapMind, Inc. ©
2017 TensorFlow → ONNX ? ONNX (Open Neural Network Exchange) FacebookとMicrosoftが共同提案した、 フレームワーク非依存なDNNの標準フォーマット 現在、多数の企業が協賛・公式サポートを表明 onnx-tensorflow IBM Research が開発、ONNXにて公式採用 (https://github.com/onnx/onnx-tensorflow) ONNXファイルをTensorFlowにインポートして実行できる(ONNX→TensorFlow) TensorFlowからONNXへは限定的? TensorFlowからONNXへの変換をサポートした (完璧な)ツールはまだない!! ???
17.
LeapMind, Inc. ©
2017 そこで GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM tensorflow-onnx
18.
LeapMind, Inc. ©
2017 tensorflow-onnx開発してます! TensorFlow の Protobuf ファイルを ONNX フォーマットに変換 特定のオペレータ(の並び) を削除するなど可能 単なる変換ツールではなく 様々なユーザ定義処理を 合間に挟むことのできる フレームワークとして設計 OSSとして公開予定
19.
JUIZ DLKにおける 量子化の取り扱い
20.
LeapMind, Inc. ©
2017 量子化 (quantization) って? モデル圧縮のテクニックの1つ 通常なら32bit floatでなされているDNN内計算を n bit integer (n=1…)に圧縮 様々な細かいテクニックが存在 ビット幅 n を幾つにするか? • BNN … 重み, アクティベーションとも1bit • DoReFa … 重み1bit, アクティベーション2bit 他 • etc. どう変換するか? • linear quantization(線形変換) • log quantization(対数変換) • etc. TensorFlow には 8bit linear quantization のライブラリが存在
21.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 2bit hogehoge quantization できた! めっちゃ精度ええで!
22.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 2bit hogehoge quantization できた! めっちゃ精度ええで! おっ、 なかなかええんちゃう? HWにもええ具合に落ちそう SWチームさん、どう?
23.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 2bit hogehoge quantization できた! めっちゃ精度ええで! おっ、 なかなかええんちゃう? HWにもええ具合に落ちそう SWチームさん、どう? よっしゃーウチで モデル作って ライブラリに加えるわ できたらFPGA焼いたってー
24.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 6bit hogefuga quantization できた! こいつ半端ないわマジで!
25.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 6bit hogefuga quantization できた! こいつ半端ないわマジで! アホか! 6bitなんかアラインメント かけたら8bitやないか そんなん意味あるかボケ!
26.
LeapMind, Inc. ©
2017 LeapMindにおける量子化テクニックの開発 6bit hogefuga quantization できた! こいつ半端ないわマジで! アホか! 6bitなんかアラインメント かけたら8bitやないか そんなん意味あるかボケ!はあ? そういうことは先に 言わんかいこのクソが!
27.
LeapMind, Inc. ©
2017 量子化モデルの処理の流れ GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM 量子化オペレータ 付モデル
28.
LeapMind, Inc. ©
2017 TensorFlow + 量子化オペレータ 「量子化」をカスタムオペレータを使って表現 attribute: ビット幅? 量子化の方式は? etc. 実現方法 → Qiita TensorFlow Advent Calendar 2017 12/17 「 tensorflow Defun で ternary weight 」
29.
LeapMind, Inc. ©
2017 量子化モデルの処理の流れ GPU FPGA (SoC) CUDA OpenCL ARM Intel JUIZ DLK CoreML LLVM NNVM TVM tensorflow-onnx 量子化オペレータ 付モデル 量子化オペレータの 合成(fusion) FPGAバイナリ 生成
30.
LeapMind, Inc. ©
2017 TVMからFPGA向けVerilog HDLの生成 TVM (HalideIR) C++ Verilog HDL TVMの機能に則った、タイリング、テンソル化→ 並列化 スパース性を考慮したループの圧縮 etc. サードパーティ製HLSを目的に応じて利用 Intel (Altera) HLS Vivado HLS 某社(ひみつ)とも共同開発中
31.
余談
32.
LeapMind, Inc. ©
2017 すいません公開できません 都合により ばっさりカットします ( ;´Д`)
33.
LeapMind, Inc. ©
2017 そんなこんなで 日々のめまぐるしい 競争にもめげず 僕らLeapMindは 開発ガンバってます
34.
LeapMind, Inc. ©
2017 34 info@leapmimd.io imai@leapmind.io http://leapmind.io/ ご質問などございましたら、お気軽にご連絡ください。
Download