Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

TensorFlow XLA とハードウェア


Published on

2017年9月30日(土)のChainer Meetup #6での発表資料

Published in: Devices & Hardware
  • Dating direct: ♥♥♥ ♥♥♥
    Are you sure you want to  Yes  No
    Your message goes here
  • Follow the link, new dating source: ❤❤❤ ❤❤❤
    Are you sure you want to  Yes  No
    Your message goes here
  • Hey guys! Who wants to chat with me? More photos with me here 👉
    Are you sure you want to  Yes  No
    Your message goes here

TensorFlow XLA とハードウェア

  1. 1. Chainer MeetUp #6 2017/9/30 TensorFlow XLA と ハードウェア なんで、 Chainer Meetupで TensorFlow XLAの お話をするのでしょうかね? @Vengineer
  2. 2. ブログ : Vengineerの戯言 Twitter : @Vengineer FPGAマガジンに連載中 FPGAコミュニティ探索記 自己紹介 SlideShare
  3. 3. Design Solution Forum 2017年10月13日(金)開催@新横浜 今年で4年目、毎年500名を越える来場者 絶賛、申込受付中 「ディーブラーニングトラック」 「RISC-Vトラック」 それぞれ5講演の予定
  4. 4. TensorFlow XLAとは XLA(Accelerated Linear Algebra)は、TensorFlow計算を最適化 する線形代数のドメイン固有のコンパイラです。 結果として、サー バーおよびモバイルプラットフォームでの速度、メモリ使用率、移植性 が向上します。 当初、ほとんどのユーザーはXLAの大きなメリットは 見られませんが、JIT(Just-In-Time)コンパイルや AOT(Ahead-Of-Time)コンパイルを使用してXLAを使用することで 実験を開始できます。 新しいハードウェアアクセラレータをターゲット とする開発者は、XLAを試すことを特にお勧めします。 原文(英語)をそのまま、Google翻訳にお願いしました。
  5. 5. TensorFlow w/XLA: TensorFlow, Compiled! Expressiveness with performance XLA対応のデバイス
  6. 6. 2017年2月20日 TensorFlow XLAの衝撃 2017年4月21日 TensorFlow User Group ハード部 #2 TensorFlow XLAは、 中で何をやっているのか?
  7. 7. CQ出版社インターフェース 8月号、9月号に TensorFlow XLAのAOTについての記事を書きま した 8月号: 衝撃的な性能UPの可能性を秘めた注目テクノロジ速報 AIをサクサク動かすGoogle新機能TensorFlow「XLA」を探る 9月号: 最新テクノロジ・マニアの挑戦 ...AIサクサク用TensorFlow XLA AOTコンパイラ探訪 初めてのGoogleソースコード!AI用コンパイラの可能性を探る
  8. 8. 2017年8月19日 日経エレクトロニクス、2017年9月号の記事、 ソニーも参戦、深層学習ソフト 組み込み向けの開発環境で競う 日経エレクトロニクスの    取材を受けましたよ
  9. 9. 2017年7月3日 TensorFlow XLAに動きあり 2017年9月3日 Deep Learning Acceleration勉強会 TensorFlow XLAの可能性
  10. 10. サンプルコードで 確認してみよう gpu => XLA_GPU
  11. 11. デバイスをgpu から            XLA_GPU に変更 def testXLA_JIT(self): with tf.Session() as sess: x = tf.placeholder(tf.float32, [2], name="x") with tf.device("device:XLA_GPU:0"): y = x * 2   result =, {x: [1.5, 0.5]})
  12. 12. 1)、Feed/Fetchノードの追加 Mul _Recv Const _Send Feed(x) Fetch(y)
  13. 13. 2)、Placement Mul _Recv Const _Send cpu : Feed(x) cpu : Fetch(y) XLA_GPU XLA_GPU
  14. 14. 3)、グラフの分割 _Recv _Send _Send _Recv _Send XLA_GPU Feed(x) Fetch(y)cpu Mul Const _Recv
  15. 15. 3)、グラフの分割 _XlaLaunch _Recv _Recv _Send _Send _Recv _Send XLA_GPU Feed(x) Fetch(y)cpu
  16. 16. 複数Opsを_XlaLaunch Opに変換 _XlaLaunch XLA_GPU MulConst gpu
  17. 17. ええええ、 なんで、_XlaLaunch になっちゃうの? どうして?
  18. 18. TensorFlow XLA : JITでは! 同じデバイス内で実行できるSubgraph単位の ノードをギュギュッと1つにまとめて、 _XlaLaunch Op 内で実行する _XlaLaunchは、 TensorFlow XLA専用のOpとして実装
  19. 19. _XlaLaunch Opで実装は? ・Register the new Op in a C++ file ・Implement the Op in C++ compiler/jit/kernels/xla_launch_op.h compiler/jit/kernels/
  20. 20. TensorFlow w/XLA: TensorFlow, Compiled! Expressiveness with performance XlaLocalLaunchOp::Computeの処理 コンパイル 実行
  21. 21. Plugin (r1.3) XLA Interpreter Backend Intel Nervana Graphcore もXLAをサポートするかも?
  22. 22. Intel® Nervana™ Graph Beta 2017-06-22 TensorFlow/XLA Support Intel® Nervana™ Graph: A Universal Tensor JIT Compiler Webinar 詳細は、このWebinarの資料を見てね!
  23. 23. Graphcore TensorFlow XLAのPluginのオリジナルコードは、Graphcore TensorFlow:Remove copyright on non-poplar files
  24. 24. Wave Computing
  25. 25. Groq Co-founder/CEO Doug Wightman Google :ソフトウェア開発 Co-Founder/CTO Jonathan Ross Google : TPU開発 COO Krishna Rangasayee Xilinxから最近ジョイン
  26. 26. Alphaics You will design, implement next generation compiler based on Tensorflow XLA To understand LLVM and IR mechanism to implement compiler for custom ISA Knowledge of Tensorflow, Theano, Microsoft cognitive toolkit, cafee and similar framework is a plus Prior experience in compiler design, specifically targeted to OpenCL framework is desired
  27. 27. FPGAも!
  28. 28. 引用:Platform Development Guide,UG1164 (v2016.4) March 9, 2017, Page.8, Figure 2 Amazon EC2 F1
  29. 29. 引用: Huawei FPGA Accelerated Cloud Server Amazon EC2 F1のようなもの? Xilinx社の Virtex UltraScale+ U9P fp1.2xlarge vCPUx8 + 1xFPGA fp1.8xlarge vCPUx32 + 4xFPGA fp1.32xlarge vCPUx64 + 8xFPGA
  30. 30. Intel Xeon + FPGA 引用 : ngine-paper.pdf Open Programmable Acceleration Engine (OPAE) Intel HLS Compilerも 11月に正式リリース
  31. 31. 他にも!
  32. 32. Intel募集している? Deep Learning Computational Graph Engineer Job Description What you will be working on: • Compilation of deep learning model descriptions in multiple frameworks into efficient code for execution in a variety of environments • Intermediate representations and APIs to allow new frameworks and environments to be defined 引用:
  33. 33. 引用: Baidu XPU Xilinx社 Vertex Ultra+ VU9Pを使用
  34. 34. Microsoft BrainWave 推論で、バッチサイズは、1
  35. 35. MXnet-NNVM-TVM LLVMはCPU、CUDAは別
  36. 36. TensorFlow XLA と ハードウェア 他のフレームワークではできない いろいろなハードウェアへの対応が できるようになるかも? そこに注目しました!
  37. 37. SlideShareで公開しています TensorFlow XLAの可能性 TensroFlow XLA : JIT編 (r1.3版) Intel Nervana Graph とは? DSPでディープラーニング
  38. 38. ありがとうございました ブログ : Vengineerの戯言 Twitter : @Vengineer Design Solution Forum 2017年10月13日(金)開催@新横浜