Submit Search
Upload
[DL Hacks]ディープラーニングを まともに動かすために ハードウェアの人が考えていること
•
1 like
•
1,344 views
Deep Learning JP
Follow
2018/11/15 Deep Learning JP: http://deeplearning.jp/hacks/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 15
Download now
Download to read offline
Recommended
大規模グラフのレスポンスとリソース消費を試してみた
PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費
Tatsumi Akinori
第五回ゲームサーバ勉強会 http://eventdots.jp/event/590582
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
Toru Takahashi
第五回ゲームサーバ勉強会 http://eventdots.jp/event/590582 (I missed upload this slide in another account :() http://www.slideshare.net/ToruTakahashi4/embulkdigdag
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
Toru Takahashi
研究室内部の論文読み会で使った資料です.
Isca13 study
Isca13 study
Toshiya Komoda
3S ゼミ コンピューターの構成と設計 第5版
パタヘネゼミ 第6章
パタヘネゼミ 第6章
okuraofvegetable
第3回ACRiウェビナー:Softwareエンジニアにも使って欲しいFPGAの実力 招待講演:オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム 東京大学 大学院情報理工学系研究科 准教授 高前田 伸也 様
2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen
直久 住川
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム(2021年3月9日開催・第3回ACRiウェビナー: Softwareエンジニアにも使って欲しいFPGAの実力)
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
Shinya Takamaeda-Y
CMCの新しいスーパーコンピューティングサービス
Cmc cmd slim
Cmc cmd slim
Shinji Shimojo
Recommended
大規模グラフのレスポンスとリソース消費を試してみた
PGXのレスポンスとリソース消費
PGXのレスポンスとリソース消費
Tatsumi Akinori
第五回ゲームサーバ勉強会 http://eventdots.jp/event/590582
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
Toru Takahashi
第五回ゲームサーバ勉強会 http://eventdots.jp/event/590582 (I missed upload this slide in another account :() http://www.slideshare.net/ToruTakahashi4/embulkdigdag
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
Toru Takahashi
研究室内部の論文読み会で使った資料です.
Isca13 study
Isca13 study
Toshiya Komoda
3S ゼミ コンピューターの構成と設計 第5版
パタヘネゼミ 第6章
パタヘネゼミ 第6章
okuraofvegetable
第3回ACRiウェビナー:Softwareエンジニアにも使って欲しいFPGAの実力 招待講演:オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム 東京大学 大学院情報理工学系研究科 准教授 高前田 伸也 様
2021 03-09-ac ri-nngen
2021 03-09-ac ri-nngen
直久 住川
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム(2021年3月9日開催・第3回ACRiウェビナー: Softwareエンジニアにも使って欲しいFPGAの実力)
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
オープンソースコンパイラNNgenでつくるエッジ・ディープラーニングシステム
Shinya Takamaeda-Y
CMCの新しいスーパーコンピューティングサービス
Cmc cmd slim
Cmc cmd slim
Shinji Shimojo
Presentation of basics of Superscalar, Hardware threading(hyper threading), Multicore technology.
CPUの同時実行機能
CPUの同時実行機能
Shinichiro Niiyama
Presentation slides for MemoryPlus Workshop (17 Sep 2014)
MemoryPlus Workshop
MemoryPlus Workshop
Hitoshi Sato
Caffe,Caffe2,TensorFlow,Keras,Torch,PyTorch,Chainer,MatConvNetの各ディープラーニングフレームワークについて,実際の使用感を比較しました.
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Ryota Suzuki
Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto
2019/02/16 [Math & Coding #05] 強化学習を語ろう! https://math-coding.connpass.com/event/117539/ の発表資料です。
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
Takuma Wakamori
近年エッジ機器向けのキーデバイス候補として注目を集めているFPGAですが、業務でFPGAに関わっていないとなかなかその実態が見えづらいと思います。ここではFPGAとはどういうデバイスかについて簡単に触れた後、エッジ関連の応用事例や動向についてご紹介します。
FPGAを用いたEdge AIの現状
FPGAを用いたEdge AIの現状
Yukitaka Takemura
Accelerating I/O-Intensive Applications with FPGAs
ICD/CPSY 201412
ICD/CPSY 201412
Takefumi MIYOSHI
- ビッグデータ・AI基盤の現状 - データ中心の基盤 - ビッグデータ/機械学習基盤の活用シナリオ例 - ビッグデータ・AI・機械学習に適したハードウェアやソフトウェア
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
日本ヒューレット・パッカード株式会社
USENIX ATC '15 輪読会で発表したスライドです http://connpass.com/event/18210/
USENIX ATC '15 輪読会 Memory Session
USENIX ATC '15 輪読会 Memory Session
Ryo Matsumiya
FPGAの使いどころを定量的に考える...挑戦
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Takefumi MIYOSHI
Cho Bachelor Thesis
Cho Bachelor Thesis
Cho Bachelor Thesis
pflab
2014年12月5日に開催されたPostgreSQLカンファレンス2014の講演資料です。 http://www.postgresql.jp/events/jpug-pgcon2014
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
Satoshi Nagayasu
20130126 sc12-reading
20130126 sc12-reading
Toshiya Komoda
道玄坂LT祭り "LAST GIGS" で発表した資料。
Kuduを調べてみた #dogenzakalt
Kuduを調べてみた #dogenzakalt
Toshihiro Suzuki
20210830 GPU Optimization with PyTorch fixed DLProfとNsight Systemsの紹介(pip installの部分一部修正)
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
Presentation at Chainer Meetup #5 (2016/06/10)
産総研AIクラウドでChainerMN
産総研AIクラウドでChainerMN
Hitoshi Sato
2022年3月4日開催の「CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編」セミナー資料です。
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
Fixstars Corporation
2018/06/25 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]FPGA入門
[DL Hacks]FPGA入門
Deep Learning JP
日本Googleオフィスで開催されたTensorFlow User Groupでしゃべったときのスライドです。TensorFlowからFPGAに落とす方法と2値化ディープニューラルネットワークについて。
Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)
Hiroki Nakahara
Java EE7 䛸㻌JCache
Java EE7 䛸㻌JCache
maruyama097
2023/8/25 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
2023/8/24 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
More Related Content
Similar to [DL Hacks]ディープラーニングを まともに動かすために ハードウェアの人が考えていること
Presentation of basics of Superscalar, Hardware threading(hyper threading), Multicore technology.
CPUの同時実行機能
CPUの同時実行機能
Shinichiro Niiyama
Presentation slides for MemoryPlus Workshop (17 Sep 2014)
MemoryPlus Workshop
MemoryPlus Workshop
Hitoshi Sato
Caffe,Caffe2,TensorFlow,Keras,Torch,PyTorch,Chainer,MatConvNetの各ディープラーニングフレームワークについて,実際の使用感を比較しました.
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Ryota Suzuki
Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto
2019/02/16 [Math & Coding #05] 強化学習を語ろう! https://math-coding.connpass.com/event/117539/ の発表資料です。
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
Takuma Wakamori
近年エッジ機器向けのキーデバイス候補として注目を集めているFPGAですが、業務でFPGAに関わっていないとなかなかその実態が見えづらいと思います。ここではFPGAとはどういうデバイスかについて簡単に触れた後、エッジ関連の応用事例や動向についてご紹介します。
FPGAを用いたEdge AIの現状
FPGAを用いたEdge AIの現状
Yukitaka Takemura
Accelerating I/O-Intensive Applications with FPGAs
ICD/CPSY 201412
ICD/CPSY 201412
Takefumi MIYOSHI
- ビッグデータ・AI基盤の現状 - データ中心の基盤 - ビッグデータ/機械学習基盤の活用シナリオ例 - ビッグデータ・AI・機械学習に適したハードウェアやソフトウェア
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
日本ヒューレット・パッカード株式会社
USENIX ATC '15 輪読会で発表したスライドです http://connpass.com/event/18210/
USENIX ATC '15 輪読会 Memory Session
USENIX ATC '15 輪読会 Memory Session
Ryo Matsumiya
FPGAの使いどころを定量的に考える...挑戦
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Takefumi MIYOSHI
Cho Bachelor Thesis
Cho Bachelor Thesis
Cho Bachelor Thesis
pflab
2014年12月5日に開催されたPostgreSQLカンファレンス2014の講演資料です。 http://www.postgresql.jp/events/jpug-pgcon2014
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
Satoshi Nagayasu
20130126 sc12-reading
20130126 sc12-reading
Toshiya Komoda
道玄坂LT祭り "LAST GIGS" で発表した資料。
Kuduを調べてみた #dogenzakalt
Kuduを調べてみた #dogenzakalt
Toshihiro Suzuki
20210830 GPU Optimization with PyTorch fixed DLProfとNsight Systemsの紹介(pip installの部分一部修正)
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
Presentation at Chainer Meetup #5 (2016/06/10)
産総研AIクラウドでChainerMN
産総研AIクラウドでChainerMN
Hitoshi Sato
2022年3月4日開催の「CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編」セミナー資料です。
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
Fixstars Corporation
2018/06/25 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]FPGA入門
[DL Hacks]FPGA入門
Deep Learning JP
日本Googleオフィスで開催されたTensorFlow User Groupでしゃべったときのスライドです。TensorFlowからFPGAに落とす方法と2値化ディープニューラルネットワークについて。
Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)
Hiroki Nakahara
Java EE7 䛸㻌JCache
Java EE7 䛸㻌JCache
maruyama097
Similar to [DL Hacks]ディープラーニングを まともに動かすために ハードウェアの人が考えていること
(20)
CPUの同時実行機能
CPUの同時実行機能
MemoryPlus Workshop
MemoryPlus Workshop
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
強化学習初心者が強化学習でニューラルネットワークの設計を自動化してみたい
FPGAを用いたEdge AIの現状
FPGAを用いたEdge AIの現状
ICD/CPSY 201412
ICD/CPSY 201412
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
Hadoop/AI基盤における考慮点、PoCの進め方、基盤構成例
USENIX ATC '15 輪読会 Memory Session
USENIX ATC '15 輪読会 Memory Session
ACRi_webinar_20220118_miyo
ACRi_webinar_20220118_miyo
Cho Bachelor Thesis
Cho Bachelor Thesis
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
Django/Celeyを用いたデータ分析Webアプリケーションにおける非同期処理の設計と実装
20130126 sc12-reading
20130126 sc12-reading
Kuduを調べてみた #dogenzakalt
Kuduを調べてみた #dogenzakalt
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
産総研AIクラウドでChainerMN
産総研AIクラウドでChainerMN
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
CPU / GPU高速化セミナー!性能モデルの理論と実践:実践編
[DL Hacks]FPGA入門
[DL Hacks]FPGA入門
Tensor flow usergroup 2016 (公開版)
Tensor flow usergroup 2016 (公開版)
Java EE7 䛸㻌JCache
Java EE7 䛸㻌JCache
More from Deep Learning JP
2023/8/25 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
2023/8/24 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
2023/8/18 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
2023/8/18 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
2023/8/18 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
2023/8/16 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
2023/8/16 Deep Learning JP http://deeplearning.jp/seminar-2/
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
2023/8/4 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
2023/8/4 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
2023/8/4 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
2023/7/28 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
2023/7/27 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
2023/7/21 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
2023/7/21 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
2023/7/20 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
2023/7/14 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
2023/7/7 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
2023/6/30 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
2023/6/30 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
2023/6/30 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Recently uploaded
2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
CRI Japan, Inc.
This is an introduction to MAPPO's paper.
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
CRI Japan, Inc.
Key topics covered: - Understanding Ballerina's role in integrations: features and advantages - Designing and implementing REST APIs for integration - Designing and implementing GraphQL services with Ballerina - Monitoring and observing applications - Introduction to data integration
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
LoRaWANスマート距離検出センサー DS20Lカタログ
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
Syed Talal Wasim, Muzammal Naseer, Salman Khan, Ming-Hsuan Yang, Fahad Shahbaz Khan , "Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Grounding" arXiv2024 https://arxiv.org/abs/2401.00901v2
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
Jue Wang, Wentao Zhu, Pichao Wang, Xiang Yu, Linda Liu, Mohamed Omar, Raffay Hamid, " Selective Structured State-Spaces for Long-Form Video Understanding" CVPR2023 https://openaccess.thecvf.com/content/CVPR2023/html/Wang_Selective_Structured_State-Spaces_for_Long-Form_Video_Understanding_CVPR_2023_paper.html
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
2024年5月8日 Power Platform 勉強会 #1 LT資料
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Recently uploaded
(11)
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
[DL Hacks]ディープラーニングを まともに動かすために ハードウェアの人が考えていること
1.
ディープラーニングを まともに動かすために ハードウェアの人が考えていること 情報理工学系研究科システム情報学専攻M2 上野洋典
2.
概要 • DLの高速・高効率化のために行われていることを簡単に説明 • ハードウェアを全く知らない人向け •
高速化のための基本の思想 • そもそもどこがボトルネックなのか • アーキテクチャ系トップカンファの論文のお気持ちを紹介 • GANの学習を高速で行う論文
3.
基本の思想 • 並列化 • パイプライン •
スーパースカラ • GPU, FPGA • メモリアクセスを抑える • キャッシュ • データの再利用
4.
並列化 過去の発表資料から 「FPGA入門」 https://www.slideshare.net/DeepLearningJP2016/dl-hacksfpga • 時間的に展開された逐次的な処理を空間的に展開して同時に処理 •
コア数 • CPU(Core-i9): 18 • GPU(Tesla V100): 5120 • クロック数 • CPU: 2.6GHz (定格) • GPU: 1.4GHz (ブースト)
5.
メモリアクセス • メモリアクセスはキャッシュの 50~100倍くらい時間がかかる • HDDのI/Oとかは論外 •
キャッシュが机の引き出しだとすると (所要時間10秒) • メモリ: 5~10分 (書斎くらい?) • SSD I/O: 11.5日 (Amazon UK発注くらい?) ヘネシー&パターソン コンピュータアーキテクチャ 定量的アプローチ 第5版 ディジタル回路設計とコンピュータアーキテクチャ 第2版
6.
キャッシュの有効活用 • 一度キャッシュに乗せたデータは再利用するべき • わざわざメモリに行かなくて済む •
次に使いそうなデータをキャッシュに乗せる • 右gifだと、フィルタの値は再利用されている
7.
論文紹介 • LerGAN: A
Zero-free, Low Data Movement and PIM-based GAN Architecture • H. Mao et al. 清華大学 • MICRO51 (2018) • マイクロアーキテクチャ系トップカンファ • 簡単に言うと、PIMという強いメモリ使ってDCGANの学習を 高速化 • シミュレーションで評価していい値 • 実際にチップを作ったわけではない
8.
GANの学習 • 逆畳み込み (Transpose
Convolution)に無駄が多い • 0を詰めるせいで不要な積算が多発 • わざわざ転送する必要なし • データフローが複雑 • GとDで2つのネットワークがある • G, DそれぞれのBackwardに相手のForwardが必要
9.
逆畳み込みについて • 左下図の畳み込み演算で、フィルタの係数のうち必要なのは 𝑊1~ 𝑊4だけ •
入力フィルタ数の分だけ𝑊1~𝑊4を掛ける演算が繰り返される • (in_filter ∗ 4) × (out_filter)に変形 • Matrix-Multiply-Vector (MMV)にマッピング (右下図) • 並列化!
10.
逆畳み込みについて • あり得るパターンも少ない • 下図
(a)と(c)は同じ (全部で25種類) • あらかじめ保持しておく • ゼロを含まない形で転送・計算することで高速化 • Conv1層64cycle -> 9cycleの高速化(MMVは1cycle)
11.
複雑なデータフロー • ネットワーク間 (DとG)
の通信が多い • メモリアクセスがネックになりそう • これを解消したい
12.
PIMとは • Processor In
Memory • (弱い)プロセッサをDRAMチップ上に載せるタイプのメモリ • 中のプロセッサはメモリに近い = 素早くアクセスできる • メモリの中で (簡単な) 命令を処理できる • メモリの (より賢い) 制御が可能 • 現実的にうまみがあるのかはまだなんとも • シミュレーションで述べられることが多い
13.
PIMによるGANの学習 • メモリを3次元的に並べて、𝐵1~𝐵3にGを、𝐵4~𝐵6にDを展開 • 1段目はForward,
2段目は誤差伝播, 3段目はBackward • どこが通信するかをPIMで制御
14.
結論 • FPGA, GPUに対してそれぞれ47.2倍,
21.42倍高速に学習できた • GPUの9.75倍低消費電力 • FPGAの1.04倍の消費電力 • 性能比では勝っている
15.
感想 • 紹介する論文を間違った感 • そもそもPIMは反則っぽい •
難しい • アーキテクチャ系トップカンファを聴講した感想 • メモリアクセスを親の敵のように嫌っていた • 理由を聞くとやっぱりそれが一番効くらしい • MLの高速化はかなり熱い • ソフトウェアの2~3年遅れな感じ
Download now