Submit Search
Upload
Dynamic Routing Between Capsules
•
39 likes
•
10,721 views
Fujimoto Keisuke
Follow
Dynamic Routing Between Capsules
Read less
Read more
Technology
Slideshow view
Report
Share
Slideshow view
Report
Share
1 of 45
Download now
Download to read offline
Recommended
明日から使える凸最適化~近接分離最適化を中心に~@MIRU2016 MATLAB code https://sites.google.com/site/thunsukeono/talks/MIRU2016_Ono.zip?attredirects=0&d=1
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2018/09/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
園田翔氏の博士論文を解説しました。 Integral Representation Theory of Deep Neural Networks 深層学習を数学的に定式化して解釈します。 3行でいうと、 ーニューラルネットワーク—(連続化)→双対リッジレット変換 ー双対リッジレット変換=輸送写像 ー輸送写像でNeural Networkを定式化し、解釈する。 目次 ー深層ニューラルネットワークの数学的定式化 ーリッジレット変換について ー輸送写像について
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
Katsuya Ito
2018.1.13 NIPS 読み会. Deep Sets
Deep sets
Deep sets
Tomohiro Takahashi
第11回強化学習アーキテクチャ勉強会での発表資料です. 2018/1/16 @Φカフェ スライドの誤り等ありましたら,ご連絡いただければ幸いです. ※[2018/1/17]p.9, 11の尤度,総和ではなく総乗の誤りです. アブストラクト: 逆強化学習はエージェントの振舞データを所与として,エージェントが受け取っていたとされる報酬関数を推定する手法である.推定した報酬は二つの用途に用いられる.一つ目は推定した報酬にもとづいて強化学習を行い,エージェントの方策を学習する「徒弟学習」,二つ目は推定した報酬をもとにエージェントがどのような目的を持って行動したのかを理解する「行動解析」である.本発表では二つ目の「行動解析」に対する有効なアプローチであるノンパラメトリックベイズを用いた逆強化学習について説明する.基礎となるベイジアン逆強化学習ではエージェントがどのようなタスクを解いていたのかなどの事前知識を報酬の事前確率として導入し,エージェントに適合する報酬の事後確率を計算する手法である.これをノンパラメトリック化することにより,導入できる事前知識の自由度を大きくできるため,より複雑な報酬の事後確率を計算することができる.紹介する手法では,迷路の途中で目的地を変更する振舞データが与えられたときや複数の報酬から生成された振舞データが混ざっているときなどに,エージェントの行動解析に有効なアプローチである.
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習
Shota Ishikawa
2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている.本講演では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,実用上重要な高速化手法について、畳み込みの分解や枝刈り等の分類を行い,それぞれ解説を行う. Recent Advances in Convolutional Neural Networks and Accelerating DNNs 第21回ステアラボ人工知能セミナー講演資料 https://stair.connpass.com/event/126556/
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
2023/3/17 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
Recommended
明日から使える凸最適化~近接分離最適化を中心に~@MIRU2016 MATLAB code https://sites.google.com/site/thunsukeono/talks/MIRU2016_Ono.zip?attredirects=0&d=1
MIRU2016 チュートリアル
MIRU2016 チュートリアル
Shunsuke Ono
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2018/09/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
園田翔氏の博士論文を解説しました。 Integral Representation Theory of Deep Neural Networks 深層学習を数学的に定式化して解釈します。 3行でいうと、 ーニューラルネットワーク—(連続化)→双対リッジレット変換 ー双対リッジレット変換=輸送写像 ー輸送写像でNeural Networkを定式化し、解釈する。 目次 ー深層ニューラルネットワークの数学的定式化 ーリッジレット変換について ー輸送写像について
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
Katsuya Ito
2018.1.13 NIPS 読み会. Deep Sets
Deep sets
Deep sets
Tomohiro Takahashi
第11回強化学習アーキテクチャ勉強会での発表資料です. 2018/1/16 @Φカフェ スライドの誤り等ありましたら,ご連絡いただければ幸いです. ※[2018/1/17]p.9, 11の尤度,総和ではなく総乗の誤りです. アブストラクト: 逆強化学習はエージェントの振舞データを所与として,エージェントが受け取っていたとされる報酬関数を推定する手法である.推定した報酬は二つの用途に用いられる.一つ目は推定した報酬にもとづいて強化学習を行い,エージェントの方策を学習する「徒弟学習」,二つ目は推定した報酬をもとにエージェントがどのような目的を持って行動したのかを理解する「行動解析」である.本発表では二つ目の「行動解析」に対する有効なアプローチであるノンパラメトリックベイズを用いた逆強化学習について説明する.基礎となるベイジアン逆強化学習ではエージェントがどのようなタスクを解いていたのかなどの事前知識を報酬の事前確率として導入し,エージェントに適合する報酬の事後確率を計算する手法である.これをノンパラメトリック化することにより,導入できる事前知識の自由度を大きくできるため,より複雑な報酬の事後確率を計算することができる.紹介する手法では,迷路の途中で目的地を変更する振舞データが与えられたときや複数の報酬から生成された振舞データが混ざっているときなどに,エージェントの行動解析に有効なアプローチである.
ノンパラメトリックベイズを用いた逆強化学習
ノンパラメトリックベイズを用いた逆強化学習
Shota Ishikawa
2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている.本講演では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,実用上重要な高速化手法について、畳み込みの分解や枝刈り等の分類を行い,それぞれ解説を行う. Recent Advances in Convolutional Neural Networks and Accelerating DNNs 第21回ステアラボ人工知能セミナー講演資料 https://stair.connpass.com/event/126556/
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
2023/3/17 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
2018/07/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
Deep Learning JP
2023/5/12 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
TensorFlow 勉強会 (4) の発表資料です。 途中の動画を見るには↓の元ファイルを御覧ください。 https://docs.google.com/presentation/d/1CWHjeiDJovG4ymuaoGCFLiBcSHNuNccMQQYkoFtpHxc/pub?start=false&loop=false&delayms=3000
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Mitsuhisa Ohta
Deep Learningを用いた画像から説明文の自動生成の最新研究を調査したものを公開いたします。 数式の説明などかなり簡略したものですが、全体が俯瞰できるように工夫しましたので、何かのご参考になればと幸いです。 また、何か間違いがございましたら、ご指摘のほどよろしくお願いします。
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/01/11 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes
Deep Learning JP
2023/8/4 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
Layer Normalization論文の紹介スライドです https://arxiv.org/abs/1607.06450 間違い等ありましたらご指摘いただけると嬉しいです
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
2018/07/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
Deep Learning JP
2023/5/19 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2023/2/17 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】HexPlaneとK-Planes
【DL輪読会】HexPlaneとK-Planes
Deep Learning JP
BengioのDeep Learningの輪読会資料 http://www.deeplearningbook.org/ 10.7-10.14
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
機械学習勉強会の資料です.LSTM (Long short-term memory) について理解するために,単純なニューラルネットから話を進めていきます.
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
社内勉強会での発表資料です。 機械学習の未解決課題とそれに紐づく研究分野をダイジェストで紹介しています。
機械学習の未解決課題
機械学習の未解決課題
Hiroyuki Masuda
2023/6/23 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
2018/01/10のDLゼミで紹介したカプセルネットワークについてです。
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
harmonylab
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
京都大学人環セミナー(20171218)および東京大学大学院工学系研究科 國吉研オムニバス講義(20171226; 脳型情報処理機械論 http://www.isi.imi.i.u-tokyo.ac.jp/lectures/BIP/)で行ったトークで使ったスライドを(多少編集した上で)アップロードしました。タイトルは「感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)」です。
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
2018/07/30 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
全日本CV勉強会 CVPR2020読み会
A quantum computational approach to correspondence problems on point sets
A quantum computational approach to correspondence problems on point sets
Fujimoto Keisuke
ICASSP2020読み会発表資料 F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Autoencoder
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
Fujimoto Keisuke
More Related Content
What's hot
2018/07/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
Deep Learning JP
2023/5/12 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
TensorFlow 勉強会 (4) の発表資料です。 途中の動画を見るには↓の元ファイルを御覧ください。 https://docs.google.com/presentation/d/1CWHjeiDJovG4ymuaoGCFLiBcSHNuNccMQQYkoFtpHxc/pub?start=false&loop=false&delayms=3000
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Mitsuhisa Ohta
Deep Learningを用いた画像から説明文の自動生成の最新研究を調査したものを公開いたします。 数式の説明などかなり簡略したものですが、全体が俯瞰できるように工夫しましたので、何かのご参考になればと幸いです。 また、何か間違いがございましたら、ご指摘のほどよろしくお願いします。
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/01/11 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes
Deep Learning JP
2023/8/4 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
Layer Normalization論文の紹介スライドです https://arxiv.org/abs/1607.06450 間違い等ありましたらご指摘いただけると嬉しいです
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
2018/07/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
Deep Learning JP
2023/5/19 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2023/2/17 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】HexPlaneとK-Planes
【DL輪読会】HexPlaneとK-Planes
Deep Learning JP
BengioのDeep Learningの輪読会資料 http://www.deeplearningbook.org/ 10.7-10.14
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
機械学習勉強会の資料です.LSTM (Long short-term memory) について理解するために,単純なニューラルネットから話を進めていきます.
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
社内勉強会での発表資料です。 機械学習の未解決課題とそれに紐づく研究分野をダイジェストで紹介しています。
機械学習の未解決課題
機械学習の未解決課題
Hiroyuki Masuda
2023/6/23 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
2018/01/10のDLゼミで紹介したカプセルネットワークについてです。
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
harmonylab
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
京都大学人環セミナー(20171218)および東京大学大学院工学系研究科 國吉研オムニバス講義(20171226; 脳型情報処理機械論 http://www.isi.imi.i.u-tokyo.ac.jp/lectures/BIP/)で行ったトークで使ったスライドを(多少編集した上で)アップロードしました。タイトルは「感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)」です。
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
2018/07/30 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
Deep Learning JP
What's hot
(20)
[DL輪読会]Conditional Neural Processes
[DL輪読会]Conditional Neural Processes
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Attentive neural processes
[DL輪読会]Attentive neural processes
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
[DL輪読会]Glow: Generative Flow with Invertible 1×1 Convolutions
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】HexPlaneとK-Planes
【DL輪読会】HexPlaneとK-Planes
Deeplearning輪読会
Deeplearning輪読会
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
機械学習の未解決課題
機械学習の未解決課題
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Dynamic Routing Between Capsules
Dynamic Routing Between Capsules
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
More from Fujimoto Keisuke
全日本CV勉強会 CVPR2020読み会
A quantum computational approach to correspondence problems on point sets
A quantum computational approach to correspondence problems on point sets
Fujimoto Keisuke
ICASSP2020読み会発表資料 F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Autoencoder
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
Fujimoto Keisuke
CV勉強会@関東発表資料 YOLACT real-time instance segmentation, ICCV2019
YOLACT real-time instance segmentation
YOLACT real-time instance segmentation
Fujimoto Keisuke
PMたちのPM知識を高める勉強会発表資料 Product Manager、Project Manager、Program Manager、Product Market Manager、Technical Product Manager、Product Owner等の役割の違い
Product Managerの役割、周辺ロールとの差異
Product Managerの役割、周辺ロールとの差異
Fujimoto Keisuke
Chainer Meetup #10 発表資料@Preferred Networks https://chainer.connpass.com/event/134839/
ChainerRLで株売買を結構頑張ってみた(後編)
ChainerRLで株売買を結構頑張ってみた(後編)
Fujimoto Keisuke
CV勉強会@関東、CVPR2019読み会 Temporal Cycle Consistency Learning D. Dwibedi , Y. Aytar, J. Tompson, P. Sermanet, A. Zisserman
Temporal Cycle Consistency Learning
Temporal Cycle Consistency Learning
Fujimoto Keisuke
研究開始から運用までの機械学習モデル開発
ML@Loft
ML@Loft
Fujimoto Keisuke
2019年4月14日 CV勉強会@関東発表資料 Point Cloud Reconstructionに関するサーベイ資料
20190414 Point Cloud Reconstruction Survey
20190414 Point Cloud Reconstruction Survey
Fujimoto Keisuke
Chainer Meetup #09発表資料 株の売買を結構頑張ってみた(前編)
Chainer meetup 9
Chainer meetup 9
Fujimoto Keisuke
コンピュータビジョン 広がる要素技術と応用 読み会3.3の資料です
20180925 CV勉強会 SfM解説
20180925 CV勉強会 SfM解説
Fujimoto Keisuke
2018/07/07 CV勉強会@関東CVPR論文読み会(後編) Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Fujimoto Keisuke
2018.05.27, 3D勉強会@関東 発表資料 LiDAR-SLAM チュートリアル
LiDAR-SLAM チュートリアル資料
LiDAR-SLAM チュートリアル資料
Fujimoto Keisuke
Chainer Meet UpのLT資料、株の売買に挑戦(シミュレーションですが)。
Stock trading using ChainerRL
Stock trading using ChainerRL
Fujimoto Keisuke
2018/02/04の関東CV勉強会「強化学習論文読み会」資料 Cold-Start Reinforcement Learning with Softmax Policy Gradient
Cold-Start Reinforcement Learning with Softmax Policy Gradient
Cold-Start Reinforcement Learning with Softmax Policy Gradient
Fujimoto Keisuke
Representation learning by learning to count
Representation learning by learning to count
Representation learning by learning to count
Fujimoto Keisuke
色んなDeep Learning Frameworkを比較してみた。
Deep Learning Framework Comparison on CPU
Deep Learning Framework Comparison on CPU
Fujimoto Keisuke
オーラル発表の予習です
ICCV2017一人読み会
ICCV2017一人読み会
Fujimoto Keisuke
CVPR2017のオーラル発表論文 Global optimality in neural network training
Global optimality in neural network training
Global optimality in neural network training
Fujimoto Keisuke
CVPR2017のオーラル発表のサーベイです。 速読したので、間違っているところがあると思います。 随時更新予定。
CVPR2017 oral survey
CVPR2017 oral survey
Fujimoto Keisuke
PointNet
Point net
Point net
Fujimoto Keisuke
More from Fujimoto Keisuke
(20)
A quantum computational approach to correspondence problems on point sets
A quantum computational approach to correspondence problems on point sets
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
F0-Consistent Many-to-many Non-parallel Voice Conversion via Conditional Auto...
YOLACT real-time instance segmentation
YOLACT real-time instance segmentation
Product Managerの役割、周辺ロールとの差異
Product Managerの役割、周辺ロールとの差異
ChainerRLで株売買を結構頑張ってみた(後編)
ChainerRLで株売買を結構頑張ってみた(後編)
Temporal Cycle Consistency Learning
Temporal Cycle Consistency Learning
ML@Loft
ML@Loft
20190414 Point Cloud Reconstruction Survey
20190414 Point Cloud Reconstruction Survey
Chainer meetup 9
Chainer meetup 9
20180925 CV勉強会 SfM解説
20180925 CV勉強会 SfM解説
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
LiDAR-SLAM チュートリアル資料
LiDAR-SLAM チュートリアル資料
Stock trading using ChainerRL
Stock trading using ChainerRL
Cold-Start Reinforcement Learning with Softmax Policy Gradient
Cold-Start Reinforcement Learning with Softmax Policy Gradient
Representation learning by learning to count
Representation learning by learning to count
Deep Learning Framework Comparison on CPU
Deep Learning Framework Comparison on CPU
ICCV2017一人読み会
ICCV2017一人読み会
Global optimality in neural network training
Global optimality in neural network training
CVPR2017 oral survey
CVPR2017 oral survey
Point net
Point net
Dynamic Routing Between Capsules
1.
2.
3.
4.
5.
6.
• • • • •
7.
8.
9.
• •
10.
• •
11.
•
12.
13.
• • • • •
14.
• • • • •
15.
16.
17.
• •
18.
• •
19.
•
20.
• 1. CNN 2. CNN
21.
•
22.
•
23.
24.
25.
26.
27.
•
28.
•
29.
•
30.
•
31.
•
32.
• •
33.
• • • • •
34.
• •
35.
• •
36.
• • • •
37.
• • •
38.
• • •
39.
• • • • •
40.
• • •
41.
• • • •
42.
• •
43.
• • • • • • • •
Download now