Submit Search
Upload
[DL輪読会]Unsupervised Learning by Predicting Noise
•
1 like
•
1,090 views
Deep Learning JP
Follow
2017/5/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 31
Download now
Download to read offline
Recommended
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
Yamato OKAMOTO
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
Graph Neural Networks
Graph Neural Networks
tm1966
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
Recommended
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
関西CVPRML勉強会2018 岡本大和 Unsupervised Feature Learning Via Non-Parametric Instanc...
Yamato OKAMOTO
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII2020 [OS2-02] 教師あり事前学習を凌駕する「弱」教師あり事前学習
SSII
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
Graph Neural Networks
Graph Neural Networks
tm1966
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
ARISE analytics
全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
画像認識と深層学習
画像認識と深層学習
Yusuke Uchida
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
Tomohiro Motoda
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
CVPR 2019 速報
CVPR 2019 速報
cvpaper. challenge
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
More Related Content
What's hot
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
画像認識と深層学習
画像認識と深層学習
Yusuke Uchida
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
Deep Learning JP
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
Tomohiro Motoda
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
Deep Learning JP
CVPR 2019 速報
CVPR 2019 速報
cvpaper. challenge
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
What's hot
(20)
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
画像認識と深層学習
画像認識と深層学習
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
CVPR 2019 速報
CVPR 2019 速報
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
論文紹介 Pixel Recurrent Neural Networks
論文紹介 Pixel Recurrent Neural Networks
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Recently uploaded
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Recently uploaded
(10)
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
[DL輪読会]Unsupervised Learning by Predicting Noise
1.
Unsupervised Learning by Predicting Noise Harada Ushiku Lab. M2 Fukuta Keisuke
2.
Paper information • arXiv preprint
(posted on 18 Apr 2017) • twitterでちょっと話題になってた • 完全にランダムなノイズをラベルに学習してrepresentation learning
3.
Paper information • arXiv preprint
(posted on 18 Apr 2017) • twitterでちょっと話題になってた • 完全にランダムなノイズをラベルに学習してrepresentation learning 意味不明
4.
Introduction 高次元データから良質な低次元特徴量を抽出したい • CNNによる表現学習はとても優秀だが、完全にラベル依存 ◦ 例えばImageNetでは後半の特徴量では背景はほぼ無視される的な •
教師無しで表現学習がしたい
5.
Related work • 自己組織化マップ ◦ 割と発想が似てる気がする ◦
提案手法はinputをtarget noiseに近づけるが、 SOMは逆にtargetをinputに近づけている感じ • Discriminative clustering ◦ ちょっと把握しきれませんでしたが半正定値計画問題を説いてunsupervised にクラスタリングをするみたいな話らしいです。 ◦ 著者曰く発想は近いけど、こっちはonline learningができてスケールするとの こと
6.
Related work (deep) • Self-supervision ◦ パズル解かせてみるとか、ビデオで近い画像は特徴似てるとか •
Clustering based, Retrieval based ◦ scaleしないとのこと • Random noise -> image ◦ AutoEncoder ◦ GAN ◦ 実際decoderとgeneratorとか無駄では
7.
Method 1. 半径𝑙のd次元超球からk個 target vectorをサンプリング 2. 画像のマッピング𝑓%
𝑥' に近い target vector 𝑦'を探す 3. それぞれのTarget vector 𝑦' に 𝑓%(𝑥')を近づける
8.
Method • 教師なしでMapping function 𝑓%(𝑥) を学習したい •
何らかのtarget vectorを用意してそれとマッピング後の representationを近づけるよう学習をする min % 1 𝑛 1 min 23∈56 𝑙( 𝑓% 𝑥' , 𝑦') 8 '9: 𝑦' ∶ 𝑡𝑎𝑟𝑔𝑒𝑡 𝑣𝑒𝑐𝑡𝑜𝑟
9.
Method Cost function 𝑙 に関して • softmax ◦
Target vectorの数に対して線形に計算量が増える -> 厳しい • L2距離 ◦ Target vectorの数には関係ない ◦ [Tygert et al., 2017]によると、出力を正規化しさえすればいい感じに 学習してくれる min % min D∈5E×6 1 2𝑛 𝑓% 𝑋 − 𝑌 J K 𝑓% 𝑋 : 𝑛×𝑑, 𝑌: 𝑛×𝑑
10.
Method 𝑌 ∈ 𝑅8×O が好きに動けるとしたら普通に考えて すべての𝑋をある値に射影してしまえばいい (representation collapse problem) min % min D∈5E×6 1 2𝑛
𝑓% 𝑋 − 𝑌 J K 𝑃 ∈ 0, 1 8×R 𝐶 ∈ 𝑅R×O Assignment matrix Pre-defined target representations 𝑌 = 𝑃𝐶 Target vectorを予めk個用意して、それらの割り当てを変更しよう 𝒌 > 𝒏
11.
Assignment matrix • 𝑃 =
𝑃 ∈ 0, 1 8×R 𝑃1R ≤ 18, 𝑃Y 18 = 1R} • 𝑘 < 𝑛で設定するとtarget vectorのassignがかぶってしまうので 良くない • 𝑘 ≥ 𝑛だが、実際は面倒なので𝑘 = 𝑛に設定 • すべての画像に、異なるtargetが一度ずつassignされる
12.
余談 min ^∈_ 1 2𝑛 𝑋 − PC
J K 𝑄 = 𝑃 ∈ 0, 1 8×R 𝑃1R = 18} Assign matrixの条件を少し変えて、Xを学習しないとすると、 k-meansの目的関数になる
13.
Target representations predefined target representation 𝐶 ∈ 𝑅R×O をどう決めるか 案1.
ℝO の標準基底から k 個選ぶ (単純) • Targetがone-hot vector、つまり各画像がすべてなんらかのuniqueラ ベルにassignされ、それらすべて直交するように学習 • 画像間の関係とかも学習したいから違う
14.
Target representations predefined target representation 𝐶 ∈ 𝑅R×O をどう決めるか 案2.
ℝO 空間上の超球 (𝑙K unit sphere) からrandom sampling • Noise as Target (NAT) • 画像から超球内の一様分布 (多様体)へのマッピングを解く問題 • K個のtarget vectorは多様体の近似
15.
Method 1. 半径𝑙のd次元超球からk個 target vectorをサンプリング 2. 画像のマッピング𝑓%
𝑥' に近い target vector 𝑦'を探す 3. それぞれのTarget vector 𝑦' に 𝑓%(𝑥')を近づける
16.
Reassignment どうやってマッピングから近いtarget vectorを探して割り当てるか = どうやってassignment matrixを更新するか 𝑓% 𝑥' に対するtarget vectorの割り当てコストが 一番小さくなるようにする Hungarian algorithm
17.
Hungarian algorithm • 割り当て問題を解くためのアルゴリズム • 例. 各支店が各業者に頼むと以下のようになる。 最適な割り当ては?? •
𝑂(𝑛e ) • 詳細は割愛
18.
Reassignment どうやってマッピングから近いtarget vectorを探して割り当てるか = どうやってassignment matrixを更新するか ハンガリアン法でreassignment -> 𝑂(𝑛e )とか当然無理 → Minibatch学習で、そのbatch内のみでreassignmentを行う → 𝑂 𝑏e × 8 g = 𝑂(𝑛𝑏K )となるので、スケールできる
19.
Method 1. 半径𝑙のd次元超球からk個 target vectorをサンプリング 2. 画像のマッピング𝑓%
𝑥' に近い target vector 𝑦'を探す 3. それぞれのTarget vector 𝑦' に 𝑓%(𝑥')を近づける
20.
Method
21.
Experiment • 提案手法でImagenetに対しunsupervised learning • AlexNetを使用 •
他のunsupervised, semi-supervisedと性能比較 • 実験1 ImageNetのclassification ◦ Convより上の層はfreeze (unsupervisedで得られたrepresentationの良さだけで勝負) • 実験2 Pascal VOC 2007にtransfer learning ◦ Finetune, freeze両方で比較
22.
Experiment 他手法より良い しかしSIFT+FVに比べると惨敗
23.
Experiment 割と良い
24.
Nearest neighbor
25.
Visualizing filters Alexnet with supervision NAT
26.
予備実験 • 普通のsupervised learningでSoftmaxと𝑙K lossの比較 → 出力正規化すればそんなに変わらない! •
Discrete (one-hot) target representationsは精度めっちゃ低い! • Unsupervised learningの様々なepochでのrepresentationを比較して みると、学習が進めば進むほどtransfer learningの精度が良い • Permutation (reassignment)は3 epochに1回で良い (謎)
27.
何をやっているのか • 低次元空間上のfixed target vectorに射影したい • 画像のrepresentationの分布を超球の一様分布(近似)との Earth mover distanceを小さくしている?? •
Neural Networkは基本近い感じの入力から近い感じのベクトルが出 力される (特に初期) • いい感じにrandom noiseが割り当てられる • 近いやつは近いという関係そのままで、 かつそれらをいい感じに遠ざける
28.
Information Maximization View この人 のブログ
29.
Information Maximization View In InfoMax principle, good representation is … • Compact (in terms of it's entropy) • Retains as much information about the input
X ℍ : shannon entropy 𝕀: mutual information
30.
Information Maximization View In this paper, 1. Restrict the domain of representation 𝑧
to a finite volume subset of ℝO (𝑙K unit sphere) 2. Each image is assigned to different target vector → ℍ[𝑝(𝑧; 𝜃)] is upper bounded → each representation is discriminative ?? (ここだけ僕の適当な考えです) 次元を落としつつ情報量最大化を満たすrepresentationの学習に相当? いまいちピンと来ず
31.
感想 • 直観と反しすぎる気がしたけど、よくよく考えると納得できなくもない、 という感じ • 実装がすごく簡単で良い
Download now