Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
HK
Uploaded by
hirono kawashima
4,269 views
DeepLearning 14章 自己符号化器
Deep Learning (日本語翻訳版)Ian Goodfellow の輪読資料 https://www.deeplearningbook.me/
Technology
◦
Related topics:
Deep Learning
•
Read more
3
Save
Share
Embed
Embed presentation
Download
Downloaded 15 times
1
/ 34
2
/ 34
3
/ 34
4
/ 34
5
/ 34
6
/ 34
7
/ 34
8
/ 34
9
/ 34
10
/ 34
11
/ 34
12
/ 34
13
/ 34
14
/ 34
15
/ 34
16
/ 34
17
/ 34
18
/ 34
19
/ 34
20
/ 34
21
/ 34
22
/ 34
23
/ 34
24
/ 34
25
/ 34
26
/ 34
27
/ 34
28
/ 34
29
/ 34
30
/ 34
31
/ 34
32
/ 34
33
/ 34
34
/ 34
More Related Content
PDF
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
PDF
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PPTX
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
PPTX
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
PPTX
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
PPTX
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
PPTX
Positive-Unlabeled Learning with Non-Negative Risk Estimator
by
Kiryo Ryuichi
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
by
Deep Learning JP
POMDP下での強化学習の基礎と応用
by
Yasunori Ozaki
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
by
Deep Learning JP
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
by
Deep Learning JP
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
by
Deep Learning JP
Positive-Unlabeled Learning with Non-Negative Risk Estimator
by
Kiryo Ryuichi
What's hot
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
PDF
【DL輪読会】Mastering Diverse Domains through World Models
by
Deep Learning JP
PPTX
[DL輪読会]“SimPLe”,“Improved Dynamics Model”,“PlaNet” 近年のVAEベース系列モデルの進展とそのモデルベース...
by
Deep Learning JP
PPTX
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
by
Deep Learning JP
PDF
Optimizer入門&最新動向
by
Motokawa Tetsuya
PDF
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
PPTX
Graph convolution (スペクトルアプローチ)
by
yukihiro domae
PPTX
【DL輪読会】マルチモーダル 基盤モデル
by
Deep Learning JP
PDF
機械学習モデルの判断根拠の説明
by
Satoshi Hara
PPTX
Sliced Wasserstein距離と生成モデル
by
ohken
PDF
HiPPO/S4解説
by
Morpho, Inc.
PDF
Variational AutoEncoder
by
Kazuki Nitta
PPTX
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
by
Yusuke Nakata
PDF
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
by
Deep Learning JP
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PDF
深層生成モデルと世界モデル
by
Masahiro Suzuki
PDF
3分でわかる多項分布とディリクレ分布
by
Junya Saito
PDF
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
by
Deep Learning JP
PPTX
Triplet Loss 徹底解説
by
tancoro
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
【DL輪読会】Mastering Diverse Domains through World Models
by
Deep Learning JP
[DL輪読会]“SimPLe”,“Improved Dynamics Model”,“PlaNet” 近年のVAEベース系列モデルの進展とそのモデルベース...
by
Deep Learning JP
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
by
Deep Learning JP
Optimizer入門&最新動向
by
Motokawa Tetsuya
PRML上巻勉強会 at 東京大学 資料 第1章前半
by
Ohsawa Goodfellow
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
Graph convolution (スペクトルアプローチ)
by
yukihiro domae
【DL輪読会】マルチモーダル 基盤モデル
by
Deep Learning JP
機械学習モデルの判断根拠の説明
by
Satoshi Hara
Sliced Wasserstein距離と生成モデル
by
ohken
HiPPO/S4解説
by
Morpho, Inc.
Variational AutoEncoder
by
Kazuki Nitta
Maximum Entropy IRL(最大エントロピー逆強化学習)とその発展系について
by
Yusuke Nakata
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
by
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
深層生成モデルと世界モデル
by
Masahiro Suzuki
3分でわかる多項分布とディリクレ分布
by
Junya Saito
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
by
Deep Learning JP
Triplet Loss 徹底解説
by
tancoro
Similar to DeepLearning 14章 自己符号化器
PDF
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
by
at grandpa
PDF
深層学習(講談社)のまとめ 第5章
by
okku apot
PDF
音学シンポジウム2025「ニューラルボコーダ概説:生成モデルと実用性の観点から」
by
NU_I_TODALAB
PDF
深層学習入門
by
Danushka Bollegala
PDF
Deep learning勉強会20121214ochi
by
Ohsawa Goodfellow
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
PDF
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
by
Deep Learning JP
PDF
文献紹介:Length-Controllable Image Captioning
by
Toru Tamaki
PPTX
Machine Learning Fundamentals IEEE
by
Antonio Tejero de Pablos
PDF
第2回 メドレー読書会
by
Toshifumi
PDF
深層学習(岡本 孝之 著)Deep learning chap.5_1
by
Masayoshi Kondo
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PDF
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
PPTX
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
by
Yoshitaka Ushiku
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PDF
DeepLearningTutorial
by
Takayoshi Yamashita
PDF
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
PDF
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
by
Preferred Networks
PDF
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
by
Preferred Networks
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
by
at grandpa
深層学習(講談社)のまとめ 第5章
by
okku apot
音学シンポジウム2025「ニューラルボコーダ概説:生成モデルと実用性の観点から」
by
NU_I_TODALAB
深層学習入門
by
Danushka Bollegala
Deep learning勉強会20121214ochi
by
Ohsawa Goodfellow
Deep Learningの基礎と応用
by
Seiya Tokui
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
by
Deep Learning JP
文献紹介:Length-Controllable Image Captioning
by
Toru Tamaki
Machine Learning Fundamentals IEEE
by
Antonio Tejero de Pablos
第2回 メドレー読書会
by
Toshifumi
深層学習(岡本 孝之 著)Deep learning chap.5_1
by
Masayoshi Kondo
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
深層学習(講談社)のまとめ(1章~2章)
by
okku apot
Self-Critical Sequence Training for Image Captioning (関東CV勉強会 CVPR 2017 読み会)
by
Yoshitaka Ushiku
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
DeepLearningTutorial
by
Takayoshi Yamashita
[DL輪読会]Deep Learning 第15章 表現学習
by
Deep Learning JP
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
by
Preferred Networks
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
by
Preferred Networks
DeepLearning 14章 自己符号化器
1.
第14章 ⾃⼰符号化器 hirono 1
2.
⽬次 • 14.1 不完備な⾃⼰符号化器 • 14.2 正則化付き⾃⼰符号化器 •
14.3 表現⼒、レイヤーサイズ、および深さ • 14.4 確率的な符号化器と復号化器 • 14.5 雑⾳除去⾃⼰符号化器 • 14.6 ⾃⼰符号化器による多様体学習 • 14.7 縮⼩⾃⼰符号化器 • 14.8 予測スパース分解 • 14.9 ⾃⼰符号化器の応⽤ 2
3.
⾃⼰符号化器 autoencoder 概要 •
⼊⼒を出⼒にコピーするように学習させたニューラル ネット 出⼒⼊⼒ 符号 入力xを出力rに写像する 3
4.
歴史 • 古い • 従来は次元削減や特徴量の学習に使⽤されていた •
近年、潜在変数モデルの間の理論的な関係によって⽣ 成モデルの最前線に位置することに(VAE詳しくは20章) 4
5.
位置付け • 順伝播型ネットワークの特殊な場合 • 同じ⼿法で学習させることができる 順伝播型ネットワーク
再循環 ⾃⼰符号化器 5
6.
再循環 recirculation • 逆伝播よりも⽣物学的には妥当であると考えられてい るが機械学習への応⽤ではほとんど使⽤されない http://archive.treora.com/2016/thesis/thesis.pdf Learning Representations by Recirculation (Hinton and McClelland, 1988) 6
7.
不完備な⾃⼰符号化器 • ⼊⼒を出⼒にコピーするのは無意味…? • そんなことはない •
⼊⼒をコピーするタスクを実⾏するように⾃⼰符号器 を学習させることで,hに有⽤な性質が備わることを 期待 7
8.
不完備 undercomplete • h の次元が⼊⼒xよりも⼩さくなるように制限すること •
不完備な表現を学習すると,⾃⼰符号化器は訓練デー タの最も顕著な特徴量を捉えるようになる • 符号化器と復号化器の容量が⼤きすぎると,ただのコ ピータスクになる→データ分布に関する有益な情報は 抽出できない ※Lは平均⼆乗誤差のような差異の⼤きさに 応じてペナルティが課される損失関数 学習プロセス: 損失関数Lの最⼩化 次元⼩ 次元⼤ 8
9.
過完備 overcomplete • h の次元が⼊⼒xよりも⼤きくなるようにすること •
⼊⼒から出⼒へのコピーの学習になってしまう可能性 がある ※Lは平均⼆乗誤差のような差異の⼤きさに 応じてペナルティが課される損失関数 学習プロセス: 損失関数Lの最⼩化 次元⼤ 次元⼩ 9
10.
理想的には • 符号化器・復号化器の符号次元・容量をモデル化され る分布の複雑さに基づいて選択するべき ↓ • どのような構造の⾃⼰符号化器でもうまく学習させる ことができる 10
11.
正則化付き⾃⼰符号化器 • ⼊⼒を出⼒にコピーする以外の性質もモデルが保持で きるような損失関数を利⽤する • 符号化器と復号化器を浅くし符号のサイズを保ってモ デル容量を制限しない 11
12.
推論⼿順を加えた⽣成モデル • 変分⾃⼰符号化器(VAE) • ヘルムホルツマシンの後継 •
→20.10.3節 • 確率的⽣成ネットワーク • →20.12節 ⼊⼒→出⼒へコピーするのではなく,訓練データの確率 を禁じ的に最⼤化するように訓練される ↓ ⼊⼒の過完備な符号化を⾃然に学習(正則化は必要ない) 12
13.
スパース⾃⼰符号化器 • 訓練基準として再構成誤差に加え符号層hでのスパー ス性ペナルティ項Ω(h)が含まれた⾃⼰符号化器 • コピータスクにおける正規化項というよりも,スパー ス⾃⼰符号化器の枠組み全体が潜在変数を有する⽣成 モデルの最尤学習近似 13 潜在変数に対するモデルの事前分布, xを⾒る前のモデルの信念
14.
スパース⾃⼰符号化器 • 対数尤度 • Hの尤度の⾼い1つだけを点推定することで右辺の和を 近似 14
15.
雑⾳除去⾃⼰符号化器 DAE • Denoising autoencoder •
コスト関数の再構成誤差の項を加えることによって有 益な情報を学習させる • 後ほど詳しく説明 15 何らかの雑⾳によって破損したxのコピー
16.
縮⼩⾃⼰符号化器 CAE • Contractive autoencoder •
微分へのペナルティ項を追加することによる正規化 • Xの変化が僅かな時⼤きく変化しない関数を学習させる • 訓練事例のみに適⽤されるため,訓練集合の経験分布 に関する情報を捉える特徴量を学習する • 後ほど詳しく説明 16
17.
表現⼒,レイヤー,深さ • ⾃⼰符号化器は基本的に順伝播型ネットワーク • ⻑所も受け継いでいる •
万能近似定理: 少なくとも1つの隠れ層を有する順伝播 型ニューラルネットワークは⼗分な隠れユニットがあ れば,任意の精度で関数の近似を表現できる • 深層⾃⼰符号化器は良好な圧縮をもたらす! 17 浅い⾃⼰符号化器を積み重ねて学習させる
18.
確率的な符号化器と復号化器 • 符号化関数,復号化関数の概念を,符号化分布・複合 化分布へ⼀般化する 18 符号化分布 復号化分布 同⼀の同時分布 と⽭盾のない条件付き分布で ある必要はない
19.
確率的な符号化器と復号化器 • 符号化器と復号化器をDAE として訓練させると,⼗分 な容量とサンプルがあれば漸近的に⽭盾はなくなる傾 向がある 19
20.
雑⾳除去⾃⼰符号化器 DAE • 破損したデータ点を⼊⼒として受け取り,元のデータを 出⼒として予測するように訓練された⾃⼰符号化器 •
確率的勾配降下法を以下の期待値に対して実⾏しているとみなせる 20 破損したサンプル 元の完全なデータ点 破損過程 再構成分布の学習: 1. 訓練データから訓練事例xをサンプリング 2. から破損した x~ をサンプリン グ 3. (x, ~x) を訓練事例として扱い,⾃⼰符号化 器の再構成分布 を推定する
21.
スコアの推定 • スコアマッチング: 最尤法の代替⼿段 • 全ての訓練点xでモデルが訓練集合の経験分布と同じス コアを持つよう促すことで,確率分布の⼀致推定量を 与える •
詳しくは18章で説明 21
22.
DAE: 訓練基準によって⾃⼰符号化器が訓練集合の 経験分布のスコアを推定するベクトル場を学習する • ⼆乗誤差 の平均値を最⼩化するとき, 再構成
は を推定する 22 低次元多様体 訓練事例 破損過程
23.
DAE: 湾曲した1D多様体の周囲にあるDAEによっ て学習されたベクトル場 23
24.
歴史的観点 • 雑⾳除去にMLPを使⽤するという考え(1987) • 回帰結合型ネットワークを⽤いて画像から雑⾳を除去 (2001) •
DAEは単なる「雑⾳除去を学習させたMLP」ではなく, その副作⽤として良好な内部表現の学習をする (2008,2010) 24
25.
多様体学習 25 • ⾃⼰符号化器でもデータが低次元多様体やそのような 多様体の⼩さい集合の周りに集中している,という考 えを利⽤ ⾼次元のデータから低次元のデータを取り出す 3次元→2次元平⾯(主成分分析),2次元曲⾯
26.
多様体学習 接平⾯ target planes 集合に関する性質 •
d次元多様体の点xにおいて,多様体上で許容される局 所的な変動の⽅向に貼られたd個の基底ベクトルにて 与えられる 26 接超平⾯の概念の説明図 784画素のMNISTの画像を⼀つ取り出し, 縦⽅向に移動させて変形させている
27.
最近傍グラフに基づくノンパラメトリック法 • 訓練事例ごとに1つのノードと近傍のノードを互いにつ なぐエッジを持つ 27
28.
どのように多様体に多数の局所的なガウス分布 上の⼩区画(パンケーキ)を敷き詰められるか • それぞれの位置における接平⾯がわかれば,それらを 敷き詰めて⼤域的座標系や密度関数を形成できる 28 局所的に平ら なガウス分布 (パンケーキ)
29.
しかしながら • AIの問題に関わる多様体の多くは,局所的補間のみで 捉えるのが難しい⾮常に複雑な構造を取る… 29 ちょっとした上下移動 でも,注⽬する座標の 値が⼭や⾕になる 多様体構造を捉えるために分散表現 と深層学習が⽤いられる
30.
縮⼩⾃⼰符号化器 CAE • Contractive Autoencoders •
符号h = f(x)に明⽰的な正則化を導⼊することでfの微分 をできるだけ⼩さくする ペナルティ項 符号化器関数f(x)に関する偏微分のヤコビ⾏列の フロベニウスノルムの⼆乗 30
31.
縮⼩⾃⼰符号化器 CAE • ⼩さなガウス⼊⼒雑⾳の極限にて,雑⾳除去による再 構成誤差がxをrに写像する再構成関数の縮⼩ペナル ティ項に等しくなる 31
32.
予測スパース分解 PSD • Predictive sparse decomposition(PSD) •
スパース符号化とパラメトリック⾃⼰符号化器を組み 合わせたモデル • 学習: • 画像や動画における物体認識のための教師なし特徴量 学習や,⾳声に利⽤されている • 学習による近似推論の⼀例…詳しくは19章 32 最⼩化
33.
縮⼩⾃⼰符号化器 • 局所PCAおよび縮⼩⾃⼰符号化器によって推定された 多様体の接ベクトルの例 • 接ベクトルは⼊⼒から符号への写像のヤコビ⾏列の主 要な得意ベクトルによって推定される 33 領域にまたがる共有なし 接ベクトル 縮⼩⾃⼰符号化器 対象物の部位の移動や変化に相当する
34.
⾃⼰符号化器の応⽤ • 次元削減,情報検索タスクへの応⽤として成功 • 積み重ねたRBM(Restricted Boltzman
machine )を学習 させてそれらの重みを30ユニットまで狭めた • 低次元表現は分類問題などの多くのタスクの性能を 改善 • 情報検索タスク = セマンティックハッシング 34 ⼊⼒された質問に似た項⽬をデータベースから探してくる x h r 低次元のバイナリの符号を⽣成 通常は最終層にシグモイドを利⽤
Download