Submit Search
Upload
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
•
Download as PPTX, PDF
•
6 likes
•
2,639 views
Hirotaka Matsumoto
Follow
ほげほげ
Read less
Read more
Science
Report
Share
Report
Share
1 of 35
Download now
Recommended
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
2022/03/18 Deep Learning JP: http://deeplearning.jp/seminar-2/
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
2015年5月30日第29回コンピュータビジョン勉強会@関東「有名論文を読む会」発表用資料。 Curriculum Learning [Bengio+, ICML 2009] とその後続を紹介。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
第16回汎用人工知能研究会
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
強化学習と方策勾配法をざっくり 注: 全体を通して割引報酬による定式化のみを考慮. p. 4:状態価値関数の図は割引をちゃんと考慮してないイメージ図 ミスたち: p. 33:行動が確率変数ではないため -> 大嘘,行動は決定論的に決められるから
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/
Recommended
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
2022/03/18 Deep Learning JP: http://deeplearning.jp/seminar-2/
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
2015年5月30日第29回コンピュータビジョン勉強会@関東「有名論文を読む会」発表用資料。 Curriculum Learning [Bengio+, ICML 2009] とその後続を紹介。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
第16回汎用人工知能研究会
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
強化学習と方策勾配法をざっくり 注: 全体を通して割引報酬による定式化のみを考慮. p. 4:状態価値関数の図は割引をちゃんと考慮してないイメージ図 ミスたち: p. 33:行動が確率変数ではないため -> 大嘘,行動は決定論的に決められるから
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
6/9 (木) 14:45~15:15 メイン会場 講師:石井 雅人 氏(ソニーグループ株式会社) 概要: 機械学習技術の急速な発達により、コンピュータによる知的処理は様々なタスクで人間に匹敵あるいは凌駕する性能を達成してきた。一方、このような高い性能は大量かつ高品質な学習データによって支えられており、多様化する機械学習応用においてデータの収集コストが大きな導入障壁の1つとなっている。本講演では、少ないデータやラベルから効率的に学習するための様々な技術について、「足りない情報をどのように補うか?」という観点から概観するとともに、特に画像認識分野における最新の研究動向についても紹介する。
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
よくわかるフリストンの自由エネルギー原理
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
SSII2020 技術動向解説セッション SS1 6/11 (木) 14:00~14:30 メイン会場 (vimeo + sli.do) グラフ構造をもつデータに対する DNN、すなわち Graph Neural Networks (GNNs) の研究はこの2、3年で参加する研究者が急増している。現状、様々なアーキテクチャの GNN が様々なドメインや様々なタスクで個別に提案され、概観を捉えるのも簡単ではない状態になっている。本チュートリアルは、広範に散らばった GNN 研究の現状についての概観と基盤技術を紹介するとともに、時間が許す範囲でコンピュータビジョン領域における応用例の紹介にも取り組みたい。
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
Faster Python Meet up LT会 #1(https://faster-python.connpass.com/event/124770/) で使った資料です。
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
数学パワーが世界を変える2020発表資料
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
ResNetに代表されるSkip Connectionについて理論と有効性をまとめました。
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
2019/04/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
2018/08/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
強化学習若手の会チュートリアル、部分観測マルコフ決定過程 (POMDP) 下での強化学習の基礎と応用の資料です。
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化 -Factorization -Efficient microarchitecture (module) -Pruning -Quantization -Distillation -Early termination
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
harmonylab
強化学習をDQNから順に追って,A3C,PPOまでを解説します.
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
IIBMP2016(第五回生命医薬情報学連合大会)での招待講演の内容です。深層学習を生成過程の問題としてとらえて、なぜ表現を学習できるのかを説明した後に,深層生成モデル(VAE, GAN, 少しだけ自己回帰モデル, エネルギーモデル, モーメントマッチングモデルを紹介します。
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
最近のGNNの隣接ノード情報の集約方法や一層パーセプトロンによる積層の限界を指摘した論文.
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
2023/1/13 Deep Learning JP http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
• World Modelの派⽣系のDreamerの2代⽬ • 画像⼊⼒から学習した世界モデルの潜在空間内のみで学習 • 同じ計算資源・サンプル数でIQN, Rainbow(モデルフリー)を凌駕
3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)
Takumi Tsutaya
Rを使って3次元のデータをグラフにする方法を簡単にまとめました.
確率的主成分分析
確率的主成分分析
Mika Yoshimura
PCA勉強会での発表資料
More Related Content
What's hot
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
6/9 (木) 14:45~15:15 メイン会場 講師:石井 雅人 氏(ソニーグループ株式会社) 概要: 機械学習技術の急速な発達により、コンピュータによる知的処理は様々なタスクで人間に匹敵あるいは凌駕する性能を達成してきた。一方、このような高い性能は大量かつ高品質な学習データによって支えられており、多様化する機械学習応用においてデータの収集コストが大きな導入障壁の1つとなっている。本講演では、少ないデータやラベルから効率的に学習するための様々な技術について、「足りない情報をどのように補うか?」という観点から概観するとともに、特に画像認識分野における最新の研究動向についても紹介する。
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
よくわかるフリストンの自由エネルギー原理
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
SSII2020 技術動向解説セッション SS1 6/11 (木) 14:00~14:30 メイン会場 (vimeo + sli.do) グラフ構造をもつデータに対する DNN、すなわち Graph Neural Networks (GNNs) の研究はこの2、3年で参加する研究者が急増している。現状、様々なアーキテクチャの GNN が様々なドメインや様々なタスクで個別に提案され、概観を捉えるのも簡単ではない状態になっている。本チュートリアルは、広範に散らばった GNN 研究の現状についての概観と基盤技術を紹介するとともに、時間が許す範囲でコンピュータビジョン領域における応用例の紹介にも取り組みたい。
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
Faster Python Meet up LT会 #1(https://faster-python.connpass.com/event/124770/) で使った資料です。
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
数学パワーが世界を変える2020発表資料
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
ResNetに代表されるSkip Connectionについて理論と有効性をまとめました。
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
2019/04/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
2018/08/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
強化学習若手の会チュートリアル、部分観測マルコフ決定過程 (POMDP) 下での強化学習の基礎と応用の資料です。
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化 -Factorization -Efficient microarchitecture (module) -Pruning -Quantization -Distillation -Early termination
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
harmonylab
強化学習をDQNから順に追って,A3C,PPOまでを解説します.
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
IIBMP2016(第五回生命医薬情報学連合大会)での招待講演の内容です。深層学習を生成過程の問題としてとらえて、なぜ表現を学習できるのかを説明した後に,深層生成モデル(VAE, GAN, 少しだけ自己回帰モデル, エネルギーモデル, モーメントマッチングモデルを紹介します。
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
最近のGNNの隣接ノード情報の集約方法や一層パーセプトロンによる積層の限界を指摘した論文.
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
2023/1/13 Deep Learning JP http://deeplearning.jp/seminar-2/
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
• World Modelの派⽣系のDreamerの2代⽬ • 画像⼊⼒から学習した世界モデルの潜在空間内のみで学習 • 同じ計算資源・サンプル数でIQN, Rainbow(モデルフリー)を凌駕
What's hot
(20)
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
Viewers also liked
3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)
Takumi Tsutaya
Rを使って3次元のデータをグラフにする方法を簡単にまとめました.
確率的主成分分析
確率的主成分分析
Mika Yoshimura
PCA勉強会での発表資料
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
Mika Yoshimura
WACODE 2ndにて発表しました。
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析
sesejun
第2回数理生物サマーレクチャーコース@理研CDB,講義資料. 2013/07/30
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
wl820609
Dimension Reduction
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Ryan B Harvey, CSDP, CSM
Doctoral candidacy talk to faculty of the Applied Mathematics, Applied Statistics and Scientific Computing program at the University of Maryland
Manifold learning with application to object recognition
Manifold learning with application to object recognition
zukun
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
Kotaro Tanahashi
Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
Shuyo Nakatani
Supervised Nonparametric Topic Model
Visualizing Data Using t-SNE
Visualizing Data Using t-SNE
Tomoki Hayashi
研究室での論文紹介スライド. Laurens van der Maaten, Geoffrey Hinton, ”Visualizing Data using t-SNE”, Journal of Machine Learning Research (2008) pp.1-48
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Akisato Kimura
Topic Models
Topic Models
Claudia Wagner
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)
James McMurray
An introduction to the Gaussian Process Latent Variable Model (GPLVM)
Self-organizing map
Self-organizing map
Tarat Diloksawatdikul
Self-organizing map (SOM) for Dimensionality Reduction
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Nagi Teramo
Presentation document in TokyoR#42.
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
Kai Sasaki
AutoEncoderの話
LDA入門
LDA入門
正志 坪坂
Viewers also liked
(17)
3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)
確率的主成分分析
確率的主成分分析
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Manifold learning with application to object recognition
Manifold learning with application to object recognition
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
Visualizing Data Using t-SNE
Visualizing Data Using t-SNE
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
Topic Models
Topic Models
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)
Self-organizing map
Self-organizing map
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
LDA入門
LDA入門
More from Hirotaka Matsumoto
球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門
Hirotaka Matsumoto
ポアンカレ埋め込みの理解のための導入
ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本
Hirotaka Matsumoto
ISMB/ECCB2019読み会
ISMB2018読み会
ISMB2018読み会
Hirotaka Matsumoto
PRML11.2 - 11.6
PRML11.2 - 11.6
Hirotaka Matsumoto
PRML11.2 - 11.6
CSP
CSP
Hirotaka Matsumoto
Prml11 sup
Prml11 sup
Hirotaka Matsumoto
MixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotyping
Hirotaka Matsumoto
More from Hirotaka Matsumoto
(7)
球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門
ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本
ISMB2018読み会
ISMB2018読み会
PRML11.2 - 11.6
PRML11.2 - 11.6
CSP
CSP
Prml11 sup
Prml11 sup
MixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotyping
次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode
1.
(1).次元圧縮周りでの気付き (2).次元圧縮vs直接的なモデル化
2.
自己紹介 • 松本 拡高 •
東大 メディカル情報生命専攻 D3 • バイオインフォにおける確率モデル と機械学習 • 連絡先 – @gggtta – matsumoto@cb.k.u-tokyo.ac.jp
3.
(1).次元圧縮周りでの気付き (2).次元圧縮vs直接的なモデル化
4.
次元圧縮とは • 自然言語による大雑把な私の理解 • 高次元のデータを解釈できるよう、うま いこと低次元に落とし込みたい。
5.
次元圧縮(PCA)とは • 目的関数による理解 • 元の高次元データXiを、データ共通のWと 低次元Ziを用いて上手く近似できるWとZi を求める。(Wは直交する) •
可視化するときは、たいていZiをplot
6.
Sparse coding • そもそも、この話をするようになったきっかけ •
なんか解釈可能な特徴量(辞書)が出てくるらし い。という話を聞いて調べてみたところ。。。 引用:http://charles.cadieu.us/?p=184
7.
Sparse coding • 目的関数は •
Wの直交性の条件はない • Ziにスパース性を含めただけ • PCAとほとんど同じではないか。。。 • 確率論的には – PCA : ziの事前分布がガウス分布 – SC : ziの事前分布がラプラス分布
8.
Topic model • Topicごとに単語の使われる頻度が異なり、 文章ごとにtopicの頻度が違う。 引用:http://www.scottbot.net/HIAL/?p=221
9.
Topic model • topicの出現確率が、文章ごとに違うmixture modelの拡張だと私は最初に思った •
混合モデル:topicの出現確率は一定
10.
Topic model • でも確率的に解釈すると、次元圧縮にWが B、πiがZiとみなすと、ほぼprobabilistic PCA •
要はZiに、Zi>0かつ足したら1という条件 が加わっただけ
11.
topic model ->
mixture model -> k-means • トピックモデル – 出現確率がデータごとに異なる。 • 混合モデル – 出現確率はデータで共通 • K-means – 混合ガウスのある極限
12.
Diffusion map • PCAを非線形に拡張したものにdiffusion
mapと いうものがある 芳村さんのスライドから拝借
13.
Diffusion map • 手順 •
高次元空間上でのデータ間の遷移確率行 列をガウスカーネルから作る(ある種のグ ラフラプラシアン) • 遷移確率行列を固有値分解してえられる 固有ベクトルがZiに相当
14.
Spectral clustering • グラフラプラシアンといえばこいつ •
グラフラプラシアンを固有値分解して、固有ベ クトルでk-meansなど 引用:http://d.hatena.ne.jp/mr_r_i_c_e/20121214/1355499195
15.
Diffusion map vs
spectral clustering • グラフラプラシアンを固有値分解して固 有ベクトルを見るところまで同じ – ※正確には許容できるグラフラプラシアンが違うはず • 固有ベクトルを、連続量として扱うか、 離散的なクラスタに分類するかの違いで しかない。
16.
個人的な俯瞰図(scatter plot) PCA Diffusion
map Sparse coding スパース性 非線形 グラフラプラシアンの 固有値分解 クラスタリング K-means Spectral clustering混合モデル 混合ガウス トピックモデル 正則化条件 次元圧縮
17.
個人的感想 • いろいろかっこいい名前をつけているが、基 盤はたいてい同じである。 • 次元圧縮もクラスタリングも混合モデルもた いてい同じようなことをしている –
機械学習は案外浅い研究分野?(※学習理論では なく、モデルの多様性という意味で) – いろいろ機械学習の手法を勉強してきたつもりだ けど、実はたいして学んでいない!!??? • もっとディープな新しい何かが欲しい。 – ※ただし決してそれはディープラーニングではな い
18.
(1).次元圧縮周りでの気付き (2).次元圧縮vs直接的なモデル化
19.
Single cell expression
data • Bulk data – ある程度細胞数が含まれたサンプルをまとめ て計測する – 異なる分化進行度、細胞運命の細胞が混ざっ ており、データは平均像でしかない • Single cell data – 各細胞のデータを取得できるようになった
20.
Single cell expression
data • Bulk data • Single cell data 平均身長 平均体重 平均年収 身長 体重 年収 身長 体重 年収
21.
Motivation • 高解像度データを用いて、細胞の分化過 程を理解したい。
22.
幼稚な例えをしますが ご容赦ください
23.
1細胞を1個人で考える • 1細胞を1個人。遺伝子の発現量を身長 や年収などの特性と考える。 1細胞 発現量 遺伝子1 :
0.3 遺伝子2 : 1.9 1個人 値 身長 : 170 年収 : 300
24.
細胞分化を知る、人の成長を知る • 幹細胞→心筋細胞の分化過程を知りたい • 子供→大人の成長過程を知りたい 1細胞 発現量 遺伝子1
: 0.3 遺伝子2 : 1.9 1個人 値 身長 : 170 年収 : 300
25.
具体的に知りたいのは? • 各細胞の分化進行度や細胞運命は未知 • 各個人の年齢や職業は未知 1細胞 発現量 遺伝子1
: 0.3 遺伝子2 : 1.9 1個人 値 身長 : 170 年収 : 300
26.
次元圧縮を用いた経路再構築 • 発現量または身長などに対する次元圧縮 1細胞 or
1個人
27.
次元圧縮を用いた経路再構築とは? • 分化過程or成長過程を推定する • MST,
principal curve, …. 子供 iPS 警察官 心筋細胞 医者 肝細胞
28.
次元圧縮を用いた経路再構築とは? • 経路上の位置から、分化進行度(年齢)や細 胞運命(将来の職業)を推定する。 子供 iPS 警察官 心筋細胞 医者 肝細胞
29.
次元圧縮の問題点 • 圧縮空間上での経路の生物学的な意味の 解釈が困難 • 必ずしも第1、第2成分が見たいものを 表すわけではない –
ノイズに弱く、いろいろぶれる – 第何成分まで見れば良いのか?
30.
ぶれる端的な例 子供 分化前 大人 分化後 医者 肝細胞 • 仮に赤が0歳のデータだとしても、圧縮 空間上では分散し、経路上はずれる
31.
直接的なモデル化 • 細胞の気持ちになって考える 分化進行度 年齢 発現量 体重 1細胞or1個人の経路 平均的な振る舞い
32.
直接的なモデル化 • 生物学的な機構を考慮したモデル化 • Ornstein-Uhlenbeck
process
33.
第1回wacodeより再掲 Essentially, all models
are wrong, but some are useful. George E. P. Box(18 October 1919 – 28 March 2013)
34.
結果(論文) In preparation
35.
まとめ • 教師なし学習は基本的にPCAを基盤とし てちょっと変わってるだけ。 • 次元圧縮は優れた手法だが、万能ではな い –
思考停止をしてはダメ – 直接的なモデル化をぜひ
Download now