SlideShare a Scribd company logo
(1).次元圧縮周りでの気付き
(2).次元圧縮vs直接的なモデル化
自己紹介
• 松本 拡高
• 東大 メディカル情報生命専攻 D3
• バイオインフォにおける確率モデル
と機械学習
• 連絡先
– @gggtta
– matsumoto@cb.k.u-tokyo.ac.jp
(1).次元圧縮周りでの気付き
(2).次元圧縮vs直接的なモデル化
次元圧縮とは
• 自然言語による大雑把な私の理解
• 高次元のデータを解釈できるよう、うま
いこと低次元に落とし込みたい。
次元圧縮(PCA)とは
• 目的関数による理解
• 元の高次元データXiを、データ共通のWと
低次元Ziを用いて上手く近似できるWとZi
を求める。(Wは直交する)
• 可視化するときは、たいていZiをplot
Sparse coding
• そもそも、この話をするようになったきっかけ
• なんか解釈可能な特徴量(辞書)が出てくるらし
い。という話を聞いて調べてみたところ。。。
引用:http://charles.cadieu.us/?p=184
Sparse coding
• 目的関数は
• Wの直交性の条件はない
• Ziにスパース性を含めただけ
• PCAとほとんど同じではないか。。。
• 確率論的には
– PCA : ziの事前分布がガウス分布
– SC : ziの事前分布がラプラス分布
Topic model
• Topicごとに単語の使われる頻度が異なり、
文章ごとにtopicの頻度が違う。
引用:http://www.scottbot.net/HIAL/?p=221
Topic model
• topicの出現確率が、文章ごとに違うmixture
modelの拡張だと私は最初に思った
• 混合モデル:topicの出現確率は一定
Topic model
• でも確率的に解釈すると、次元圧縮にWが
B、πiがZiとみなすと、ほぼprobabilistic
PCA
• 要はZiに、Zi>0かつ足したら1という条件
が加わっただけ
topic model -> mixture model -> k-means
• トピックモデル
– 出現確率がデータごとに異なる。
• 混合モデル
– 出現確率はデータで共通
• K-means
– 混合ガウスのある極限
Diffusion map
• PCAを非線形に拡張したものにdiffusion mapと
いうものがある
芳村さんのスライドから拝借
Diffusion map
• 手順
• 高次元空間上でのデータ間の遷移確率行
列をガウスカーネルから作る(ある種のグ
ラフラプラシアン)
• 遷移確率行列を固有値分解してえられる
固有ベクトルがZiに相当
Spectral clustering
• グラフラプラシアンといえばこいつ
• グラフラプラシアンを固有値分解して、固有ベ
クトルでk-meansなど
引用:http://d.hatena.ne.jp/mr_r_i_c_e/20121214/1355499195
Diffusion map vs spectral clustering
• グラフラプラシアンを固有値分解して固
有ベクトルを見るところまで同じ
– ※正確には許容できるグラフラプラシアンが違うはず
• 固有ベクトルを、連続量として扱うか、
離散的なクラスタに分類するかの違いで
しかない。
個人的な俯瞰図(scatter plot)
PCA Diffusion map
Sparse coding
スパース性
非線形
グラフラプラシアンの
固有値分解
クラスタリング
K-means Spectral clustering混合モデル
混合ガウス
トピックモデル
正則化条件
次元圧縮
個人的感想
• いろいろかっこいい名前をつけているが、基
盤はたいてい同じである。
• 次元圧縮もクラスタリングも混合モデルもた
いてい同じようなことをしている
– 機械学習は案外浅い研究分野?(※学習理論では
なく、モデルの多様性という意味で)
– いろいろ機械学習の手法を勉強してきたつもりだ
けど、実はたいして学んでいない!!???
• もっとディープな新しい何かが欲しい。
– ※ただし決してそれはディープラーニングではな
い
(1).次元圧縮周りでの気付き
(2).次元圧縮vs直接的なモデル化
Single cell expression data
• Bulk data
– ある程度細胞数が含まれたサンプルをまとめ
て計測する
– 異なる分化進行度、細胞運命の細胞が混ざっ
ており、データは平均像でしかない
• Single cell data
– 各細胞のデータを取得できるようになった
Single cell expression data
• Bulk data
• Single cell data
平均身長
平均体重
平均年収
身長
体重
年収
身長
体重
年収
Motivation
• 高解像度データを用いて、細胞の分化過
程を理解したい。
幼稚な例えをしますが
ご容赦ください
1細胞を1個人で考える
• 1細胞を1個人。遺伝子の発現量を身長
や年収などの特性と考える。
1細胞
発現量
遺伝子1 : 0.3
遺伝子2 : 1.9
1個人
値
身長 : 170
年収 : 300
細胞分化を知る、人の成長を知る
• 幹細胞→心筋細胞の分化過程を知りたい
• 子供→大人の成長過程を知りたい
1細胞
発現量
遺伝子1 : 0.3
遺伝子2 : 1.9
1個人
値
身長 : 170
年収 : 300
具体的に知りたいのは?
• 各細胞の分化進行度や細胞運命は未知
• 各個人の年齢や職業は未知
1細胞
発現量
遺伝子1 : 0.3
遺伝子2 : 1.9
1個人
値
身長 : 170
年収 : 300
次元圧縮を用いた経路再構築
• 発現量または身長などに対する次元圧縮
1細胞 or 1個人
次元圧縮を用いた経路再構築とは?
• 分化過程or成長過程を推定する
• MST, principal curve, ….
子供
iPS 警察官
心筋細胞
医者
肝細胞
次元圧縮を用いた経路再構築とは?
• 経路上の位置から、分化進行度(年齢)や細
胞運命(将来の職業)を推定する。
子供
iPS 警察官
心筋細胞
医者
肝細胞
次元圧縮の問題点
• 圧縮空間上での経路の生物学的な意味の
解釈が困難
• 必ずしも第1、第2成分が見たいものを
表すわけではない
– ノイズに弱く、いろいろぶれる
– 第何成分まで見れば良いのか?
ぶれる端的な例
子供
分化前 大人
分化後
医者
肝細胞
• 仮に赤が0歳のデータだとしても、圧縮
空間上では分散し、経路上はずれる
直接的なモデル化
• 細胞の気持ちになって考える
分化進行度
年齢
発現量
体重
1細胞or1個人の経路
平均的な振る舞い
直接的なモデル化
• 生物学的な機構を考慮したモデル化
• Ornstein-Uhlenbeck process
第1回wacodeより再掲
Essentially, all models are wrong,
but some are useful.
George E. P. Box(18 October 1919 – 28 March 2013)
結果(論文)
In preparation
まとめ
• 教師なし学習は基本的にPCAを基盤とし
てちょっと変わってるだけ。
• 次元圧縮は優れた手法だが、万能ではな
い
– 思考停止をしてはダメ
– 直接的なモデル化をぜひ

More Related Content

What's hot

SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
Yusuke Fujimoto
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
Yamato OKAMOTO
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
Deep Learning JP
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
Yasunori Ozaki
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
harmonylab
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
cvpaper. challenge
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
 
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
harmonylab
 

What's hot (20)

SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化Tensor コアを使った PyTorch の高速化
Tensor コアを使った PyTorch の高速化
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ画像生成・生成モデル メタサーベイ
画像生成・生成モデル メタサーベイ
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
 

Viewers also liked

3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)
Takumi Tsutaya
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
Mika Yoshimura
 
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
Mika Yoshimura
 
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析
sesejun
 
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
wl820609
 
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data SetsMethods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Ryan B Harvey, CSDP, CSM
 
Manifold learning with application to object recognition
Manifold learning with application to object recognitionManifold learning with application to object recognition
Manifold learning with application to object recognitionzukun
 
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender SystemsWSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
Kotaro Tanahashi
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
Shuyo Nakatani
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
Tomoki Hayashi
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)Akisato Kimura
 
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)
James McMurray
 
Self-organizing map
Self-organizing mapSelf-organizing map
Self-organizing map
Tarat Diloksawatdikul
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Nagi Teramo
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
Kai Sasaki
 

Viewers also liked (17)

3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)3次元のデータをグラフにする(Tokyo.R#17)
3次元のデータをグラフにする(Tokyo.R#17)
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
 
バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析バイオインフォマティクスによる遺伝子発現解析
バイオインフォマティクスによる遺伝子発現解析
 
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
Dimension Reduction And Visualization Of Large High Dimensional Data Via Inte...
 
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data SetsMethods of Manifold Learning for Dimension Reduction of Large Data Sets
Methods of Manifold Learning for Dimension Reduction of Large Data Sets
 
Manifold learning with application to object recognition
Manifold learning with application to object recognitionManifold learning with application to object recognition
Manifold learning with application to object recognition
 
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender SystemsWSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
 
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
[Kim+ ICML2012] Dirichlet Process with Mixed Random Measures : A Nonparametri...
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
 
関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)関東CV勉強会 Kernel PCA (2011.2.19)
関東CV勉強会 Kernel PCA (2011.2.19)
 
Topic Models
Topic ModelsTopic Models
Topic Models
 
The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)The Gaussian Process Latent Variable Model (GPLVM)
The Gaussian Process Latent Variable Model (GPLVM)
 
Self-organizing map
Self-organizing mapSelf-organizing map
Self-organizing map
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
 
AutoEncoderで特徴抽出
AutoEncoderで特徴抽出AutoEncoderで特徴抽出
AutoEncoderで特徴抽出
 
LDA入門
LDA入門LDA入門
LDA入門
 

More from Hirotaka Matsumoto

球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門
Hirotaka Matsumoto
 
ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本
Hirotaka Matsumoto
 
PRML11.2 - 11.6
PRML11.2 - 11.6PRML11.2 - 11.6
PRML11.2 - 11.6
Hirotaka Matsumoto
 
MixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotypingMixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotypingHirotaka Matsumoto
 

More from Hirotaka Matsumoto (7)

球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門球面と双曲面の幾何学入門の入門
球面と双曲面の幾何学入門の入門
 
ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本ISMB/ECCB2019読み会_松本
ISMB/ECCB2019読み会_松本
 
ISMB2018読み会
ISMB2018読み会ISMB2018読み会
ISMB2018読み会
 
PRML11.2 - 11.6
PRML11.2 - 11.6PRML11.2 - 11.6
PRML11.2 - 11.6
 
CSP
CSPCSP
CSP
 
Prml11 sup
Prml11 supPrml11 sup
Prml11 sup
 
MixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotypingMixSIH: a mixture model for single individual haplotyping
MixSIH: a mixture model for single individual haplotyping
 

次元圧縮周りでの気付き&1細胞発現データにおける次元圧縮の利用例@第3回wacode