SlideShare a Scribd company logo
1/25
スペクトラル・クラスタリング
宮澤 彬
総合研究大学院大学 博士前期 1 年
miyazawa-a@nii.ac.jp
September 15, 2015
2/25
動機
各データを点とみなし,いくつかを辺で結ぶとグラフ理論でいうところ
のグラフができる.さらに辺の両端の点の類似度に応じて,重みを与え
てやるとクラスタリングの問題は重みの小さい,つまり結びつきの弱い
部分でグラフを切断する問題に帰着させることができる.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
2/25
動機
各データを点とみなし,いくつかを辺で結ぶとグラフ理論でいうところ
のグラフができる.さらに辺の両端の点の類似度に応じて,重みを与え
てやるとクラスタリングの問題は重みの小さい,つまり結びつきの弱い
部分でグラフを切断する問題に帰着させることができる.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
3/25
動機
グラフの連結構造を活用すればクラスタリングの精度が向上する.以下
の図は,k 平均法ではうまくいかないが,スペクトラル・クラスタリン
グでは期待通りのクラスタが得られる例である.この図は Murphy
(2012) から引用した.
−6 −4 −2 0 2 4 6
−5
−4
−3
−2
−1
0
1
2
3
4
5
k−means clustering
x
y
−6 −4 −2 0 2 4 6
−5
−4
−3
−2
−1
0
1
2
3
4
5
spectral clustering
x
y
切断の問題は,グラフ理論の分野で既に多くの研究結果があり,それら
を使うことができるという利点もある.
4/25
グラフとは
グラフは,頂点と呼ばれる対象からなる有限非空集合 V と,辺と呼ば
れる対象からなる集合 E の組 (V, E) である.辺とは,V の異なる 2 つ
の元の非順序対である.辺 {vi, vj} を eij のように書く.
例えば以下のグラフを図示すると下の図のようになる.
G = (V, E) , V = {v1, v2, v3, v4, v5} , E = {e13, e14, e24, e25, e35}
v1
v2
v3 v4
v5
5/25
行列によるグラフの表現
A = (aij) = 1E (eij) とすれば,グラフの辺の構造を行列で表現するこ
とができる.この A を隣接行列 (adjacency matrix) と呼ぶ.
v1
v2
v3 v4
A =




0 1 0 0
1 0 1 1
0 1 0 0
0 1 0 0




6/25
行列によるグラフの表現
データ x1, . . . , xn に頂点 v1, . . . , vn を対応させる.2 つのデータ xi, xj
の類似度 sij によっての辺 eij に重み wij ≥ 0 を付与する.このとき n
次実対称行列 W = (wij) を重み付き隣接行列 (weighted adjacency
matrix) と呼ぶ.
v1
v2
v3 v4
0.5
1.2 0.7
W =




0 0.5 0 0
0.5 0 1.2 0.7
0 1.2 0 0
0 0.7 0 0




7/25
行列によるグラフの表現
グラフの分割を考えるにあたり,重み付き隣接行列の他に,次数行列と
いう行列も必要になるのでここで紹介しておく.
任意の頂点 vi ∈ {v1, . . . , vn} について,その次数 (degree) を
di =
n
j=1
wij
と定める.次数を対角成分に持つ n 次正方行列 D = (diδij) を次数行列
(degree matrix) と呼ぶ.ただし δij はクロネッカーのデルタである.
8/25
重み付き隣接行列と次数行列
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
D =






1.1 0 0 0 0
0 1.6 0 0 0
0 0 2.1 0 0
0 0 0 2 0
0 0 0 0 1.8






, W =






0 0.8 0.1 0.1 0.1
0.8 0 0.4 0.2 0.2
0.1 0.4 0 0.9 0.7
0.1 0.2 0.9 0 0.8
0.1 0.2 0.7 0.8 0






9/25
Cut とは
どこで切断するかを決めるため,以下で定められる量を考えよう.
cut A, A =
(i,j) ; vi∈A, vj ∈A
wij (1)
ここで A = V A である.(1) はクラスター A と A を結ぶ重みの総和で
あり,これが小さくなるように切断するのが望ましいと考えられる.
10/25
Cut の例
A1 := {v1, v2} とする.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A1, A1 = w13 + w14 + w15 + w23 + w24 + w25
= 0.1 + 0.1 + 0.1 + 0.4 + 0.2 + 0.2 = 1.1
11/25
Cut の例
A2 := {v1, v2, v3} とする.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A2, A2 = w14 + w15 + w24 + w25 + w34 + w35
= 0.1 + 0.1 + 0.2 + 0.2 + 0.9 + 0.7 = 2.2 > cut A1, A1
12/25
Cut の例
この基準には,1 つの頂点と残りの頂点全部,という分割になりやすい
傾向がある.以下は A3 := {v1} とした例である.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A3, A3 = w12 + w13 + w14 + w15
= 0.8 + 0.1 + 0.1 + 0.1 = 1.1 = cut A1, A1
13/25
NCut
この問題を解決するため新しく normalized cut という基準を導入す
る.これは次の値
NCut A, A :=
cut A, A
vol A
+
cut A, A
vol A
が小さいほうが好ましいとする方法である.ただし
vol A =
{i ; vi∈A}
di =
{i ; vi∈A} {j ; vj ∈V }
wij
である.上で見た例について,これを計算すると
NCut A1, A1 =
1.1
1.1 + 1.6
+
1.1
2.1 + 2 + 1.8
=
946
1593
< 1,
NCut A3, A3 =
1.1
1.1
+
1.1
1.6 + 2.1 + 2 + 1.8
= 1 +
11
75
> 1
となり,より均衡がとれている A1 が好ましいとされる.
14/25
NCut
一般に A1, . . . , Ak について
NCut (A1, . . . , Ak) =
k
i=1
cut Ai, Ai
vol Ai
と定める.
今までの話から,グラフの切断の問題は次の最適化問題に帰着させら
れる.
minimize
A1,...,Ak
NCut (A1, . . . , Ak) (2)
しかし,これは NP 困難であることが知られている.
15/25
グラフ・ラプラシアン
そこでグラフ・ラプラシアンというものを導入し,(2) を少し書き換え
ることを試みる.グラフ・ラプラシアンは
L := D − W
で与えられる.
定義からすぐに以下の性質が分かる.
L は n 次実対称行列である.
L の固有値 0 と,それに対応する固有ベクトル 1 = (1 · · · 1) ∈ Rn
をもつ.
16/25
グラフ・ラプラシアンの性質
補題 任意のベクトル f ∈ Rn
について以下が成り立つ.
f Lf =
1
2
n
i,j=1
wij (fi − fj)
2
.
証明
f Lf = f Df − f Wf
=
n
i=1
dif2
i −
n
i,j=1
fifjwij
=


n
i=1
dif2
i −
n
i,j=1
fifjwij +
2
j=1
djf2
j


=
1
2
n
i,j=1
wij (fi − fj)
2
17/25
グラフ・ラプラシアンの性質
任意の Aκ ⊂ V に対して,hκ := (h1,κ · · · hn,κ) ∈ Rn
を以下で定める.
hi,κ :=
1Aκ
(vi)
√
vol Aκ
すると以下が成り立つ.
hκLhκ =
1
2
n
i,j=1
wij (hi,κ − hj,κ)
2
=
1
2
(i,j) ; vi∈Aκ, vj ∈Aκ
wij
1
√
vol Aκ
2
+
1
2
(i,j) ; vi∈Aκ, vj ∈Aκ
wij
1
vol Aκ
2
=
cut Aκ, Aκ
vol Aκ
.
18/25
問題の再定式化
さらに以下が成り立つ.
hιDhκ =
n
i=1
dihi,ιhi,κ
=
n
i=1
di
1Aι
(vi) 1Aκ
(vi)
√
vol Aι
√
vol Aκ
=
1
√
vol Aι
√
vol Aκ {i ; vi∈Aι∩Aκ}
di
= δικ.
よって (2) は以下のように書き換えられる.
minimize
A1,...,Ak⊂V
tr (H LH)
subject to H DH = I
(3)
19/25
問題の再定式化
しかし (3) は依然として NP 困難であるから,H が Rn×k
を動くものと
する.すなわち
minimize
H∈Rn×k
tr (H LH)
subject to H DH = I
(4)
を解くことにする.
解きやすくするため,以下では T := D1/2
H と置いた
minimize
T ∈Rn×k
tr T D−1/2
LD−1/2
T
subject to T T = I
(5)
を考える.
20/25
2 次形式に関する不等式
定理 行列 A ∈ Cn×n
をエルミート行列とし,その固有値を λ1, . . . , λn,
対応する固有ベクトルを u1, . . . , un, ui, uj = δij とする 1
.このとき
固有値について λ1 ≤ λ2 ≤ · · · ≤ λn が成り立っているならば,任意の
q ∈ {1, . . . , n} と任意の正規直交系 {x1, . . . , xq ; xi ∈ Cn
, xi, xj = δij}
に対して
q
i=1
λi ≤
q
i=1
xiAxi (6)
が成り立つ.さらに xi = ui (i = 1, . . . , q) ならば,(6) において等号が
成立する.
証明 例えば Simovici and Djeraba (2008) を参照せよ.
1 エルミート行列の固有ベクトルはそれぞれ互いに直交する.
λi ui, uj = λiui, uj = Aui, uj = ui, A∗
uj = ui, λjuj = λj ui, uj
エルミート行列の固有値は実数なので λi = λj ならば,λi = λj となり, ui, uj = 0.
21/25
最適化問題の解
前のページの定理により (5) の解が求めることができる.つまり,行列
D−1/2
LD−1/2
の固有値を小さいほうから λ1, . . . , λn と並べ,それぞれ
に対応する正規化された固有ベクトルを u1, . . . , un とするとき,
T = (u1 · · · uk) とすれば tr T D−1/2
LD1/2
T が最小になるのである.
ここで zi := D−1/2
ui と置くと
D−1/2
LD−1/2
ui = λiui
D−1
LD−1/2
u = λiD−1/2
ui
D−1
Lzi = λizi
Lzi = λiDzi
となり,H = D−1/2
u1 · · · D−1/2
uk = (z1 · · · zk) は一般化された固
有値問題 Lz = λDz の解を並べたものであることが分かる.
22/25
類似度行列
アルゴリズムを紹介する前に,類似度行列を構成する主要な 3 つの手法
を示す.
1. ε-neighbor
半径 ε 以内にある点のみに重みを与える.
2. k-nearest neighbor
類似度が高い k 個の点のみに重みを与える.類似度行列が対称にな
るように注意する.例えば vi と vj がお互いに k-nearest
neighbor に含まれる場合にのみ重さを与えるようにすればよい.
3. 完全連結
任意の 2 点間の類似度を計算する方法である.例えば
sij = exp −
xi − xj
2
2σ2
として計算しておく.
23/25
アルゴリズム
Normalized spectral clustering according to Shi and Malik (2000)
1: Construct a similarity graph.
2: Compute the graph Laplacian L.
3: Compute the first k generalized eigenvectors u1, . . . , uk of the
generalized eigenproblem Lu = λDu.
4: Let H := (hiκ) = (u1 · · · uk) ∈ Rn×k
.
5: Let yi := (hi,1 · · · hi,k) ∈ Rk
(i = 1, . . . , n).
6: Cluster the points y1, . . . , yn with the k-means algorithm into clusters
C1, . . . , Ck.
時間計算量について考察する.類似度行列の作成は,完全連結で計算し
た場合 O dn2
となる.固有ベクトルの計算は,手法によって違いはあ
るものの大体 O n3
程度である.k 平均法によるクラスタリングは繰
り返しの回数を I として O (Ikdn) である.
データが増えると固有ベクトルの計算が大きな負担になってしまう.
24/25
追記
スペクトラル・クラスタリングにはいくつかの似た変種がある.例えば
normalized cut のかわりに,次の RatioCut を使う方法がある.
RatioCut (A1, . . . , An) :=
k
i=1
cut Ai, Ai
|Ai|
ただし |Ai| は Ai に含まれる頂点の数である.
このスライドは主に von Luxburg (2007) を参考に作った.類似の他
の手法や技術的な詳細については,この資料を参考にするとよい.
25/25
参考文献
Murphy, K. P. (2012). Machine learning: a probabilistic
perspective.
Simovici, D. A. and Djeraba, C. (2008). Mathematical tools for
data mining. Advanced Information and Knowledge
Processing, page 129–172.
von Luxburg, U. (2007). A tutorial on spectral clustering.
Statistics and computing, 17(4):395–416.

More Related Content

What's hot

最適化超入門
最適化超入門最適化超入門
最適化超入門
Takami Sato
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
Deep Learning JP
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 

What's hot (20)

最適化超入門
最適化超入門最適化超入門
最適化超入門
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
Iclr2016 vaeまとめ
Iclr2016 vaeまとめIclr2016 vaeまとめ
Iclr2016 vaeまとめ
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 

Similar to スペクトラル・クラスタリング

PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
Akira Miyazawa
 
Sparse models
Sparse modelsSparse models
Sparse models
Daisuke Yoneoka
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
Akira Miyazawa
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
貴之 八木
 
回帰
回帰回帰
回帰
Shin Asakawa
 
Introduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemNaoya Ito
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-Tomoshige Nakamura
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
matsumoring
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
 
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
Yuya Masumura
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
Nagi Teramo
 
Topic model
Topic modelTopic model
Topic model
saireya _
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1
Tatsuki SHIMIZU
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Tomonari Masada
 
カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論
Daiki Tanaka
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
Tatsuki SHIMIZU
 
Master Thesis
Master ThesisMaster Thesis
Master Thesis
Toshiyuki Shimono
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
 
ディジタル信号処理 課題解説(その3) 2014年度版
ディジタル信号処理 課題解説(その3) 2014年度版ディジタル信号処理 課題解説(その3) 2014年度版
ディジタル信号処理 課題解説(その3) 2014年度版
dsp_kyoto_2014
 

Similar to スペクトラル・クラスタリング (20)

PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
Sparse models
Sparse modelsSparse models
Sparse models
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
回帰
回帰回帰
回帰
 
Introduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths Problem
 
卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
 
Topic model
Topic modelTopic model
Topic model
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説
 
カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
Master Thesis
Master ThesisMaster Thesis
Master Thesis
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
ディジタル信号処理 課題解説(その3) 2014年度版
ディジタル信号処理 課題解説(その3) 2014年度版ディジタル信号処理 課題解説(その3) 2014年度版
ディジタル信号処理 課題解説(その3) 2014年度版
 

More from Akira Miyazawa

LuaTeX-jaとbeamerで言語学関連のスライドを作る
LuaTeX-jaとbeamerで言語学関連のスライドを作るLuaTeX-jaとbeamerで言語学関連のスライドを作る
LuaTeX-jaとbeamerで言語学関連のスライドを作る
Akira Miyazawa
 
メタファーの自動生成に向けた客観的評価指標の検討
メタファーの自動生成に向けた客観的評価指標の検討メタファーの自動生成に向けた客観的評価指標の検討
メタファーの自動生成に向けた客観的評価指標の検討
Akira Miyazawa
 
An incremental algorithm for transition-based CCG parsing
An incremental algorithm for transition-based CCG parsingAn incremental algorithm for transition-based CCG parsing
An incremental algorithm for transition-based CCG parsing
Akira Miyazawa
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
Akira Miyazawa
 
最急降下法
最急降下法最急降下法
最急降下法
Akira Miyazawa
 
Foundations of Statistical Natural Language Processing (chapter 5)
Foundations of Statistical Natural Language Processing (chapter 5)Foundations of Statistical Natural Language Processing (chapter 5)
Foundations of Statistical Natural Language Processing (chapter 5)
Akira Miyazawa
 

More from Akira Miyazawa (6)

LuaTeX-jaとbeamerで言語学関連のスライドを作る
LuaTeX-jaとbeamerで言語学関連のスライドを作るLuaTeX-jaとbeamerで言語学関連のスライドを作る
LuaTeX-jaとbeamerで言語学関連のスライドを作る
 
メタファーの自動生成に向けた客観的評価指標の検討
メタファーの自動生成に向けた客観的評価指標の検討メタファーの自動生成に向けた客観的評価指標の検討
メタファーの自動生成に向けた客観的評価指標の検討
 
An incremental algorithm for transition-based CCG parsing
An incremental algorithm for transition-based CCG parsingAn incremental algorithm for transition-based CCG parsing
An incremental algorithm for transition-based CCG parsing
 
PRML 第14章
PRML 第14章PRML 第14章
PRML 第14章
 
最急降下法
最急降下法最急降下法
最急降下法
 
Foundations of Statistical Natural Language Processing (chapter 5)
Foundations of Statistical Natural Language Processing (chapter 5)Foundations of Statistical Natural Language Processing (chapter 5)
Foundations of Statistical Natural Language Processing (chapter 5)
 

スペクトラル・クラスタリング