スペクトラル・クラスタリング

1/25
スペクトラル・クラスタリング
宮澤 彬
総合研究大学院大学 博士前期 1 年
miyazawa-a@nii.ac.jp
September 15, 2015
2/25
動機
各データを点とみなし,いくつかを辺で結ぶとグラフ理論でいうところ
のグラフができる.さらに辺の両端の点の類似度に応じて,重みを与え
てやるとクラスタリングの問題は重みの小さい,つまり結びつきの弱い
部分でグラフを切断する問題に帰着させることができる.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
2/25
動機
各データを点とみなし,いくつかを辺で結ぶとグラフ理論でいうところ
のグラフができる.さらに辺の両端の点の類似度に応じて,重みを与え
てやるとクラスタリングの問題は重みの小さい,つまり結びつきの弱い
部分でグラフを切断する問題に帰着させることができる.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
3/25
動機
グラフの連結構造を活用すればクラスタリングの精度が向上する.以下
の図は,k 平均法ではうまくいかないが,スペクトラル・クラスタリン
グでは期待通りのクラスタが得られる例である.この図は Murphy
(2012) から引用した.
−6 −4 −2 0 2 4 6
−5
−4
−3
−2
−1
0
1
2
3
4
5
k−means clustering
x
y
−6 −4 −2 0 2 4 6
−5
−4
−3
−2
−1
0
1
2
3
4
5
spectral clustering
x
y
切断の問題は,グラフ理論の分野で既に多くの研究結果があり,それら
を使うことができるという利点もある.
4/25
グラフとは
グラフは,頂点と呼ばれる対象からなる有限非空集合 V と,辺と呼ば
れる対象からなる集合 E の組 (V, E) である.辺とは,V の異なる 2 つ
の元の非順序対である.辺 {vi, vj} を eij のように書く.
例えば以下のグラフを図示すると下の図のようになる.
G = (V, E) , V = {v1, v2, v3, v4, v5} , E = {e13, e14, e24, e25, e35}
v1
v2
v3 v4
v5
5/25
行列によるグラフの表現
A = (aij) = 1E (eij) とすれば,グラフの辺の構造を行列で表現するこ
とができる.この A を隣接行列 (adjacency matrix) と呼ぶ.
v1
v2
v3 v4
A =




0 1 0 0
1 0 1 1
0 1 0 0
0 1 0 0




6/25
行列によるグラフの表現
データ x1, . . . , xn に頂点 v1, . . . , vn を対応させる.2 つのデータ xi, xj
の類似度 sij によっての辺 eij に重み wij ≥ 0 を付与する.このとき n
次実対称行列 W = (wij) を重み付き隣接行列 (weighted adjacency
matrix) と呼ぶ.
v1
v2
v3 v4
0.5
1.2 0.7
W =




0 0.5 0 0
0.5 0 1.2 0.7
0 1.2 0 0
0 0.7 0 0




7/25
行列によるグラフの表現
グラフの分割を考えるにあたり,重み付き隣接行列の他に,次数行列と
いう行列も必要になるのでここで紹介しておく.
任意の頂点 vi ∈ {v1, . . . , vn} について,その次数 (degree) を
di =
n
j=1
wij
と定める.次数を対角成分に持つ n 次正方行列 D = (diδij) を次数行列
(degree matrix) と呼ぶ.ただし δij はクロネッカーのデルタである.
8/25
重み付き隣接行列と次数行列
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
D =






1.1 0 0 0 0
0 1.6 0 0 0
0 0 2.1 0 0
0 0 0 2 0
0 0 0 0 1.8






, W =






0 0.8 0.1 0.1 0.1
0.8 0 0.4 0.2 0.2
0.1 0.4 0 0.9 0.7
0.1 0.2 0.9 0 0.8
0.1 0.2 0.7 0.8 0






9/25
Cut とは
どこで切断するかを決めるため,以下で定められる量を考えよう.
cut A, A =
(i,j) ; vi∈A, vj ∈A
wij (1)
ここで A = V A である.(1) はクラスター A と A を結ぶ重みの総和で
あり,これが小さくなるように切断するのが望ましいと考えられる.
10/25
Cut の例
A1 := {v1, v2} とする.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A1, A1 = w13 + w14 + w15 + w23 + w24 + w25
= 0.1 + 0.1 + 0.1 + 0.4 + 0.2 + 0.2 = 1.1
11/25
Cut の例
A2 := {v1, v2, v3} とする.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A2, A2 = w14 + w15 + w24 + w25 + w34 + w35
= 0.1 + 0.1 + 0.2 + 0.2 + 0.9 + 0.7 = 2.2 > cut A1, A1
12/25
Cut の例
この基準には,1 つの頂点と残りの頂点全部,という分割になりやすい
傾向がある.以下は A3 := {v1} とした例である.
v1 v2 v3
v4
v5
0.8
0.1
0.1
0.1
0.4
0.2
0.2
0.9
0.7
0.8
cut A3, A3 = w12 + w13 + w14 + w15
= 0.8 + 0.1 + 0.1 + 0.1 = 1.1 = cut A1, A1
13/25
NCut
この問題を解決するため新しく normalized cut という基準を導入す
る.これは次の値
NCut A, A :=
cut A, A
vol A
+
cut A, A
vol A
が小さいほうが好ましいとする方法である.ただし
vol A =
{i ; vi∈A}
di =
{i ; vi∈A} {j ; vj ∈V }
wij
である.上で見た例について,これを計算すると
NCut A1, A1 =
1.1
1.1 + 1.6
+
1.1
2.1 + 2 + 1.8
=
946
1593
< 1,
NCut A3, A3 =
1.1
1.1
+
1.1
1.6 + 2.1 + 2 + 1.8
= 1 +
11
75
> 1
となり,より均衡がとれている A1 が好ましいとされる.
14/25
NCut
一般に A1, . . . , Ak について
NCut (A1, . . . , Ak) =
k
i=1
cut Ai, Ai
vol Ai
と定める.
今までの話から,グラフの切断の問題は次の最適化問題に帰着させら
れる.
minimize
A1,...,Ak
NCut (A1, . . . , Ak) (2)
しかし,これは NP 困難であることが知られている.
15/25
グラフ・ラプラシアン
そこでグラフ・ラプラシアンというものを導入し,(2) を少し書き換え
ることを試みる.グラフ・ラプラシアンは
L := D − W
で与えられる.
定義からすぐに以下の性質が分かる.
L は n 次実対称行列である.
L の固有値 0 と,それに対応する固有ベクトル 1 = (1 · · · 1) ∈ Rn
をもつ.
16/25
グラフ・ラプラシアンの性質
補題 任意のベクトル f ∈ Rn
について以下が成り立つ.
f Lf =
1
2
n
i,j=1
wij (fi − fj)
2
.
証明
f Lf = f Df − f Wf
=
n
i=1
dif2
i −
n
i,j=1
fifjwij
=


n
i=1
dif2
i −
n
i,j=1
fifjwij +
2
j=1
djf2
j


=
1
2
n
i,j=1
wij (fi − fj)
2
17/25
グラフ・ラプラシアンの性質
任意の Aκ ⊂ V に対して,hκ := (h1,κ · · · hn,κ) ∈ Rn
を以下で定める.
hi,κ :=
1Aκ
(vi)
√
vol Aκ
すると以下が成り立つ.
hκLhκ =
1
2
n
i,j=1
wij (hi,κ − hj,κ)
2
=
1
2
(i,j) ; vi∈Aκ, vj ∈Aκ
wij
1
√
vol Aκ
2
+
1
2
(i,j) ; vi∈Aκ, vj ∈Aκ
wij
1
vol Aκ
2
=
cut Aκ, Aκ
vol Aκ
.
18/25
問題の再定式化
さらに以下が成り立つ.
hιDhκ =
n
i=1
dihi,ιhi,κ
=
n
i=1
di
1Aι
(vi) 1Aκ
(vi)
√
vol Aι
√
vol Aκ
=
1
√
vol Aι
√
vol Aκ {i ; vi∈Aι∩Aκ}
di
= δικ.
よって (2) は以下のように書き換えられる.
minimize
A1,...,Ak⊂V
tr (H LH)
subject to H DH = I
(3)
19/25
問題の再定式化
しかし (3) は依然として NP 困難であるから,H が Rn×k
を動くものと
する.すなわち
minimize
H∈Rn×k
tr (H LH)
subject to H DH = I
(4)
を解くことにする.
解きやすくするため,以下では T := D1/2
H と置いた
minimize
T ∈Rn×k
tr T D−1/2
LD−1/2
T
subject to T T = I
(5)
を考える.
20/25
2 次形式に関する不等式
定理 行列 A ∈ Cn×n
をエルミート行列とし,その固有値を λ1, . . . , λn,
対応する固有ベクトルを u1, . . . , un, ui, uj = δij とする 1
.このとき
固有値について λ1 ≤ λ2 ≤ · · · ≤ λn が成り立っているならば,任意の
q ∈ {1, . . . , n} と任意の正規直交系 {x1, . . . , xq ; xi ∈ Cn
, xi, xj = δij}
に対して
q
i=1
λi ≤
q
i=1
xiAxi (6)
が成り立つ.さらに xi = ui (i = 1, . . . , q) ならば,(6) において等号が
成立する.
証明 例えば Simovici and Djeraba (2008) を参照せよ.
1 エルミート行列の固有ベクトルはそれぞれ互いに直交する.
λi ui, uj = λiui, uj = Aui, uj = ui, A∗
uj = ui, λjuj = λj ui, uj
エルミート行列の固有値は実数なので λi = λj ならば,λi = λj となり, ui, uj = 0.
21/25
最適化問題の解
前のページの定理により (5) の解が求めることができる.つまり,行列
D−1/2
LD−1/2
の固有値を小さいほうから λ1, . . . , λn と並べ,それぞれ
に対応する正規化された固有ベクトルを u1, . . . , un とするとき,
T = (u1 · · · uk) とすれば tr T D−1/2
LD1/2
T が最小になるのである.
ここで zi := D−1/2
ui と置くと
D−1/2
LD−1/2
ui = λiui
D−1
LD−1/2
u = λiD−1/2
ui
D−1
Lzi = λizi
Lzi = λiDzi
となり,H = D−1/2
u1 · · · D−1/2
uk = (z1 · · · zk) は一般化された固
有値問題 Lz = λDz の解を並べたものであることが分かる.
22/25
類似度行列
アルゴリズムを紹介する前に,類似度行列を構成する主要な 3 つの手法
を示す.
1. ε-neighbor
半径 ε 以内にある点のみに重みを与える.
2. k-nearest neighbor
類似度が高い k 個の点のみに重みを与える.類似度行列が対称にな
るように注意する.例えば vi と vj がお互いに k-nearest
neighbor に含まれる場合にのみ重さを与えるようにすればよい.
3. 完全連結
任意の 2 点間の類似度を計算する方法である.例えば
sij = exp −
xi − xj
2
2σ2
として計算しておく.
23/25
アルゴリズム
Normalized spectral clustering according to Shi and Malik (2000)
1: Construct a similarity graph.
2: Compute the graph Laplacian L.
3: Compute the first k generalized eigenvectors u1, . . . , uk of the
generalized eigenproblem Lu = λDu.
4: Let H := (hiκ) = (u1 · · · uk) ∈ Rn×k
.
5: Let yi := (hi,1 · · · hi,k) ∈ Rk
(i = 1, . . . , n).
6: Cluster the points y1, . . . , yn with the k-means algorithm into clusters
C1, . . . , Ck.
時間計算量について考察する.類似度行列の作成は,完全連結で計算し
た場合 O dn2
となる.固有ベクトルの計算は,手法によって違いはあ
るものの大体 O n3
程度である.k 平均法によるクラスタリングは繰
り返しの回数を I として O (Ikdn) である.
データが増えると固有ベクトルの計算が大きな負担になってしまう.
24/25
追記
スペクトラル・クラスタリングにはいくつかの似た変種がある.例えば
normalized cut のかわりに,次の RatioCut を使う方法がある.
RatioCut (A1, . . . , An) :=
k
i=1
cut Ai, Ai
|Ai|
ただし |Ai| は Ai に含まれる頂点の数である.
このスライドは主に von Luxburg (2007) を参考に作った.類似の他
の手法や技術的な詳細については,この資料を参考にするとよい.
25/25
参考文献
Murphy, K. P. (2012). Machine learning: a probabilistic
perspective.
Simovici, D. A. and Djeraba, C. (2008). Mathematical tools for
data mining. Advanced Information and Knowledge
Processing, page 129–172.
von Luxburg, U. (2007). A tutorial on spectral clustering.
Statistics and computing, 17(4):395–416.
1 of 26

Recommended

スペクトラルグラフ理論入門 by
スペクトラルグラフ理論入門スペクトラルグラフ理論入門
スペクトラルグラフ理論入門irrrrr
38.4K views44 slides
最適輸送入門 by
最適輸送入門最適輸送入門
最適輸送入門joisino
11.6K views88 slides
最適輸送の解き方 by
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
21.7K views270 slides
グラフィカル Lasso を用いた異常検知 by
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
15.2K views35 slides
最適輸送の計算アルゴリズムの研究動向 by
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
8.1K views29 slides
Bayesian Neural Networks : Survey by
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
5K views68 slides

More Related Content

What's hot

深層学習の不確実性 - Uncertainty in Deep Neural Networks - by
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
11.7K views137 slides
【メタサーベイ】数式ドリブン教師あり学習 by
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
5.9K views33 slides
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing by
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and EditingDeep Learning JP
3K views21 slides
不均衡データのクラス分類 by
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
59K views34 slides
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) by
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
25.6K views173 slides
Transformerを多層にする際の勾配消失問題と解決法について by
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
4.8K views16 slides

What's hot(20)

深層学習の不確実性 - Uncertainty in Deep Neural Networks - by tmtm otm
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm11.7K views
【メタサーベイ】数式ドリブン教師あり学習 by cvpaper. challenge
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge5.9K views
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing by Deep Learning JP
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP3K views
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial) by RyuichiKanoh
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh25.6K views
Transformerを多層にする際の勾配消失問題と解決法について by Sho Takase
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase4.8K views
機械学習のための数学のおさらい by Hideo Terada
機械学習のための数学のおさらい機械学習のための数学のおさらい
機械学習のための数学のおさらい
Hideo Terada19.7K views
[DL輪読会]相互情報量最大化による表現学習 by Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP7.6K views
近年のHierarchical Vision Transformer by Yusuke Uchida
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida13.9K views
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. by Satoshi Kato
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato8.1K views
猫でも分かるVariational AutoEncoder by Sho Tatsuno
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno131.6K views
Newman アルゴリズムによるソーシャルグラフのクラスタリング by Atsushi KOMIYA
Newman アルゴリズムによるソーシャルグラフのクラスタリングNewman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Atsushi KOMIYA86.8K views
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会) by narumikanno0918
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918134.3K views
Sliced Wasserstein距離と生成モデル by ohken
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken 4.8K views
[Ridge-i 論文よみかい] Wasserstein auto encoder by Masanari Kimura
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
Masanari Kimura1.4K views
機械学習モデルのハイパパラメータ最適化 by gree_tech
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech27.9K views
機械学習による統計的実験計画(ベイズ最適化を中心に) by Kota Matsui
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui13.1K views

Similar to スペクトラル・クラスタリング

PRML 第4章 by
PRML 第4章PRML 第4章
PRML 第4章Akira Miyazawa
13.7K views94 slides
Sparse models by
Sparse modelsSparse models
Sparse modelsDaisuke Yoneoka
1.4K views21 slides
PRML 10.4 - 10.6 by
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6Akira Miyazawa
1.5K views74 slides
線形識別モデル by
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
7.3K views75 slides
回帰 by
回帰回帰
回帰Shin Asakawa
603 views21 slides
Introduction to Algorithms#24 Shortest-Paths Problem by
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths ProblemNaoya Ito
2.6K views76 slides

Similar to スペクトラル・クラスタリング(20)

線形識別モデル by 貴之 八木
線形識別モデル線形識別モデル
線形識別モデル
貴之 八木7.3K views
Introduction to Algorithms#24 Shortest-Paths Problem by Naoya Ito
Introduction to Algorithms#24 Shortest-Paths ProblemIntroduction to Algorithms#24 Shortest-Paths Problem
Introduction to Algorithms#24 Shortest-Paths Problem
Naoya Ito2.6K views
卒論プレゼンテーション -DRAFT- by Tomoshige Nakamura
卒論プレゼンテーション -DRAFT-卒論プレゼンテーション -DRAFT-
卒論プレゼンテーション -DRAFT-
Tomoshige Nakamura3.9K views
20170327_レムニスケートにまつわる色々な計算 by matsumoring
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
matsumoring2.2K views
深層生成モデルを用いたマルチモーダル学習 by Masahiro Suzuki
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki9.5K views
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu... by Yuya Masumura
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
半正定値計画問題と最大カット Sedemifinite Programming and Approximation Algorithm for Maxcu...
Yuya Masumura631 views
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1 by hirokazutanaka
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka280 views
Rによるデータサイエンス:12章「時系列」 by Nagi Teramo
Rによるデータサイエンス:12章「時系列」Rによるデータサイエンス:12章「時系列」
Rによるデータサイエンス:12章「時系列」
Nagi Teramo26.2K views
Topic model by saireya _
Topic modelTopic model
Topic model
saireya _2.6K views
Nonparametric Factor Analysis with Beta Process Priors の式解説 by Tomonari Masada
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説
Tomonari Masada382 views
カーネル法:正定値カーネルの理論 by Daiki Tanaka
カーネル法:正定値カーネルの理論カーネル法:正定値カーネルの理論
カーネル法:正定値カーネルの理論
Daiki Tanaka477 views
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム by Hiroshi Nakagawa
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa10.2K views
ディジタル信号処理 課題解説(その3) 2014年度版 by dsp_kyoto_2014
ディジタル信号処理 課題解説(その3) 2014年度版ディジタル信号処理 課題解説(その3) 2014年度版
ディジタル信号処理 課題解説(その3) 2014年度版
dsp_kyoto_2014556 views

Recently uploaded

システム概要.pdf by
システム概要.pdfシステム概要.pdf
システム概要.pdfTaira Shimizu
44 views1 slide
onewedge_companyguide1 by
onewedge_companyguide1onewedge_companyguide1
onewedge_companyguide1ONEWEDGE1
89 views22 slides
概要.pdf by
概要.pdf概要.pdf
概要.pdfTaira Shimizu
6 views1 slide
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私 by
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私修治 松浦
213 views36 slides
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdf by
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdfこんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdf
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdfkenshirofujita
10 views12 slides
ウォーターフォール開発で生 産性を測る指標 by
ウォーターフォール開発で生 産性を測る指標ウォーターフォール開発で生 産性を測る指標
ウォーターフォール開発で生 産性を測る指標Kouhei Aoyagi
62 views13 slides

Recently uploaded(6)

onewedge_companyguide1 by ONEWEDGE1
onewedge_companyguide1onewedge_companyguide1
onewedge_companyguide1
ONEWEDGE189 views
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私 by 修治 松浦
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私
JISTA月例会2023年12月 書籍『3カ月で改善!システム障害対応実践ガイド』ご紹介+失敗学と障害対応と私
修治 松浦213 views
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdf by kenshirofujita
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdfこんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdf
こんな私がアクセシビリティ? 〜入り口に立ってモノの見方が広がった話〜.pdf
kenshirofujita10 views
ウォーターフォール開発で生 産性を測る指標 by Kouhei Aoyagi
ウォーターフォール開発で生 産性を測る指標ウォーターフォール開発で生 産性を測る指標
ウォーターフォール開発で生 産性を測る指標
Kouhei Aoyagi62 views

スペクトラル・クラスタリング