Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Tadayuki Onishi
PDF, PPTX
5,200 views
はじパタLT2
Rで学ぶデータサイエンス 5 「パターン認識」 第2章 k-平均法
Technology
◦
Read more
4
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 75
2
/ 75
3
/ 75
4
/ 75
5
/ 75
6
/ 75
7
/ 75
8
/ 75
9
/ 75
10
/ 75
11
/ 75
12
/ 75
13
/ 75
14
/ 75
15
/ 75
16
/ 75
17
/ 75
18
/ 75
19
/ 75
20
/ 75
21
/ 75
22
/ 75
23
/ 75
24
/ 75
25
/ 75
26
/ 75
27
/ 75
28
/ 75
29
/ 75
30
/ 75
31
/ 75
32
/ 75
33
/ 75
34
/ 75
35
/ 75
36
/ 75
37
/ 75
38
/ 75
39
/ 75
40
/ 75
41
/ 75
42
/ 75
43
/ 75
44
/ 75
45
/ 75
46
/ 75
47
/ 75
48
/ 75
49
/ 75
50
/ 75
51
/ 75
52
/ 75
53
/ 75
54
/ 75
55
/ 75
56
/ 75
57
/ 75
58
/ 75
59
/ 75
60
/ 75
61
/ 75
62
/ 75
63
/ 75
64
/ 75
65
/ 75
66
/ 75
67
/ 75
68
/ 75
69
/ 75
70
/ 75
71
/ 75
72
/ 75
73
/ 75
74
/ 75
75
/ 75
More Related Content
PDF
はじパタLT3
by
Tadayuki Onishi
PDF
パターン認識02 k平均法ver2.0
by
sleipnir002
PDF
パターン認識 08 09 k-近傍法 lvq
by
sleipnir002
PPTX
Paper: seq2seq 20190320
by
Yusuke Fujimoto
PPTX
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
by
Deep Learning JP
PDF
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
PDF
入門パターン認識と機械学習15章
by
hiro5585
PDF
はじめてのパターン認識輪読会 10章後半
by
koba cky
はじパタLT3
by
Tadayuki Onishi
パターン認識02 k平均法ver2.0
by
sleipnir002
パターン認識 08 09 k-近傍法 lvq
by
sleipnir002
Paper: seq2seq 20190320
by
Yusuke Fujimoto
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
by
Deep Learning JP
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
by
Motoya Wakiyama
入門パターン認識と機械学習15章
by
hiro5585
はじめてのパターン認識輪読会 10章後半
by
koba cky
What's hot
PDF
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
by
Nguyen Tuan
PPTX
Approximate Scalable Bounded Space Sketch for Large Data NLP
by
Koji Matsuda
PDF
Recurrent Neural Networks
by
Seiya Tokui
PPTX
第七回統計学勉強会@東大駒場
by
Daisuke Yoneoka
PDF
深層生成モデルを用いたマルチモーダル学習
by
Masahiro Suzuki
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PDF
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
PDF
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
by
SaeruYamamuro
PDF
Pythonで体験する深層学習 5章
by
孝好 飯塚
PPTX
DLLab 異常検知ナイト 資料 20180214
by
Kosuke Nakago
PDF
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
by
Narimichi Takamura
PDF
関西CVPRML勉強会 kernel PCA
by
Akisato Kimura
PPTX
単純パーセプトロン
by
T2C_
PDF
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
PDF
Introduction to Chainer (LL Ring Recursive)
by
Kenta Oono
PDF
ディープラーニングフレームワーク とChainerの実装
by
Ryosuke Okuta
PDF
関東CV勉強会 Kernel PCA (2011.2.19)
by
Akisato Kimura
PDF
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
PDF
GPU上でのNLP向け深層学習の実装について
by
Yuya Unno
PDF
PythonによるDeep Learningの実装
by
Shinya Akiba
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
by
Nguyen Tuan
Approximate Scalable Bounded Space Sketch for Large Data NLP
by
Koji Matsuda
Recurrent Neural Networks
by
Seiya Tokui
第七回統計学勉強会@東大駒場
by
Daisuke Yoneoka
深層生成モデルを用いたマルチモーダル学習
by
Masahiro Suzuki
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
NIPS2019 Amazon「think globally, act locally : a deep neural network approach...
by
SaeruYamamuro
Pythonで体験する深層学習 5章
by
孝好 飯塚
DLLab 異常検知ナイト 資料 20180214
by
Kosuke Nakago
【Topotal輪読会】JavaScript で学ぶ関数型プログラミング 1 章
by
Narimichi Takamura
関西CVPRML勉強会 kernel PCA
by
Akisato Kimura
単純パーセプトロン
by
T2C_
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
Introduction to Chainer (LL Ring Recursive)
by
Kenta Oono
ディープラーニングフレームワーク とChainerの実装
by
Ryosuke Okuta
関東CV勉強会 Kernel PCA (2011.2.19)
by
Akisato Kimura
Learning to forget continual prediction with lstm
by
Fujimoto Keisuke
GPU上でのNLP向け深層学習の実装について
by
Yuya Unno
PythonによるDeep Learningの実装
by
Shinya Akiba
Similar to はじパタLT2
PPT
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
by
hnisiji
PDF
第3回集合知プログラミング勉強会 #TokyoCI グループを見つけ出す
by
Atsushi KOMIYA
PDF
パターン認識 04 混合正規分布
by
sleipnir002
PDF
Cluster Analysis at REQUIRE 26, 2016/10/01
by
Shuhei Ichikawa
PDF
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
by
hirokazutanaka
PDF
各言語の k-means 比較
by
y-uti
PDF
ユークリッド距離以外の距離で教師無しクラスタリング
by
Maruyama Tetsutaro
PDF
Casual datascience vol3
by
KazuhiroSato8
PDF
データマイニング勉強会3
by
Yohei Sato
PDF
データ解析技術2019
by
Yusuke Yamamoto
PDF
データ・テキストマイニング
by
Hiroshi Ono
PPTX
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
PDF
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
PPTX
画像認識4
by
Hiroaki Hata
PDF
はじめてのパターン認識 第9章 9.5-9.6
by
Prunus 1350
PPTX
MLaPP輪講 Chapter 1
by
ryuhmd
PDF
Oshasta em
by
Naotaka Yamada
PDF
Fisher Vectorによる画像認識
by
Takao Yamanaka
PDF
PRML 第4章
by
Akira Miyazawa
PDF
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
by
hnisiji
第3回集合知プログラミング勉強会 #TokyoCI グループを見つけ出す
by
Atsushi KOMIYA
パターン認識 04 混合正規分布
by
sleipnir002
Cluster Analysis at REQUIRE 26, 2016/10/01
by
Shuhei Ichikawa
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
by
hirokazutanaka
各言語の k-means 比較
by
y-uti
ユークリッド距離以外の距離で教師無しクラスタリング
by
Maruyama Tetsutaro
Casual datascience vol3
by
KazuhiroSato8
データマイニング勉強会3
by
Yohei Sato
データ解析技術2019
by
Yusuke Yamamoto
データ・テキストマイニング
by
Hiroshi Ono
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
by
Shunsuke Nakamura
PRML2.3.8~2.5 Slides in charge
by
Junpei Matsuda
画像認識4
by
Hiroaki Hata
はじめてのパターン認識 第9章 9.5-9.6
by
Prunus 1350
MLaPP輪講 Chapter 1
by
ryuhmd
Oshasta em
by
Naotaka Yamada
Fisher Vectorによる画像認識
by
Takao Yamanaka
PRML 第4章
by
Akira Miyazawa
Tokyo.R #19 発表資料 「Rで色々やってみました」
by
Masayuki Isobe
More from Tadayuki Onishi
PDF
そろそろSublime Text 2を熱く語ろうと思う
by
Tadayuki Onishi
PDF
はじパタLT Section1
by
Tadayuki Onishi
PDF
アド部6回発表
by
Tadayuki Onishi
PDF
アド部5回発表
by
Tadayuki Onishi
PDF
garchfit
by
Tadayuki Onishi
PDF
Data Mining with R algae bloom case
by
Tadayuki Onishi
PDF
Tokyo r 10_12
by
Tadayuki Onishi
そろそろSublime Text 2を熱く語ろうと思う
by
Tadayuki Onishi
はじパタLT Section1
by
Tadayuki Onishi
アド部6回発表
by
Tadayuki Onishi
アド部5回発表
by
Tadayuki Onishi
garchfit
by
Tadayuki Onishi
Data Mining with R algae bloom case
by
Tadayuki Onishi
Tokyo r 10_12
by
Tadayuki Onishi
はじパタLT2
1.
パターン認識 Rで学ぶデータサイエンス 第2章 2013/07/02 at リクルート(CodeIQ)
2.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 自己紹介
3.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 女の子と仲良くなれそう 自己紹介
4.
@kenchan0130_aki 学生ニート 働いたら負け 自然言語処理 得意になりたい言語:Ruby 女の子と仲良くなれそう 自己紹介 とりあえずsinatraでwebアプリは作れるようになった
7.
パターン認識 第2章 k-平均法 第1章 判別能力の評価 第3章
階層的クラスタリング 第4章 混合正規分布モデル 第5章 判別分析 第6章 ロジスティック回帰 第7章 密度推定 第8章 k-近傍法 第9章 学習ベクトル量子化 第10章 決定木 第11章 サポートベクターマシン 第12章 正規化とパス追跡 アルゴリズム 第13章 ミニマックス確率マシン 第14章 集団学習 第15章 2値判別から多値判別へ
8.
パターン認識 第2章 k-平均法 第1章 判別能力の評価 第3章
階層的クラスタリング 第4章 混合正規分布モデル 第5章 判別分析 第6章 ロジスティック回帰 第7章 密度推定 第8章 k-近傍法 第9章 学習ベクトル量子化 第10章 決定木 第11章 サポートベクターマシン 第12章 正規化とパス追跡 アルゴリズム 第13章 ミニマックス確率マシン 第14章 集団学習 第15章 2値判別から多値判別へ
9.
クラスタリングのお話 by : DGtal
Plus Art & Photo
10.
• データをいくつかの『まとまり』に分け, これをクラ スタと呼びます. クラスタリング
11.
• データをいくつかの『まとまり』に分け, これをクラ スタと呼びます. •
クラスタリングは, データのまとまり具合を捉えて, そこから何かしらの情報を引き出す方法です. クラスタリング
12.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング
13.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング 1) データ間の類似度をどう測るか? →
例えばユークリッド距離
14.
• クラスタリングを実行するときに以下の2つを決める 必要があります. クラスタリング 1) データ間の類似度をどう測るか? →
例えばユークリッド距離 2) 何個のクラスタに分類するか? クラスタリングの結果からクラスタ数を調整して, 様々なパターンを 試行錯誤する必要も出てきます.
15.
k-平均法のお話
16.
• 俗にいう「k-means」のことです. k-平均法
17.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) k-平均法
18.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) • 割りと確からしい結果を返してきてくれます. k-平均法
19.
• 俗にいう「k-means」のことです. • クラスタリング手法の一つとして広く使われてい ます.
(巷では定番らしい) • 割りと確からしい結果を返してきてくれます. • 初期値の取り方で結果が変わります. k-平均法
20.
k-平均法 k-meansのアルゴリズム
21.
k-平均法 k-meansのアルゴリズム
22.
• k-meansは, 評価関数
を最小化することで代表ベクト ルを求めています. k-平均法
23.
• k-meansは, 評価関数
を最小化することで代表ベクト ルを求めています. k-平均法 • データに対応する代表ベクトルの間の距離の2乗和です. • クラスタの代表ベクトルの周りに, そのクラスタに属する データが集まっていれば, の値は小さくなります.
24.
そんなこと言われてもワカンネ (しかも英語で書いてあるし...) by:hapal
25.
k-平均法 試しにk=2でk-meansを行ってみましょう
26.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
27.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
28.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
29.
k-平均法 1 2 3
4 5 0.01.02.03.0 x y 試しにk=2でk-meansを行ってみましょう
30.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
31.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
32.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
33.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
34.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
35.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
36.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
37.
1 2 3
4 5 0.01.02.03.0 x y k-平均法 試しにk=2でk-meansを行ってみましょう
38.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y
39.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y
40.
k-平均法 試しにk=2でk-meansを行ってみましょう 1 2 3
4 5 0.01.02.03.0 x y こんな感じです。
41.
で、codeはー? by : DGtal
Plus Art & Photo
42.
• みんな大好きirisデータ Rでの実装例
43.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例
44.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例 - Sepal.Length : がく片の長さ - Sepal.Width : がく片の幅 - Petal.Length : 花びらの長さ - Petal.Width : 花びらの幅 - Species : 品種(setosa, versicolor, viginica)
45.
• みんな大好きirisデータ • Fisherの研究で使われた,
あやめ150サンプルです. Rでの実装例 - Sepal.Length : がく片の長さ - Sepal.Width : がく片の幅 - Petal.Length : 花びらの長さ - Petal.Width : 花びらの幅 - Species : 品種(setosa, versicolor, viginica)
46.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. Rでの実装例
47.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. • nstartオプションは複数の初期値を試せるが,
増やすと その分計算時間がかかります. Rでの実装例
48.
• statsパッケージ(デフォルトで入ってます)に 「kmeans」関数が用意されています. • nstartオプションは複数の初期値を試せるが,
増やすと その分計算時間がかかります. Rでの実装例
49.
Rでの実装例 Sepal.Length 2.0 3.0 4.0
0.5 1.5 2.5 4.56.07.5 2.03.04.0 Sepal.Width Petal.Length 1357 4.5 6.0 7.5 0.51.52.5 1 3 5 7 Petal.Width k=3におけるk-meansによる, irisデータのクラスタリング
50.
by :Kr. B. で、どうやって クラスタ数きめればいいの?
51.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? 次元削減による視覚化
52.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. 次元削減による視覚化
53.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. • ここでは, 主成分分析を非線形化した 『カーネル主成分分析』を使ってみます. 次元削減による視覚化
54.
• 高次元のデータも視覚化すればクラスタ判断できるのでは? • よく使われるのが,
皆さんご存知「主成分分析」です. • ここでは, 主成分分析を非線形化した 『カーネル主成分分析』を使ってみます. • kernlabパッケージに「kpca」関数が用意されています. 次元削減による視覚化
55.
• ガウスカーネルの の選び方は,
データ間の距離の中 央値を とするとき, 付近の値を用いると 良い結果が得られるそうです. • 「pcv」関数で, 固有ベクトル空間へ射影した結果が得 られます. 次元削減による視覚化
56.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット
57.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります.
58.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
59.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
60.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります.
61.
次元削減による視覚化 X1 -0.8 -0.4 0.0
0.4 -0.20.00.1 -0.8-0.40.00.4 X2 -0.2 0.0 0.1 -2 -1 0 1 2 -2-1012 X3 カーネル主成分分析の第3主成分までのプロット PC1 -1.0 0.0 1.0 -3-113 -1.00.01.0 PC2 -3 -1 1 2 3 4 -0.5 0.0 0.5 -0.50.00.5 PC3 主成分分析の第3主成分までのプロット • 第1, 2主成分より, データが大 きく2つのクラスタに分かれて いることがわかります. • 第2, 3主成分より, 3つくらいの クラスタに分かれそうであるこ とがわかります. カーネル主成分分析の方は 特徴が捉えられています.
62.
で、どうやって クラスタ数きめればいいの? by :chaysbc part2
63.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました.
64.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです.
65.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです. • 今回は, データに分布を仮定しない, ギャップ統計量を使い ます.
66.
クラスタ数の推定 • 主成分分析でも, ある程度のクラスタ数は予測できました. •
データに適当な分布を仮定して, 情報量規準などで推定す るのもありです. • 今回は, データに分布を仮定しない, ギャップ統計量を使い ます. • SLmiscパッケージに「kmeansGap」関数が用意されてい ます.
67.
クラスタ数の推定 • 評価関数 は
について単調に減少するので, を基準とす ると, 以下のようになります. • データ とほぼ同じ範囲の一様乱数から生成 されたデータ集合 とします. • クラスタ数を とするとき, データ と のそれぞれをク ラスタリングして得られる評価関数の値を とします. 最適なクラスタ数 = データ数
68.
クラスタ数の推定 • ギャップ統計量は以下の式で求めることができます. • が最大となるような
を推定値とする方法です.
69.
クラスタ数の推定
70.
クラスタ数の推定 0510152025 k : number
of clusters frequency 2 3 4 5 6 7 8 9
71.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした.
72.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます.
73.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます. • クラスタ数の決定が鍵となります.
74.
まとめ • k-meansは, 事前にクラスタ数を
と決めてクラスタリ ングを行う手法でした. • クラスタ数によってやりたいようにできてしまいます. • クラスタ数の決定が鍵となります. • クラスタに分けたあとのクラスタ毎の意味付け頑張って 下さい^^ (←これが一番大変だと思います. )
75.
Have a nice
clustering!!
Download