Submit Search
Upload
はじパタ 10章 クラスタリング 前半
•
10 likes
•
4,821 views
Katsushi Yamashita
Follow
第13回はじめてのパターン認識勉強会 10章後半 2014/3/3
Read less
Read more
Technology
Report
Share
Report
Share
1 of 23
Download now
Download to read offline
Recommended
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
第6章「線形識別関数」(後半)
はじパタ11章 後半
はじパタ11章 後半
Atsushi Hayakawa
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
第14回「はじめてのパターン認識」読書会
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
Recommended
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
はじパタ6章前半
はじパタ6章前半
T T
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
第6章「線形識別関数」(後半)
はじパタ11章 後半
はじパタ11章 後半
Atsushi Hayakawa
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
はじめてのパターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
第14回「はじめてのパターン認識」読書会
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
パーセプトロン型学習規則
パーセプトロン型学習規則
Shuhei Sowa
はじめてのパターン認識輪講会資料
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじめてのパターン認識(7章後半) NNのバックプロパゲーション(BP)の学習則 BPの最近の傾向からディープラーニングのさわりまで
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
機械学習でよく使う線形代数の公式です。行列やlog行列式の微分、逆行列の微分、2次形式のtraceでの記述、ブロック行列の逆行列などの公式が書かれています。
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
016/01/31(日) 第十回 数学カフェ 「数学史」発表資料 誤って削除してしまいましたので再アップロードします。日本語のpdfがアップロードできないので、pptファイル仮アップロードします。 訂正情報: p14 分母の p(B_1|A_1)の説明 誤:病気でない人が陽性になる確率 正:病気である人が陽性になる確率
Random Forest による分類
Random Forest による分類
Ken'ichi Matsui
決定木は知っているけど、Random Forestって何?という人のためのRandom Forest入門スライドです。
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
Kaggleのコンペに参加することで色々な実践的ノウハウを学んだのでそのノウハウを共有する p.3~53 コンペ中に自分がやったことp.54~99 ハイランカーがやっていたことp.100~ ハイランカーかやっていたことを自分も実際にやってみる
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会 #2 (2015/12/10)発表資料 「第4章 メトロポリス・ヘイスティングス法」 Pythonデモンストレーションコード@GitHub → https://github.com/matsuken92/Qiita_Contents/blob/master/Bayes_chap_04/Bayes-stat_chapter04.ipynb
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
SB C&S株式会社主催、エヌビディア合同会社ほか共催のセミナー「AI・ディープラーニング研究者が話を聞きたい研究者の話と開発基盤の最新動向」における基調講演です。
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
Chapter11.2
Chapter11.2
Takuya Minagawa
第14回PRML読書会発表資料
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
はじめてのパターン認識8章のサポートベクトルマシンについて整理。ラグランジュ関数がどうやって出てくるのかや双対の直感的理解などを自分用にまとめた。
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
機械学習プロフェッショナルシリーズの「深層学習」第6章 畳込みニューラルネットの輪読会スライドです。
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML8章
PRML8章
弘毅 露崎
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
尼崎Pythonの会#3での発表資料です。
CROSS 2015 全文検索群雄割拠
CROSS 2015 全文検索群雄割拠
Katsushi Yamashita
2015.1.29 CROSS 2015 @大さん橋ホール
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
Katsushi Yamashita
2014/10/21 @dwango
More Related Content
What's hot
パーセプトロン型学習規則
パーセプトロン型学習規則
Shuhei Sowa
はじめてのパターン認識輪講会資料
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
はじぱた7章F5up
はじぱた7章F5up
Tyee Z
はじめてのパターン認識(7章後半) NNのバックプロパゲーション(BP)の学習則 BPの最近の傾向からディープラーニングのさわりまで
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
機械学習でよく使う線形代数の公式です。行列やlog行列式の微分、逆行列の微分、2次形式のtraceでの記述、ブロック行列の逆行列などの公式が書かれています。
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Ken'ichi Matsui
016/01/31(日) 第十回 数学カフェ 「数学史」発表資料 誤って削除してしまいましたので再アップロードします。日本語のpdfがアップロードできないので、pptファイル仮アップロードします。 訂正情報: p14 分母の p(B_1|A_1)の説明 誤:病気でない人が陽性になる確率 正:病気である人が陽性になる確率
Random Forest による分類
Random Forest による分類
Ken'ichi Matsui
決定木は知っているけど、Random Forestって何?という人のためのRandom Forest入門スライドです。
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio
Kaggleのコンペに参加することで色々な実践的ノウハウを学んだのでそのノウハウを共有する p.3~53 コンペ中に自分がやったことp.54~99 ハイランカーがやっていたことp.100~ ハイランカーかやっていたことを自分も実際にやってみる
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
Ken'ichi Matsui
基礎からのベイズ統計学 輪読会 #2 (2015/12/10)発表資料 「第4章 メトロポリス・ヘイスティングス法」 Pythonデモンストレーションコード@GitHub → https://github.com/matsuken92/Qiita_Contents/blob/master/Bayes_chap_04/Bayes-stat_chapter04.ipynb
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
SB C&S株式会社主催、エヌビディア合同会社ほか共催のセミナー「AI・ディープラーニング研究者が話を聞きたい研究者の話と開発基盤の最新動向」における基調講演です。
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
Chapter11.2
Chapter11.2
Takuya Minagawa
第14回PRML読書会発表資料
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
はじめてのパターン認識8章のサポートベクトルマシンについて整理。ラグランジュ関数がどうやって出てくるのかや双対の直感的理解などを自分用にまとめた。
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
機械学習プロフェッショナルシリーズの「深層学習」第6章 畳込みニューラルネットの輪読会スライドです。
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
Prml 2.3
Prml 2.3
Yuuki Saitoh
PRML8章
PRML8章
弘毅 露崎
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
尼崎Pythonの会#3での発表資料です。
What's hot
(20)
パーセプトロン型学習規則
パーセプトロン型学習規則
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
はじぱた7章F5up
はじぱた7章F5up
最適輸送の解き方
最適輸送の解き方
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
Random Forest による分類
Random Forest による分類
実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
機械学習を民主化する取り組み
機械学習を民主化する取り組み
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Chapter11.2
Chapter11.2
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Prml 2.3
Prml 2.3
PRML8章
PRML8章
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
More from Katsushi Yamashita
CROSS 2015 全文検索群雄割拠
CROSS 2015 全文検索群雄割拠
Katsushi Yamashita
2015.1.29 CROSS 2015 @大さん橋ホール
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
Katsushi Yamashita
2014/10/21 @dwango
#みどりぼん 11章「空間構造のある階層ベイズモデル」後半
#みどりぼん 11章「空間構造のある階層ベイズモデル」後半
Katsushi Yamashita
データ解析のための統計モデリング入門読書会 最終回 11章「空間構造のある階層ベイズモデル」後半 2014/10/21
第1回「データ解析のための統計モデリング入門」読書会 オープニング
第1回「データ解析のための統計モデリング入門」読書会 オープニング
Katsushi Yamashita
2014/5/13 @IIJ
elasticsearch-hadoopをつかってごにょごにょしてみる
elasticsearch-hadoopをつかってごにょごにょしてみる
Katsushi Yamashita
Spot Instance + Spark + MLlibで実現する簡単低コスト機械学習
Spot Instance + Spark + MLlibで実現する簡単低コスト機械学習
Katsushi Yamashita
Spot Instance + Spark + MLlibで実現する簡単低コスト高速機械学習 AWS Casual Talks#2 LT 2014/4/18
More from Katsushi Yamashita
(6)
CROSS 2015 全文検索群雄割拠
CROSS 2015 全文検索群雄割拠
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
「データ解析のための統計モデリング入門」読書会 最終回 クロージング
#みどりぼん 11章「空間構造のある階層ベイズモデル」後半
#みどりぼん 11章「空間構造のある階層ベイズモデル」後半
第1回「データ解析のための統計モデリング入門」読書会 オープニング
第1回「データ解析のための統計モデリング入門」読書会 オープニング
elasticsearch-hadoopをつかってごにょごにょしてみる
elasticsearch-hadoopをつかってごにょごにょしてみる
Spot Instance + Spark + MLlibで実現する簡単低コスト機械学習
Spot Instance + Spark + MLlibで実現する簡単低コスト機械学習
Recently uploaded
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
Xinhong Ma, Yiming Wang, Hao Liu, Tianyu Guo, Yunhe Wang, "When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Segmentation" NeurIPS2023 https://proceedings.neurips.cc/paper_files/paper/2023/hash/157c30da6a988e1cbef2095f7b9521db-Abstract-Conference.html
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
0207sukipio
JSAI2024の発表スライドです.
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
t m
オープンエンドな進化から着想を得て、個々の大規模言語モデル(LLM)が、グループとして学習を進めながら、ノームエージェントとして機能するという概念を探求しています。これは、単一のモデルでは難しい複雑な問題を解決することを目的としています。具体的な方法として、遺伝的アルゴリズムと知識蒸留を組み合わせた学習プロセスを提案しています。知識蒸留によって学習を進め、同時に遺伝的アルゴリズムでハイパーパラメータを最適化することで、より効率的な学習を目指します。ドメインタスクとして、指示からPythonコードを生成するコード生成タスクを選択しました。実験では、学習に3つの学習モデルと1つの教師モデルを使用しました。その結果、HumanEvalのpass@1で精度が1.2%向上し、学習が進むにつれて学習率が最適化された兆候が見られました。しかし、大幅な精度向上を達成し、さまざまなハイパーパラメータを最適化するには、まだ課題が残っています。
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
harmonylab
Generating Automatic Feedback on UI Mockups with Large Language Modelsを和訳紹介したものです
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
chiefujita1
RIZAPテクノロジーズ株式会社の会社説明資料です。
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
浜松で開催されたJSAI2024(第38回)での発表.
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
Matsushita Laboratory
我々はこれまで,新たなモノを産出する過程において「便利にすること」によって副次的に生じる課題を「便利の副作用」と定義し,その低減を目的としてアイディアの発想支援手法を提案してきた. これまでの研究では,便利前後の行為の増減に着目することにより便利の副作用への気づきの誘発が示唆されたものの,行為の増減の提示による便利の副作用への気づきへの影響は十分に検討できていなかった. そのため,本稿では行為の提示により便利の副作用に気づき,それを防いだアイディアの発想の支援が可能かの検証を目的として実験を行い,その有効性について検証する. 実験では,行為の増減の提示の有無によりアイディア発想にどのような影響を与えるか検証を行う.
Recently uploaded
(8)
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
はじパタ 10章 クラスタリング 前半
1.
+ はじパタ 10章 クラスタリング 前半 (10.1
~ 10.3) 2014/3/4 yamakatu
2.
+ omae dare yo
n やまかつ(@yamakatu) n フルスタックイクメンエンジニア n 主に検索方面 n gihyo.jp Mahoutで体感する機械学習の実践 n n 合い言葉は「読まずにはてブだけ」 一部の心ない人たちからソーシャルチンピラって呼ばれてる n インターネット怖い
3.
+ 最初に知っておくべきこと 1/2
4.
+ 最初に知っておくべきこと 2/2
5.
+ 10章 クラスタリング n 教師なし学習の一つ n 入力データ間の類似度や非類似度から、データをグループ分け n 手法(やまかつ、ポッター小野氏) n n n 非階層的クラスタリング n
K-means法 階層的クラスタリング(融合法) n 単連結法 n 完全連結法 n 群平均法 n ウォード法 n 重心法 n メディアン法 混合分布(混合分布モデル n EMアルゴリズム
6.
+ 10.1 類似度と非類似度
7.
+ 10.1.1 距離の公理 n データをグループ分け n n n 指標:類似度や非類似度 尺度:距離 距離の公理 n 非負性:d(x,y)
>= 0 反射律:d(x,y) = 0 の時、x = yが成り立つ n 対称性:d(x,y) = d(y,x) n 三角不等式:d(x,z) <= d(x,y) + d(y,z) n
8.
+ 10.1.2 ミンコフスキー距離 n で、実際の距離の計算方法は? n n パラメータa,bの値次第で以下の距離に派生する n n n n n ミンコフスキー距離 a=1,
b=1 : 市街地距離(マンハッタン距離) a=2, b=2 : ユークリッド距離 a=2, b=1 :ユークリッド距離の2乗(ユークリッド平方距離) a=b=∞ : チェビシェフ距離(各次元の差の内、最大の差が距離となる) 一言で言うと n n aの増加:個々の特徴間の差の重みが大きくなる bの増加:差分累乗和に対する重みが小さくなる
9.
+ その他の距離 n キャンベラ尺度(キャンベラ距離) n n n 方向余弦(方向余弦距離、コサイン類似度) n n マンハッタン距離の亜種っぽい感じ 各次元を正規化できる ベクトル間の角度を利用 LTの資料がまとまってるぽい
10.
+ 新鋭 n アルベルト距離 n n ?????????? いつかきっとアルベルトな方が説明してくれる、、、?
11.
+ 10.2 非階層型クラスタリ ング(K-平均法)
12.
+ 10.2 非階層型クラスタリング (K-平均法) 1/2
n 非階層型クラスタリング、と言うよりK-Meansの話 n 目的 n n n d次元のN個のデータ これをあらかじめ定めたK個のクラスタに分類する 定義 n 各クラスタの代表ベクトルの集合 k番目の代表ベクトルが支配するクラスタ 帰属変数 n K-Meansの評価関数 n 最適化 n n
13.
+ 10.2 非階層型クラスタリング (K-平均法) 2/2
n アルゴリズム(逐次最適化) n 以下、TJO氏のサイト wikipedia( http://en.wikipedia.org/wiki/K-means_clustering )から 1. n 3. 4. 収束するまで3〜4を繰り返す ちなみにKmeansの初期化ってやりかた2つあるよね n 本:データをクラスタにランダムに割り当てる n wikipedia:ランダムに重心を決める ちなみにK個のKはCanopyクラスタリングで求める方法があるぜよ n n 2.
14.
+ 10.3 階層型クラスタリン グ(融合法)
15.
+ 10.3 階層型クラスタリング(融合法) n 類似度の高い順に融合していって、最終的にN個のデータを一 つのクラスタに統合 n デンドログラムで表現できる
16.
+ クラスタ間の類似度の定義 n 単連結法 n 完全連結法 n 群平均法 n ウォード法 n 重心法 n メディアン法
17.
+ 10.3.1 単連結法 n 二つのクラスタA,B間でもっとも類似度の高いデータ間の距離 を、クラスタ間の距離にする
18.
+ 単連結法の性質 n クラスタに一つデータが追加されると、他のクラスタとの距離は 小さくなるか、または変化しない n 最も距離が近いデータを採用してるから、遠くなることはない n クラスタAとBが融合してクラスタCができた場合、他のクラスタ Xとの距離 n 大きなクラスタができる傾向がある n n ??? あるクラスタから同じ距離に二つのクラスタがある場合、どちら を選んでも結果は同じ n ???
19.
+ 10.3.2 超距離 n 単連結法と完全連結法との間にいきなり出てきた、、、だと!? n 「二つのデータxiとxjが融合する直前のクラスタ間の距離」 n 例題10.1にもどる n n n n BとEの超距離を考える クラスタBCとDEがあるとする このクラスタ間の距離は、ユークリッド距離で単連結法だとd(C,
E)で2√2になる そういう訳で n n 「融合する直前」というより単に「融合前」 でxiとxjが属するクラスタが融合する前のクラスタ間の距離を表現する
20.
+ 10.3.3 完全連結法 n 単連結法の逆 n クラスタ間でもっとも類似度の低いデータ間の距離をクラスタ間 の距離に n 性質も逆 n 略
21.
+ 10.3.4 群平均法 n 二つのクラスタ間のすべてのデータ間の距離の平均 n 式 n NA,
NB:クラスタA, Bのデータ件数
22.
+ 10.3.5 ウォード法 n クラスタを融合したときのクラスタ内変動の増加分で距離を定義 n この距離が小さなクラスタから融合する n データ間の距離計算にはユークリッド距離(って書いてあるけど、他 じゃ駄目なの?) n 式 n 階層法の中で最も精度が高い
23.
Have a nice clustering!!
Download now