Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Akifumi Eguchi
PDF, PPTX
6,623 views
ぞくパタ最終回: 13章「共クラスタリング」
続わかりやすいパターン認識読書会 最終回の資料です。
Data & Analytics
◦
Read more
14
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 40
2
/ 40
3
/ 40
4
/ 40
Most read
5
/ 40
Most read
6
/ 40
7
/ 40
8
/ 40
9
/ 40
10
/ 40
11
/ 40
12
/ 40
13
/ 40
14
/ 40
15
/ 40
16
/ 40
17
/ 40
18
/ 40
19
/ 40
20
/ 40
21
/ 40
22
/ 40
23
/ 40
24
/ 40
25
/ 40
26
/ 40
27
/ 40
28
/ 40
29
/ 40
30
/ 40
31
/ 40
32
/ 40
33
/ 40
34
/ 40
35
/ 40
36
/ 40
37
/ 40
38
/ 40
39
/ 40
40
/ 40
More Related Content
PDF
無限関係モデル (続・わかりやすいパターン認識 13章)
by
Shuyo Nakatani
PDF
ユーザーサイド情報検索システム
by
joisino
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
by
Deep Learning JP
PDF
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
PPTX
差分プライバシーとは何か? (定義 & 解釈編)
by
Kentaro Minami
PDF
SSII2020TS: 機械学習モデルの判断根拠の説明 〜 Explainable AI 研究の近年の展開 〜
by
SSII
PDF
計量経済学と 機械学習の交差点入り口 (公開用)
by
Shota Yasui
PPTX
トピックモデルの基礎と応用
by
Tomonari Masada
無限関係モデル (続・わかりやすいパターン認識 13章)
by
Shuyo Nakatani
ユーザーサイド情報検索システム
by
joisino
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
by
Deep Learning JP
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
差分プライバシーとは何か? (定義 & 解釈編)
by
Kentaro Minami
SSII2020TS: 機械学習モデルの判断根拠の説明 〜 Explainable AI 研究の近年の展開 〜
by
SSII
計量経済学と 機械学習の交差点入り口 (公開用)
by
Shota Yasui
トピックモデルの基礎と応用
by
Tomonari Masada
What's hot
PDF
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
by
joisino
PDF
『バックドア基準の入門』@統数研研究集会
by
takehikoihayashi
PDF
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
by
Deep Learning JP
PDF
推薦アルゴリズムの今までとこれから
by
cyberagent
PDF
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
PDF
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
PDF
協調フィルタリング入門
by
hoxo_m
PDF
Shiny-Serverあれこれ
by
Kazuya Wada
PDF
Stan超初心者入門
by
Hiroshi Shimizu
PDF
決定木学習
by
Mitsuo Shimohata
PPTX
How to use in R model-agnostic data explanation with DALEX & iml
by
Satoshi Kato
PDF
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
PDF
ブースティング入門
by
Retrieva inc.
PPTX
心理学者のためのGlmm・階層ベイズ
by
Hiroshi Shimizu
PDF
合成変量とアンサンブル:回帰森と加法モデルの要点
by
Ichigaku Takigawa
PDF
21世紀の手法対決 (MIC vs HSIC)
by
Toru Imai
PDF
スペクトラルグラフ理論入門
by
irrrrr
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
by
joisino
『バックドア基準の入門』@統数研研究集会
by
takehikoihayashi
[DL輪読会]近年のオフライン強化学習のまとめ —Offline Reinforcement Learning: Tutorial, Review, an...
by
Deep Learning JP
推薦アルゴリズムの今までとこれから
by
cyberagent
DSIRNLP#1 ランキング学習ことはじめ
by
sleepy_yoshi
Bayes Independence Test - HSIC と性能を比較する-
by
Joe Suzuki
協調フィルタリング入門
by
hoxo_m
Shiny-Serverあれこれ
by
Kazuya Wada
Stan超初心者入門
by
Hiroshi Shimizu
決定木学習
by
Mitsuo Shimohata
How to use in R model-agnostic data explanation with DALEX & iml
by
Satoshi Kato
[DL輪読会]ICLR2020の分布外検知速報
by
Deep Learning JP
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
by
MLSE
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
ブースティング入門
by
Retrieva inc.
心理学者のためのGlmm・階層ベイズ
by
Hiroshi Shimizu
合成変量とアンサンブル:回帰森と加法モデルの要点
by
Ichigaku Takigawa
21世紀の手法対決 (MIC vs HSIC)
by
Toru Imai
スペクトラルグラフ理論入門
by
irrrrr
Similar to ぞくパタ最終回: 13章「共クラスタリング」
PDF
PRML Chapter 14
by
Masahito Ohue
PDF
パターン認識 04 混合正規分布
by
sleipnir002
PDF
パターン認識と機械学習 13章 系列データ
by
emonosuke
PPTX
PRML第6章「カーネル法」
by
Keisuke Sugawara
PDF
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
PDF
PRML輪読#14
by
matsuolab
PDF
各言語の k-means 比較
by
y-uti
PDF
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
by
aich_08_
PDF
PRML 4.1 輪講スライド
by
KawaAkimune
PDF
bigdata2012ml okanohara
by
Preferred Networks
PDF
PFI Christmas seminar 2009
by
Preferred Networks
PDF
再考: お買い得物件を機械学習で見つける方法
by
智志 片桐
PPT
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
by
hnisiji
PDF
ユークリッド距離以外の距離で教師無しクラスタリング
by
Maruyama Tetsutaro
PDF
データ・テキストマイニング
by
Hiroshi Ono
PDF
類似度が与えられたもとでのクラスタリングに関する研究-卒業研究審査会資料-
by
とっきー Ishikawa
PDF
はじパタLT2
by
Tadayuki Onishi
PDF
2013 JOI春合宿 講義6 機械学習入門
by
Hiroshi Yamashita
PDF
はじパタLT3
by
Tadayuki Onishi
PDF
第3回集合知プログラミング勉強会 #TokyoCI グループを見つけ出す
by
Atsushi KOMIYA
PRML Chapter 14
by
Masahito Ohue
パターン認識 04 混合正規分布
by
sleipnir002
パターン認識と機械学習 13章 系列データ
by
emonosuke
PRML第6章「カーネル法」
by
Keisuke Sugawara
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
PRML輪読#14
by
matsuolab
各言語の k-means 比較
by
y-uti
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
by
aich_08_
PRML 4.1 輪講スライド
by
KawaAkimune
bigdata2012ml okanohara
by
Preferred Networks
PFI Christmas seminar 2009
by
Preferred Networks
再考: お買い得物件を機械学習で見つける方法
by
智志 片桐
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
by
hnisiji
ユークリッド距離以外の距離で教師無しクラスタリング
by
Maruyama Tetsutaro
データ・テキストマイニング
by
Hiroshi Ono
類似度が与えられたもとでのクラスタリングに関する研究-卒業研究審査会資料-
by
とっきー Ishikawa
はじパタLT2
by
Tadayuki Onishi
2013 JOI春合宿 講義6 機械学習入門
by
Hiroshi Yamashita
はじパタLT3
by
Tadayuki Onishi
第3回集合知プログラミング勉強会 #TokyoCI グループを見つけ出す
by
Atsushi KOMIYA
More from Akifumi Eguchi
PDF
統計的学習の基礎6章前半 #カステラ本
by
Akifumi Eguchi
PDF
みどりぼん3章前半
by
Akifumi Eguchi
PDF
Randomforestで高次元の変数重要度を見る #japanr LT
by
Akifumi Eguchi
PDF
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
by
Akifumi Eguchi
PDF
みどりぼん9章前半
by
Akifumi Eguchi
PDF
環境化学データ解析入門: 愛媛大講演資料 160728
by
Akifumi Eguchi
PDF
High-order factorization machines with R #tokyor 61
by
Akifumi Eguchi
PPTX
PlaidML Kerasでやっていく #TokyoR 73
by
Akifumi Eguchi
PDF
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
by
Akifumi Eguchi
PDF
第一回ぞくパタ
by
Akifumi Eguchi
PDF
第2回ぞくパタ
by
Akifumi Eguchi
PPTX
Tokyo R #39
by
Akifumi Eguchi
PDF
Tokyo r #43
by
Akifumi Eguchi
PDF
Dslt祭り2夜
by
Akifumi Eguchi
PDF
Deep learningもくもくハッカソンまとめup用
by
Akifumi Eguchi
PDF
Tokyo.r #44 lt.pptx
by
Akifumi Eguchi
PDF
ぞくパタ はじめに
by
Akifumi Eguchi
PDF
Mxnetで回帰 #TokyoR 53th
by
Akifumi Eguchi
PDF
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
by
Akifumi Eguchi
統計的学習の基礎6章前半 #カステラ本
by
Akifumi Eguchi
みどりぼん3章前半
by
Akifumi Eguchi
Randomforestで高次元の変数重要度を見る #japanr LT
by
Akifumi Eguchi
子どもたちの未来を支える機械学習: 定量的構造活性相関 (QSAR) による有機ハロゲン化合物の母子間移行率予測
by
Akifumi Eguchi
みどりぼん9章前半
by
Akifumi Eguchi
環境化学データ解析入門: 愛媛大講演資料 160728
by
Akifumi Eguchi
High-order factorization machines with R #tokyor 61
by
Akifumi Eguchi
PlaidML Kerasでやっていく #TokyoR 73
by
Akifumi Eguchi
統計的学習の基礎, 副読本紹介: An Introduction to Statistical Learning
by
Akifumi Eguchi
第一回ぞくパタ
by
Akifumi Eguchi
第2回ぞくパタ
by
Akifumi Eguchi
Tokyo R #39
by
Akifumi Eguchi
Tokyo r #43
by
Akifumi Eguchi
Dslt祭り2夜
by
Akifumi Eguchi
Deep learningもくもくハッカソンまとめup用
by
Akifumi Eguchi
Tokyo.r #44 lt.pptx
by
Akifumi Eguchi
ぞくパタ はじめに
by
Akifumi Eguchi
Mxnetで回帰 #TokyoR 53th
by
Akifumi Eguchi
Tokyo webmining 43 "化学物質汚染のデータ解析・リスク評価についての私見"
by
Akifumi Eguchi
ぞくパタ最終回: 13章「共クラスタリング」
1.
@siero5335 #ぞくパタ ドワンゴ様@東銀座 2016/1/12 第15回「続・わかりやすいパターン認識」読書会 第13章: 共クラスタリング
2.
目次 13.1 関係データに対する共クラスタリング
13.2 無限関係モデル 13.3 IRMの学習
3.
13.1 関係データに対する共クラスタリング
4.
13.1
関係データに対する共クラスタリング 共クラスタリングとは? 顧客と商品など、人と人、人とモノのつながりを表す 関係データを上手く扱うための手法 顧客だけ、商品だけのクラスタリングはこれまでも やってきたが、共クラスタリングでは行・列双方を適 切に並び替えることで、顧客・商品を同時にクラスタ リングできるようにな。 このように、異なる種類のオブジェクトを同時にクラ スタリングする手法を共クラスタリングと呼ぶ
5.
13.1
関係データの例 1 2 3 1 2 3 4 1 2 3 4 1 2 3 商品 顧 客 オブジェクト間のつながりをエッジとしたグラフで、あるいは、 オブジェクト間にエッジがある時を1、ない時を0とする2値行 列で表現できる。
6.
13.1
共クラスタリング色々 From K-‐means to higher-‐way co-‐clustering: mul:linear decomposi:on with sparse latent factors h>ps://www.cs.cmu.edu/~epapalex/papers/PapSidBroTSP2011R2.pdf K-‐means, ユークリッド距離を基にした共クラスタリング "blockcluster: Coclustering Package for Binary, Categorical, Con:ngency and Con:nuous Data-‐Sets” h>ps://cran.r-‐project.org/web/packages/blockcluster/index.html EMアルゴリズムを基にした共クラスタリング
7.
13.1
共クラスタリング実行例 "blockcluster: Coclustering Package for Binary, Categorical, Con:ngency and Con:nuous Data-‐Sets” h>ps://cran.r-‐project.org/web/packages/blockcluster/index.html パッケージ解説はこちら: h>p://qiita.com/siero5335/items/f8e704035d7bdd5965be EMアルゴリズムを基にした共クラスタリング
8.
13.1
共クラスタリング実行例 "blockcluster: Coclustering Package for Binary, Categorical, Con:ngency and Con:nuous Data-‐Sets” h>ps://cran.r-‐project.org/web/packages/blockcluster/index.html パッケージ解説はこちら: h>p://qiita.com/siero5335/items/f8e704035d7bdd5965be 尤度を見ながらクラスタ数を最適化していく
9.
13.1
共クラスタリング実行例 "blockcluster: Coclustering Package for Binary, Categorical, Con:ngency and Con:nuous Data-‐Sets” h>ps://cran.r-‐project.org/web/packages/blockcluster/index.html パッケージ解説はこちら: h>p://qiita.com/siero5335/items/f8e704035d7bdd5965be つまりクラスタ数は自分で決めないとだめ
10.
13.1
共クラスタリング色々 From K-‐means to higher-‐way co-‐clustering: mul:linear decomposi:on with sparse latent factors h>ps://www.cs.cmu.edu/~epapalex/papers/PapSidBroTSP2011R2.pdf K-‐means, ユークリッド距離を基にした共クラスタリング "blockcluster: Coclustering Package for Binary, Categorical, Con:ngency and Con:nuous Data-‐Sets” h>ps://cran.r-‐project.org/web/packages/blockcluster/index.html EMアルゴリズムを基にした共クラスタリング 本書 無限関係モデル(IRM)による共クラスタリング ノンパラベイズに基づいてるからクラスタ数も自動決定できるよ! 顧客と商品の例なら観測データから同時にクラスタリングすることで、 どんな顧客がどんな商品を買うかの関係を自動抽出することに相当
11.
13.2 無限関係モデル (IRM)
当
12.
13.2 無限関係モデル (IRM)
当 K: 顧客の総数 L: 商品の総数 R: 顧客・商品の関係を表す行列 Rkl: Rの(k, l)成分 Rkl =1: 顧客kが商品lを購入した Rkl =0:顧客kが商品lを購入しなかった S1: 顧客に対する潜在変数 S2: 商品に対する潜在変数 c1: 顧客クラスタの数 c2: 商品クラスタの数 ω1 i: i番目の顧客クラスタ ω2 j: j番目の商品クラスタ S1 k: 顧客kの所属する顧客クラスタ S2 l: 商品lの所属する商品クラスタ S1 k = ω1 i: 顧客kが顧客クラスタω1に属する S2 l: =ω2 j: 商品lが顧客クラスタω2 jに属する θij = θ(ω1 i, ω2 j): (i, j)のパラメータブロック def
13.
13.2 無限関係モデル (IRM)
s! |!α!~!"#(α) s!|!α!~!"#(α) !"#!! = 1,…,!, !"#!! = 1,…,!, CRPの事前分布で顧客クラスタS1、 商品クラスタS2が独立に分割される
14.
13.2 無限関係モデル (IRM)
s! |!α!~!"#(α) s!|!α!~!"#(α) !"#!! = 1,…,!, !"#!! = 1,…,!, !!"|!! ! =!ω! ! ,!! ! =!ω! ! ,Θ~!!"#$(!!":!θ!") !! ! = ω! ! , !! ! = ω! ! θ !! ! , !! ! = θ ω! ! , ω! ! =!θ!" CRPの事前分布で顧客クラスタS1、 商品クラスタS2が独立に分割される となり、顧客商品の関係を表す行列Rklが パラメータθijのベルヌーイ分布Bern(Rkl:θij)から生成される
15.
13.2 無限関係モデル (IRM)
s! |!α!~!"#(α) s! |!α!~!"#(α) !"#!! = 1,…,!, !"#!! = 1,…,!, θ !! ! ,!! ! |!,!!~!"(!,!) !!"|!! ! =!ω! ! ,!! ! =!ω! ! ,Θ~!!"#$(!!":!θ!") !! ! = ω! ! , !! ! = ω! ! θ !! ! , !! ! = θ ω! ! , ω! ! =!θ!" となり、顧客商品の関係を表す行列Rklが パラメータθijのベルヌーイ分布Bern(Rkl:θij)から生成される θijは区間[0,1]の値を取るので、θijの事前分布として パラメータa, bのベータ分布Be(a,b)を取る CRPの事前分布で顧客クラスタS1、 商品クラスタS2が独立に分割される
16.
13.2 無限関係モデル (IRM)
商品 顧 客 共 ク ラ ス タ リ ン グ
17.
13.2 無限関係モデル (IRM)
商品 顧 客 共 ク ラ ス タ リ ン グ ω1 1 ω2 1 ω3 1 ω4 1 ω1 2 ω2 2 ω3 2 15人の顧客が4つ、10種の商品が3つのクラスタに分割される
18.
13.2 無限関係モデル (IRM)
商品 顧 客 共 ク ラ ス タ リ ン グ i = 1 2 3 4 j =1 2 3 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0 θij = 0.7 θij = 0.7 θij = 0.1 θij = 0.9 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0.1 顧客クラスタi, 商品クラスタjの直積からなる各(i, j) ブロックに対し、 θijの値(0≤θij≤1)がベータ分布から決定される
19.
13.2 無限関係モデル (IRM)
商品 顧 客 共 ク ラ ス タ リ ン グ i = 1 2 3 4 j =1 2 3 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0 θij = 0.7 θij = 0.7 θij = 0.1 θij = 0.9 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0.1 θ12の大半は1 θ12 = 0.9よりRklが0.9の確率で1を発生させるベルヌーイ分布から決まるため θijは顧客クラスタω1 iと商品クラスタω2 jの関係を表す確率に相当する。
20.
13.2 無限関係モデル (IRM)
商品 顧 客 共 ク ラ ス タ リ ン グ i = 1 2 3 4 j =1 2 3 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0 θij = 0.7 θij = 0.7 θij = 0.1 θij = 0.9 θij = 0.2 θij = 0.9 θij = 0.1 θij = 0.1 ベータ分布のパラメータa, bの値を変えることでθijの値が[0,1]の範囲で 変化する。このため、α, a, bの値を変えることでIRMからさまざまな関係 データ行列を生成することができる。
21.
13.3 IRMの学習
22.
13.3 IRMの学習 各オブジェクトの所属クラスタ
(s1, s2) が既知であれば、その情報 と観測データから共クラスタリングが可能だが、実際に既知なの は観測データのみ IRMの学習は、観測データの背後にある共クラスタリング構造(s1, s2) を、観測データとIRMの生成モデルから推定すること
23.
13.3 IRMの学習 各オブジェクトの所属クラスタ
(s1, s2) が既知であれば、その情報 と観測データから共クラスタリングが可能だが、実際に既知なの は観測データのみ IRMの学習は、観測データの背後にある共クラスタリング構造(s1, s2) を、観測データとIRMの生成モデルから推定すること 具体的には、観測データRが得られた下で、下記で示されたパラ メータを積分消去して得られたs1, s2の事後確率を最大化するs1, s2 を求める問題に帰着 ! !!, !! ! =! ! ! !!, !! ! !! !(!!) !(!)
24.
13.3 IRMの学習 各オブジェクトの所属クラスタ
(s1, s2) が既知であれば、その情報 と観測データから共クラスタリングが可能だが、実際に既知なの は観測データのみ IRMの学習は、観測データの背後にある共クラスタリング構造(s1, s2) を、観測データとIRMの生成モデルから推定すること 具体的には、観測データRが得られた下で、下記で示されたパラ メータを積分消去して得られたs1, s2の事後確率を最大化するs1, s2 を求める問題に帰着 ここで、s1, s2の事前分布P(s1), P(s2)はいずれもCPR(α) ディリクレ過程混合モデルに対するギブスサンプリングで (s1, s2) を逐次サンプリングし、P(s1, s2|R)を最大化する(s1, s2)を解とする ! !!, !! ! =! ! ! !!, !! ! !! !(!!) !(!)
25.
13.3 IRMの学習: 用語追加
当 K: 顧客の総数 L: 商品の総数 R: 顧客・商品の関係を表す行列 Rkl: Rの(k, l)成分 Rkl =1: 顧客kが商品lを購入した Rkl =0:顧客kが商品lを購入しなかった S1: 顧客に対する潜在変数 S2: 商品に対する潜在変数 c1: 顧客クラスタの数 c2: 商品クラスタの数 ω1 i: i番目の顧客クラスタ ω2 j: j番目の商品クラスタ S1 k: 顧客kの所属する顧客クラスタ S2 l: 商品lの所属する商品クラスタ S1 k = ω1 i: 顧客kが顧客クラスタω1に属する S2 l: =ω2 j: 商品lが顧客クラスタω2 jに属する θij = θ(ω1 i, ω2 j): (i, j)のパラメータブロック def Rk,+:顧客kの全商品に対する購買情報 R-‐k,+: RからRk,+を除いた余りの要素集合 S1 -‐k: S1からS1 kを引いた余りの要素集合 n1 i: 顧客クラスタω1 iに属するk以外の顧客数 θi,+: (i,j)ブロックのパラメータ集合
26.
13.3 IRMの学習 このs1 kをギブスサンプリングするための事後確率は以下の通り !! ! =!ω! ! !!,!!,
!!! ! , !!, !!!,! ∝ !! !! ! =!ω! ! !!! ! !(!!,!!|!! ! =!ω! ! , !!, !!!,!)
27.
13.3 IRMの学習: 事後確率右辺第1項
! !! ! =!ω! ! !!! ! !! ! ! − 1 + α α ! − 1 + α このs1 kをギブスサンプリングするための事後確率は以下の通り !! ! =!ω! ! !!,!!, !!! ! , !!, !!!,! ∝ !! !! ! =!ω! ! !!! ! !(!!,!!|!! ! =!ω! ! , !!, !!!,!) 既存クラスタ 新規クラスタ
28.
(!!,!!|!! ! =!ω! ! , !!, !!!,!)
∝ !! ! =!ω! ! !!,!!, !!! ! , !!, !!!,! ∝ !! !! ! =!ω! ! !!! ! !(!!,!!|!! ! =!ω! ! , !!, !!!,!) 13.3 IRMの学習: 事後確率右辺第2項 このs1 kをギブスサンプリングするための事後確率は以下の通り !( ! !!" !! ! =!ω! ! , !!, θ!,! !(θ!,!|!! ! =!ω! ! , !!! ! , !!, !!!,!)!θ!,! !( ! !!" !! ! =!ω! ! , !!, θ!,! !!(θ!,!)!θ!,! 既存クラスタ 新規クラスタ
29.
!( ! !!" !! ! =!ω! ! , !!,
θ!,! !(θ!,!|!! ! =!ω! ! , !!! ! , !!, !!!,!)!θ!,! (!!,!!|!! ! =!ω! ! , !!, !!!,!) ∝ !! ! =!ω! ! !!,!!, !!! ! , !!, !!!,! ∝ !! !! ! =!ω! ! !!! ! !(!!,!!|!! ! =!ω! ! , !!, !!!,!) 13.3 IRMの学習: 事後確率右辺第2項, 尤度項 このs1 kをギブスサンプリングするための事後確率は以下の通り !( ! !!" !! ! =!ω! ! , !!, θ!,! !!(θ!,!)!θ!,! 既存クラスタ 新規クラスタ ! ! !!" !! ! = ω! ! , !! , θ!,! =! ! !! (!!"|θ!")!! ! (!).!! ! (!) = θ!" !(!,!)(!,!) ! (1 − θ!")!(!,!)(!,!) 尤度項
30.
13.3 IRMの学習: 事後確率右辺第2項,
尤度項 ! ! !!" !! ! = ω! ! , !! , θ!,! =! ! !! (!!"|θ!")!! ! (!).!! ! (!) = θ!" !(!,!)(!,!) ! (1 − θ!")!(!,!)(!,!) . δ! ! (!)δ! ! (!) 1 (s1 k = ω1 i) otherwise 1 (s2 l = ω2 j) otherwise ! !,! !,! = !!" δ! ! (!) δ!(!) ! !,! !,! =! (1 − !!") δ! ! (!) δ!(!) 尤度項
31.
13.3 IRMの学習: 事後確率右辺第2項,
尤度項 ! ! !!" !! ! = ω! ! , !! , θ!,! =! ! !! (!!"|θ!")!! ! (!).!! ! (!) = θ!" !(!,!)(!,!) ! (1 − θ!")!(!,!)(!,!) . δ! ! (!)δ! ! (!) 1 (s1 k = ω1 i) otherwise 1 (s2 l = ω2 j) otherwise n(k,+)(i,j): 商品ω2 jに属する商品のうち顧客ω1 iに属する顧客kが買った商品数 n(k,+)(i,j): 商品ω2 jに属する商品のうち顧客ω1 iに属する顧客kが買わなかった 商品数 ! !,! !,! = !!" δ! ! (!) δ!(!) ! !,! !,! =! (1 − !!") δ! ! (!) δ!(!)
32.
!( ! !!" !! ! =!ω! ! , !! ,
θ!,! !(θ!,!|!! ! =!ω! ! , !!! ! , !! , !!!,!)!θ!,! 既存クラスタ 13.3 IRMの学習: 既存クラスタ右辺第2項 ! θ!,! !! ! =!ω! ! , !!! ! , !!, !!!,! =! θ!" !! ! =!ω! ! , !!! ! , !! , !!!,! ! =! P(!!!,!|!!!! ! , !! , θ!")!(θ!") P(!!!,!|!!!! ! , !!, θ!")!(θ!")!θ!" ! =! ( P !!!! θ!" !!!(!) !!(!) !!!!! )! !(θ!") ( P !!!! θ!" !!!(!) !!(!) !!!!! )! !(θ!")!θ!"! ここで、p(θij) = Be(θij; a,b)とすると、 !(θ!"|!! ! =!ω! ! , !!, !!!,!) = !"(θ!"; ! !,! !,! + !, ! !,! !,! + !)
33.
= θ!" !(!,!)(!,!) ! (1 −
θ!")!(!,!)(!,!) 13.3 IRMの学習: 既存クラスタ右辺第2項 !(θ!"|!! ! =!ω! ! , !!, !!!,!) = !"(θ!"; ! !,! !,! + !, ! !,! !,! + !) !( ! !!" !! ! =!ω! ! , !! , θ!,! !(θ!,!|!! ! =!ω! ! , !!! ! , !! , !!!,!)!θ!,! 上記を下式に代入すると !(!!,!!|!! ! =!ω! ! , !! , !!!,!) = θ!" ! !,! !,! !!!! (1 − θ)! !,! !,! !!!!!θ!" !(! !!,! !,! + !, ! !!,! !,! + !) ! = !(! !,! !,! + !, ! !,! !,! + !) !(! !!,! !,! + !, ! !!,! !,! + !) ! Bはベータ分布 ωiが既存クラスタのとき
34.
13.3 IRMの学習: 新規クラスタ
!( ! !!" !! ! =!ω! ! , !! , θ!,! !!(θ!,!)!θ!,! !(!!,!!|!! ! =!ω! ! , !! , !!!,!) = θ!" !(!,!)(!,!) ! (1 − θ!")!(!,!)(!,!) !(θ!"|!! ! =!ω! ! , !!, !!!,!) = !"(θ!"; ! !,! !,! + !, ! !,! !,! + !) 上記を下式に代入すると ωiが新規クラスタのとき = !(! !,! !,! + !, ! !,! !,! + !) !(!, !) !
35.
13.3 IRMの学習: S1 k,
S2 lの事後確率 !(!! ! = ω! ! |!!!,!!, !!! ! , !! , !!!,!) ∝ !! ! ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(! !!,! !,! + !, ! !!,! !,! + !) α ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(!, !) 既存クラスタ 新規クラスタ S1 kの事後確率
36.
13.3 IRMの学習: S1 k,
S2 lの事後確率 !(!! ! = ω! ! |!!!,!!, !!! ! , !! , !!!,!) ∝ !! ! ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(! !!,! !,! + !, ! !!,! !,! + !) α ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(!, !) !(!! ! = ω! ! |!!!,!!, !!! ! , !! , !!,!!) ∝ !! ! ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(! !,!! !,! + !, ! !,!! !,! + !) α ! − 1 + α !(! !,! !,! + !, ! !,! !,! + !) !(!, !) 既存クラスタ 新規クラスタ 既存クラスタ 新規クラスタ S2 lの事後確率 S1 kの事後確率
37.
13.3 IRMによる共クラスタリングアルゴリズム 入力:
関係データ行列R 出力: 行・列オブジェクトの所属クラスタを表す潜在変数 s1={s1 1... s1 K}, s2={s2 1... s2 L}, 行・列クラスタ数c1, c2 Step1: 初期設定 ・s1, s2を初期化(行・列クラスタ数をc1, c2とする) ・事後確率の最大値をPmax <- 0とする
38.
13.3 IRMによる共クラスタリングアルゴリズム 入力:
関係データ行列R 出力: 行・列オブジェクトの所属クラスタを表す潜在変数 s1={s1 1... s1 K}, s2={s2 1... s2 L}, 行・列クラスタ数c1, c2 Step1: 初期設定 ・s1, s2を初期化(行・列クラスタ数をc1, c2とする) ・事後確率の最大値をPmax <- 0とする Step2: 所属クラスタの更新 ・行オブジェクトkの所属クラスタs1 K更新のためにkをクラスタ から除外する ・空きクラスタが発生すればc1 <- c1-1として取り除き、i以降の クラスタインデックスを1減らす ・ からs1 Kを確率的に求める ・列についても同様にクラスタを更新する !(!! ! = ω! ! |!!!,!!, !!! ! , !! , !!!,!) ∝
39.
13.3 IRMによる共クラスタリングアルゴリズム Step3:
事後確率最大化 ! !! , !! ! =! ! ! !!, !! ! !! !(!!) !(!) ・今のs1, s2から下式を使って事後確率vを計算する ! !! , !! ! !∝ ! !! !! !(!|!! , !! ) = ! !! !! !(!!" θ!" !! θ!! !θ!! !! !!! !! !!! = ! v > Pmaxなら(事後確率の最大値が更新されたら) Pmax <- v, s1<- {s1 1... s1 K}, s2<- {s2 1... s2 L} それ以外ならPmax, s1, s2 を保持する
40.
13.3 IRMによる共クラスタリングアルゴリズム Step3:
事後確率最大化 ! !! , !! ! =! ! ! !!, !! ! !! !(!!) !(!) ・今のs1, s2から下式を使って事後確率vを計算する ! !! , !! ! !∝ ! !! !! !(!|!! , !! ) = ! !! !! !(!!" θ!" !! θ!! !θ!! !! !!! !! !!! = ! v > Pmaxなら(事後確率の最大値が更新されたら) Pmax <- v, s1<- {s1 1... s1 K}, s2<- {s2 1... s2 L} それ以外ならPmax, s1, s2 を保持する Step4: 収束判定 ・Pmaxが更新されなくなったらギブスサンプリング終了 ・更新されるなら2に戻る
Download