Home
Explore
Submit Search
Upload
Login
Signup
Advertisement
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
Report
hoxo_m
Follow
Data Scientist, HOXO-M
Jan. 28, 2016
•
0 likes
8 likes
×
Be the first to like this
Show More
•
4,389 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Check these out next
ベイズファクターとモデル選択
kazutantan
Bayesian Neural Networks : Survey
tmtm otm
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
主成分分析(Pca)
Shushi Namba
マルチレベルモデル講習会 理論編
Hiroshi Shimizu
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
潜在ディリクレ配分法
y-uti
1
of
30
Top clipped slide
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
Jan. 28, 2016
•
0 likes
8 likes
×
Be the first to like this
Show More
•
4,389 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Report
Data & Analytics
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択
hoxo_m
Follow
Data Scientist, HOXO-M
Advertisement
Advertisement
Advertisement
Recommended
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
12.9K views
•
69 slides
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
43.4K views
•
15 slides
トピックモデルの基礎と応用
Tomonari Masada
8.4K views
•
132 slides
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
11.1K views
•
216 slides
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
2.1K views
•
26 slides
LDA入門
正志 坪坂
76.1K views
•
39 slides
More Related Content
Slideshows for you
(20)
ベイズファクターとモデル選択
kazutantan
•
18.2K views
Bayesian Neural Networks : Survey
tmtm otm
•
4.6K views
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
•
47.1K views
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
•
20.4K views
主成分分析(Pca)
Shushi Namba
•
8.6K views
マルチレベルモデル講習会 理論編
Hiroshi Shimizu
•
77.2K views
[DL輪読会]Focal Loss for Dense Object Detection
Deep Learning JP
•
14.2K views
潜在ディリクレ配分法
y-uti
•
5.5K views
不均衡データのクラス分類
Shintaro Fukushima
•
58.3K views
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
•
12.1K views
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
•
3K views
MCMCでマルチレベルモデル
Hiroshi Shimizu
•
18.9K views
傾向スコアの概念とその実践
Yasuyuki Okumura
•
91K views
Stanコードの書き方 中級編
Hiroshi Shimizu
•
40.5K views
Prml 1.3~1.6 ver3
Toshihiko Iio
•
9.4K views
Wilson score intervalを使った信頼区間の応用
智文 中野
•
4.1K views
情報検索とゼロショット学習
kt.mako
•
2K views
モンテカルロ法と情報量
Shohei Miyashita
•
1.6K views
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
•
1.9K views
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
•
3.2K views
Similar to トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
(15)
ベイズ統計学の概論的紹介
Naoki Hayashi
•
76.4K views
Detecting Research Topics via the Correlation between Graphs and Texts
Shunya Ueta
•
860 views
一般化線形混合モデル入門の入門
Yu Tamura
•
148K views
Topic Model Survey (wsdm2012)
ybenjo
•
1.5K views
Hyperoptとその周辺について
Keisuke Hosaka
•
11K views
あなたの心にBridgeSampling
daiki hojo
•
4.9K views
質問応答システム入門
Hiroyoshi Komatsu
•
15.4K views
[論文解説]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Ryutaro Yamauchi
•
1.5K views
DeepCas
Koichiro tamura
•
231 views
[DL輪読会]Training RNNs as Fast as CNNs
Deep Learning JP
•
1.8K views
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda
•
2K views
Tree-to-Sequence Attentional Neural Machine Translation (ACL 2016)
Toru Fujino
•
527 views
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
•
820 views
論文の書き方・読み方
Satoshi Miura
•
15.4K views
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
•
2.7K views
Advertisement
More from hoxo_m
(20)
Shinyユーザのための非同期プログラミング入門
hoxo_m
•
5.1K views
Prophet入門【理論編】Facebookの時系列予測ツール
hoxo_m
•
43.8K views
Prophet入門【R編】Facebookの時系列予測ツール
hoxo_m
•
37.6K views
機械学習のためのベイズ最適化入門
hoxo_m
•
182.4K views
学習係数
hoxo_m
•
3.7K views
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
•
63.8K views
AJAXサイトの情報をWebスクレイピング
hoxo_m
•
2.3K views
高速なガンマ分布の最尤推定法について
hoxo_m
•
6.8K views
経験過程
hoxo_m
•
9.9K views
確率論基礎
hoxo_m
•
13.1K views
シンギュラリティを知らずに機械学習を語るな
hoxo_m
•
17.4K views
階層モデルの分散パラメータの事前分布について
hoxo_m
•
33.9K views
協調フィルタリング入門
hoxo_m
•
44.7K views
データの不備を統計的に見抜く (Gelman’s secret weapon)
hoxo_m
•
9.8K views
カップルが一緒にお風呂に入る割合をベイズ推定してみた
hoxo_m
•
76.1K views
Stan で欠測データの相関係数を推定してみた
hoxo_m
•
8.7K views
チェビシェフの不等式
hoxo_m
•
13.1K views
swirl パッケージでインタラクティブ学習
hoxo_m
•
5.8K views
RPubs とその Bot たち
hoxo_m
•
8.2K views
5分でわかるベイズ確率
hoxo_m
•
160.9K views
Recently uploaded
(20)
第11回スキル養成講座 講義スライド
keiodig
•
11 views
《格里菲斯大学毕业证|学位证书校内仿真版本》
hj123saf
•
2 views
#专业办证《怀卡托大学毕业证学位证原版精仿》
ee61223771acdrman
•
2 views
5cladba wiki
Viya18
•
16 views
★可查可存档〖制作密苏里大学堪萨斯分校文凭证书毕业证〗
fgfg45
•
2 views
#专业办证《Dal毕业证学位证原版精仿》
mibiri4418mevor
•
2 views
#学位证靠谱办Soton文凭证书全套
76p522i4nqmocom
•
2 views
#国外文凭办理Mizzou学位证成绩单
losapab511ockdiaom
•
0 views
#学位证靠谱办基尔大学文凭证书全套
qghfsvkwiqiubridge
•
2 views
#专业办证《Griffith毕业证学位证原版精仿》
ee61223771acdrman
•
2 views
#全套原版1:1精仿萨瓦学位证成绩单
b6f0190421d1rma
•
2 views
#学位证靠谱办泰普迪尼理工学院文凭证书全套
qghfsvkwiqiubridge
•
2 views
★可查可存档〖制作堪萨斯大学文凭证书毕业证〗
fgfg45
•
2 views
#全套原版1:1精仿太平洋学位证成绩单
mejadib55aviom
•
2 views
#学位证靠谱办乌尔姆大学文凭证书全套
qghfsvkwiqiubridge
•
3 views
★可查可存档〖制作怀俄明大学文凭证书毕业证〗
fgfg45
•
2 views
#学位证靠谱办Mizzou文凭证书全套
buxvunsvjiujzternetk
•
2 views
Drive-by Sensingによる都市のモニタリング
Takuma Oda
•
4 views
#全套原版1:1精仿U of G学位证成绩单
pivepar3oflipcom
•
2 views
★可查可存档〖制作曼尼托巴大学文凭证书毕业证〗
tujjj
•
2 views
Advertisement
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
『トピックモデルによる統計的潜在意味解析』読書会 3.7 評価⽅方法 〜~
3.9 モデル選択 @hoxo_m 2016/01/28 1
⾃自⼰己紹介 • hoxo_m •
所属:匿匿名知的集団ホクソエム
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 3
3.7 評価⽅方法 • トピックモデルの評価指標として Perplexity
と Coherence の 2 つが広く 使われている。 • Perplexity:予測性能 • Coherence:トピックの品質 • 拡張モデルに対しては⽬目的に応じた評価 指標が使われる 4
Perplexity とは • 辞書で引くと・・ – the
feeling of being confused or worried by something you cannot understand (理理解できないものにより困惑する感覚) 5 http://www.ldoceonline.com/dictionary/perplexity ⇨ ⽇日本語で考えるのはやめよう
Perplexity とは • ①〜~⑤の⽬目が出るスロットマシン •
予測モデル M を作成 • 次に出たスロットの⽬目 n • P(n | M) が⾼高いほど良良い予測モデル • 予測モデルに従って正解を当てるための 困難さ = Perplexity 6
Perplexity とは • 予測モデルがない場合 ①1/5 ②1/5 ③1/5 ④1/5 ⑤1/5 •
それぞれの⽬目が出る確率率率は等しい • P(n) = 1/5 • 選択肢は 5 つ( = 1/P(n) ) • 5 つの中から 1 つを選ぶという困難さ 7
Perplexity とは • 予測モデル
M がある場合 ①1/2 ②1/8 ③1/8 ④1/8 ⑤1/8 • 実際に出た⽬目が①だった ⇨ P(①|M) = 1/2 • ①が出る確率率率とその他が出る確率率率は等しい • ①を選ぶかその他を選ぶか、選択肢が 2 つ あったのと同じ ( = 2 つから 1 つを選ぶ困難さ) 8
Perplexity とは • 予測モデル
M がある場合 ①1/2 ②1/8 ③1/8 ④1/8 ⑤1/8 • 実際に出た⽬目が②だった ⇨ P(②|M) = 1/8 • 正解するには他の選択肢の誘惑をすべて 振り切切る必要があった • 誘惑度度:①4 ②1 ③1 ④1 ⑤1 • 選択肢が 8 つあったのと同じ困難さ 9
Perplexity とは • Perplexity
は、予測モデルに従って正解 を当てるためのある種の困難性である • Perplexity が低いほど、困難性は⼩小さい • Perplexity は、予測モデルにおける予測 確率率率の逆数である PPL = 1 / P(n | M) • 選択肢が PPL 個あったのと同じ困難さ 10
Perplexity とは • 予測モデルに反して②ばかり出ると、 Perplexity
は予測なしより悪くなる • 予測モデルに従って ①①①①②③④⑤ と 出た場合 • Perplexity の平均値は 5 (予測なしと同じ) (2+2+2+2+8+8+8+8)/8 = 5 • この場合、幾何平均(相乗平均)を取るべき (2*2*2*2*8*8*8*8)^(1/8) = 4 11
3.7.1 Perplexity • トピックモデルの
Perplexity • モデル M のもとで単語 w が得られる確率率率 の逆数 • PPL[w|M] = 1 / p(w | M) • テストデータ中の全ての単語に対してこ れを計算し、幾何平均(相乗平均)を取る 12
13 ⇦ 相乗平均 ⇦ 対数尤度度
Perplexity の計算 • LDA
において、単語の出現確率率率 p(w|M) は、各トピックにおいて w が出現する 確率率率の積分 • Φk,w : トピック k における単語 w の出現確率率率 • θd,k : ⽂文書 d におけるトピック k の出現確率率率 14
3.7.2 Perplexity の計算⽅方法 •
学習アルゴリズムによっては、Φk や θd が 求まらない(ベイズなので分布している) ① ギブスサンプリング ② 周辺化ギブスサンプリング ③ 変分ベイズ ④ 周辺化変分ベイズ • 各種アルゴリズムにおける Perplexity の 計算⽅方法を⽰示す 15
① ギブスサンプリング • 求まるのは
Φk および θd のサンプル • サンプル全体の平均確率率率を出す • S : サンプリング数 16
② 周辺化ギブスサンプリング • 求まるのは単語に割り当てられたトピック
z の サンプル • ただし、nk,w および nd,k も同時にサンプリング されるので、これを使えば近似的に Φk および θd が求まる 17 ※事前分布の情報を⼊入れよう!
③ 変分ベイズ • 求まるのは
p(Φ, θ) の近似事後分布 q(Φ)q(θ) 18
④ 周辺化変分ベイズ • 求まるのは
p(z) の近似事後分布 q(z) • 同じ戦略略を取ると・・・ 19
④ 周辺化変分ベイズ • この式は解析的には求まらない・・・ ⇨
q(z) からサンプリングして近似計算? • 細かいことは気にせず、変分ベイズとき の式をそのまま使う! 20
学習データとテストデータの分割 • モデルは学習データで学習し、Perplexity はテストデータで計算する •
⽂文書に対するトピックの出現率率率 θd を学習 するために、ひとつひとつの⽂文書を学習 データとテストデータに分割する 21 w11, w12, w13, ... wi1, wi2, wi3, … d1 di ・・・ w1_test1, … wi_test1, …
3.7.3 新規⽂文書における Perplexity •
新規⽂文書に対しても、学習⽤用とテスト⽤用 に分ける 22 w11, w12, w13, ... wi1, wi2, wi3, … d1 di ・・・ wj1, wj2, wj3, …dj wj_test1, … ・・・ 学 習 ⽤用 テスト⽤用
3.7.4 Coherence • Coherence:
抽出されたトピックの品質 • 意味の近い単語が集まっているトピック をより多く抽出できる⼿手法が良良いモデル • 詳しくは LT で! 23
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 24
3.8 各種アルゴリズムの⽐比較 学習アルゴリズム GS
CGS VB CVB0 1反復復当りの計算 コスト ◯ ◉ ✖ ◯ 学習に必要な反復復 回数 厳密には多い 厳密には多い 少ない 少ない 学習の収束判定 ✖ ✖ ◉ ◯ メモリコスト ◯ △ ◉ ✖ 予測分布の計算コ スト ✖ ✖ ◉ ◉ 予測性能 (Perplexity) ◯ ◉ ✖ ◉ 学習の並列列性 容易易に可 厳密には不不可 容易易に可 厳密には不不可 適⽤用可能性 ◉ △ ◯ △ 25
本⽇日の内容 • 3.7 評価⽅方法 – 3.7.1
Perplexity – 3.7.2 アルゴリズム別 Perplexity の計算⽅方法 – 3.7.3 新規⽂文書における Perplexity – 3.7.4 Coherence • 3.8 各種学習アルゴリズムの⽐比較 • 3.9 モデル選択 26
3.9 モデル選択 • LDA
におけるトピック数の決定法 1. データを学習⽤用、テスト⽤用に分ける 2. 特定のトピック数を⽤用いて LDA を学習し、 テストデータで Perplexity を求める 3. LDA 学習時に必要な初期値を変えて学習を 繰り返し、Perplexity の平均を求める 4. トピック数で⽐比較し、最も良良いものを選ぶ 27
3.9 モデル選択 • 変分ベイズ法の場合、変分下限がモデル 選択の基準になる 1.
特定のトピック数に対して LDA を学習し、 変分下限の値を求める 2. 初期値を変えて学習を繰り返し、変分下限の 値の平均を求める 3. トピック数で⽐比較し、最も良良いものを選ぶ • 変分下限は学習データのみから求められ るため、テストデータは必要無い 28
3.9 モデル選択 • Perplexity
の値は結構ばらつくので平均 値を求めているのかなぁと思いました。 • 参照: LDA のパープレキシティを使うとき 29
まとめ • 主要な LDA
ライブラリは Perplexity を 計算してくれるので安⼼心してください! • gensim: log_perplexity() • scikit-learn: perplexity() • MLlib: logPerplexity() 30
Advertisement