Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
hoxo_m
46,987 views
トピックモデルの評価指標 Perplexity とは何なのか?
『トピックモデルによる統計的潜在意味解析』読書会ファイナル ~佐藤一誠先生スペシャル~ LT 資料 http://topicmodel.connpass.com/event/27999/
Data & Analytics
◦
Read more
47
Save
Share
Embed
Embed presentation
1
/ 15
2
/ 15
3
/ 15
4
/ 15
5
/ 15
6
/ 15
7
/ 15
Most read
8
/ 15
9
/ 15
10
/ 15
11
/ 15
12
/ 15
13
/ 15
Most read
14
/ 15
15
/ 15
Most read
More Related Content
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PDF
Transformer メタサーベイ
by
cvpaper. challenge
PDF
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
PDF
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
by
hoxo_m
PDF
LDA入門
by
正志 坪坂
PPTX
backbone としての timm 入門
by
Takuji Tahara
PPTX
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
by
Deep Learning JP
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
Transformer メタサーベイ
by
cvpaper. challenge
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
by
hoxo_m
LDA入門
by
正志 坪坂
backbone としての timm 入門
by
Takuji Tahara
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
by
Deep Learning JP
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
by
Deep Learning JP
What's hot
PDF
時系列分析による異常検知入門
by
Yohei Sato
PDF
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
PDF
PRML学習者から入る深層生成モデル入門
by
tmtm otm
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
PDF
機械学習モデルのハイパパラメータ最適化
by
gree_tech
PDF
最適輸送の解き方
by
joisino
PPTX
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
PDF
最適輸送入門
by
joisino
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PDF
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
PPTX
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
PPTX
NLPにおけるAttention~Seq2Seq から BERTまで~
by
Takuya Ono
PPTX
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
by
Deep Learning JP
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
PDF
状態空間モデルの考え方・使い方 - TokyoR #38
by
horihorio
PPTX
変分ベイズ法の説明
by
Haruka Ozaki
PPTX
Transformerを雰囲気で理解する
by
AtsukiYamaguchi1
PDF
Active Learning 入門
by
Shuyo Nakatani
PDF
正準相関分析
by
Akisato Kimura
時系列分析による異常検知入門
by
Yohei Sato
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
PRML学習者から入る深層生成モデル入門
by
tmtm otm
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
機械学習モデルのハイパパラメータ最適化
by
gree_tech
最適輸送の解き方
by
joisino
ようやく分かった!最尤推定とベイズ推定
by
Akira Masuda
最適輸送入門
by
joisino
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
グラフィカルモデル入門
by
Kawamoto_Kazuhiko
[DL輪読会]相互情報量最大化による表現学習
by
Deep Learning JP
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
by
Deep Learning JP
NLPにおけるAttention~Seq2Seq から BERTまで~
by
Takuya Ono
[DL輪読会]Vision Transformer with Deformable Attention (Deformable Attention Tra...
by
Deep Learning JP
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
状態空間モデルの考え方・使い方 - TokyoR #38
by
horihorio
変分ベイズ法の説明
by
Haruka Ozaki
Transformerを雰囲気で理解する
by
AtsukiYamaguchi1
Active Learning 入門
by
Shuyo Nakatani
正準相関分析
by
Akisato Kimura
Viewers also liked
PDF
階層モデルの分散パラメータの事前分布について
by
hoxo_m
PDF
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
by
hoxo_m
PPTX
猫でも分かるVariational AutoEncoder
by
Sho Tatsuno
PDF
Visualizing Data Using t-SNE
by
Tomoki Hayashi
PDF
SSD: Single Shot MultiBox Detector (ECCV2016)
by
Takanori Ogata
PDF
Objectnessとその周辺技術
by
Takao Yamanaka
PDF
機械学習チュートリアル@Jubatus Casual Talks
by
Yuya Unno
PDF
Gensim
by
saireya _
階層モデルの分散パラメータの事前分布について
by
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
by
hoxo_m
猫でも分かるVariational AutoEncoder
by
Sho Tatsuno
Visualizing Data Using t-SNE
by
Tomoki Hayashi
SSD: Single Shot MultiBox Detector (ECCV2016)
by
Takanori Ogata
Objectnessとその周辺技術
by
Takao Yamanaka
機械学習チュートリアル@Jubatus Casual Talks
by
Yuya Unno
Gensim
by
saireya _
More from hoxo_m
PDF
Prophet入門【Python編】Facebookの時系列予測ツール
by
hoxo_m
PDF
機械学習のためのベイズ最適化入門
by
hoxo_m
PDF
協調フィルタリング入門
by
hoxo_m
PDF
シンギュラリティを知らずに機械学習を語るな
by
hoxo_m
PDF
Prophet入門【理論編】Facebookの時系列予測ツール
by
hoxo_m
PDF
Prophet入門【R編】Facebookの時系列予測ツール
by
hoxo_m
PPTX
高速なガンマ分布の最尤推定法について
by
hoxo_m
PDF
確率論基礎
by
hoxo_m
PPTX
5分でわかるベイズ確率
by
hoxo_m
PDF
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
by
hoxo_m
PDF
Shinyユーザのための非同期プログラミング入門
by
hoxo_m
PDF
学習係数
by
hoxo_m
PDF
Stan で欠測データの相関係数を推定してみた
by
hoxo_m
PDF
swirl パッケージでインタラクティブ学習
by
hoxo_m
PDF
経験過程
by
hoxo_m
PDF
チェビシェフの不等式
by
hoxo_m
PPTX
RPubs とその Bot たち
by
hoxo_m
PDF
AJAXサイトの情報をWebスクレイピング
by
hoxo_m
PDF
カップルが一緒にお風呂に入る割合をベイズ推定してみた
by
hoxo_m
PDF
データの不備を統計的に見抜く (Gelman’s secret weapon)
by
hoxo_m
Prophet入門【Python編】Facebookの時系列予測ツール
by
hoxo_m
機械学習のためのベイズ最適化入門
by
hoxo_m
協調フィルタリング入門
by
hoxo_m
シンギュラリティを知らずに機械学習を語るな
by
hoxo_m
Prophet入門【理論編】Facebookの時系列予測ツール
by
hoxo_m
Prophet入門【R編】Facebookの時系列予測ツール
by
hoxo_m
高速なガンマ分布の最尤推定法について
by
hoxo_m
確率論基礎
by
hoxo_m
5分でわかるベイズ確率
by
hoxo_m
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
by
hoxo_m
Shinyユーザのための非同期プログラミング入門
by
hoxo_m
学習係数
by
hoxo_m
Stan で欠測データの相関係数を推定してみた
by
hoxo_m
swirl パッケージでインタラクティブ学習
by
hoxo_m
経験過程
by
hoxo_m
チェビシェフの不等式
by
hoxo_m
RPubs とその Bot たち
by
hoxo_m
AJAXサイトの情報をWebスクレイピング
by
hoxo_m
カップルが一緒にお風呂に入る割合をベイズ推定してみた
by
hoxo_m
データの不備を統計的に見抜く (Gelman’s secret weapon)
by
hoxo_m
トピックモデルの評価指標 Perplexity とは何なのか?
1.
トピックモデルの評価指標 Perplexity とは何なのか? @hoxo_m 2016/03/29
2.
⾃自⼰己紹介 • hoxo_m •
所属:匿匿名知的集団ホクソエム
3.
あらすじ • 前回、3.7節の発表の中で Perplexity
を説 明したが、反応があまり良良くなかった • 今回は佐藤トピ本の p.123〜~125(3ページ) の内容だけにしぼって詳しく説明したい • Perplexity とは何か?を理理解することが ⽬目的 • 分かってる⼈人は寝ててください
4.
トピックモデルの評価指標 • トピックモデルの評価指標として Perplexity と
Coherence の 2 つが広く 使われている。 • Perplexity :予測性能 • Coherence:トピックの品質 • 今回は Perplexity について解説する 4 Coherence については前回 の LT を参照してください。 http://www.slideshare.net/hoxo_m/coherence-57598192
5.
Perplexity とは • 辞書で引くと・・ – the
feeling of being confused or worried by something you cannot understand (理理解できないものにより困惑する感覚) 5 http://www.ldoceonline.com/dictionary/perplexity ⇨ ぶっちゃけ分からん
6.
佐藤トピ本より • Perplexity は分岐数または選択肢の数を 表している •
Perplexity は確率率率の逆数で定義される • 直感的には、確率率率が 0.01 のとき 100 個の 中から⼀一つ選ぶことに相当するので、 「確率率率の逆数は選択肢の数を表している」
7.
分かったような? 分からないような? 「確率率率の逆数は選択肢の数を表している」
8.
今⽇日はここを理理解しよう!
9.
佐藤トピ本(p.123)より • Perplexity は分岐数または選択肢の数を 表している •
ある⽂文書の 1 単語が隠されているとする This is a ______. • 辞書の語彙数が 10000 のとき、ここに⼊入 る単語の候補は 10000 個(ランダムモデル) • なんらかの⾔言語モデルを仮定することで 候補数を減らすことができる
10.
⾔言語モデルと候補数 • This is
a ______. • 普通に考えると – ⼊入るのは名詞 (○ pen, × happy) – 可算名詞である(× coffee, × information) – ⼦子⾳音から始まる (× apple, × orange) • 我々が持つ⾃自然な⾔言語モデルによる制約 ⇨ ⾔言語モデルを仮定すると候補数は減る
11.
統計的⾔言語モデル • LDA を仮定すれば候補数は減るはず •
LDA は統計的⾔言語モデル This is a ______. • 単語は、ここに⼊入るか⼊入らないかではな く、⼊入る確率率率で表される P(“pen”) = 0.01 P(“banana”) = 0.00001 • このとき「候補数」とはどのように考え れば良良いか?
12.
正解確率率率と候補数 単語1 ⭕ 単語2
❌ 単語3 ⭕ 単語4 ⭕ 単語5 ❌ 単語6 ❌ 候補は3個 ⇨ 正解する確率率率は 1/3 単語1 確率率率 0.01 あとは不不明 正解する確率率率は 1/100 ⇨ 候補が 100 個あるのと同じ 単語1を正解とすると・・
13.
Perplexity • 100 個の候補単語から正解を選ぶことと、 確率率率
0.01 の正解を選ぶことは、難しさは 同じ • Perplexity = 1 / P(正解単語 | M) • と定義すれば、Perplexity は、モデル M において正解を選ぶ難しさを表す • Perplexity = 100 ならば、100 個の候補か ら選ぶのと同じ難しさになる
14.
Perplexity によるモデル評価 • Perplexity
は、モデル M の下で正解を選 ぶ難しさを表す • Perplexity は候補数に対応している • 候補数が少ないほど正解を当てやすい ⇨ Perplexity はモデルの予測性能を表す
15.
Perplexity まとめ • Perplexity
は、モデルに従って正解を選 ぶためのある種の困難さを表す • どれぐらい困難かは、Perplexity 個の選 択肢から正解を選ぶときと同じ困難さ • Perplexity は選択肢の数を表す • Perplexity は確率率率の逆数で定義される 「確率率率の逆数は選択肢の数を表している」