SlideShare a Scribd company logo
トピックモデルの話
cookpad 勉強会?
2015/04/27 Mon.
twitterID: @kogecoo
自己紹介
• @kogecoo
• background: 自然言語処理/機械学習
• 構文解析/ノンパラベイズ
• 推薦アルゴリズムを主に(と言いたい)、わりと何でも
はじめに
• いきなりトピックモデル本2冊出た
• 少し前までは書籍で勉強とはいかなかった
• → 敷居がだいぶ下がった(twitter調べ)
• イケてる本なので両方買いましょう
• PRMLでベイズに挫折した人にもオススメ そういう人はついでに
これも買いましょう
はじめに
• トピックモデルとは
• データの背後にある隠れた「トピック」を推定する
• 自然言語処理で潜在意味解析という文脈で発展
• ここでのデータは「文書」
• トピック/潜在意味?
• → 話題や分野と考えると理解しやすいかも
はじめに
• 豊富な応用先
• 文書
• 画像
• 音楽
• etc
• 研究だけでなく、実応用も…
大人の事情で割愛
大人の事情で割愛
もくじ
• はじめに
• Latent Semantic Indexing (LSI)
• Probabilistic LSI (PLSI)
• Latent Dirichlet Allocation (LDA)
• おわりに
Latent Semantic Indexing
• 検索分野で登場 (Deerwester+, 1988)
• のでIndexing(Analysisとも)
• 同義語の検索を可能にする目的
• car/automobileともに同じ検索結果を得たい
• (地味にpatentが取られていた; expired)
Latent Semantic Indexing
文書ベクトル1
dog
automobile
car
1 0
catwheel rabbit …
1 0 0 0 …
文書ベクトル2 1 1 0 0 0 0 …
文書ベクトル3 0 1 1 0 0 0 …
文書ベクトル4 0 0 0 1 1 0 …
文書ベクトル5 0 0 0 0 1 1 …
文書ベクトル6 0 0 0 0 1 0 …
• 文書-語彙の共起行列
• 語の使われ方でなんとなくグルーピングできそう…
• 特異値分解
• からの 低ランク近似
• Sの特異値の小さいものを削る
Latent Semantic Indexing
X = U
S
V
文書
語
文書
トピック
トピック
語
X = U S V
(対角行列)
S
• 低ランク近似
• Sの特異値の小さいものを削る
• 文書を特徴づけ易い重要な次元が生き残る
•  ノイズ削減
• 重要な次元 → トピック、重要な次元の数 → トピック数
Latent Semantic Indexing
X = U
S
V
文書
語
文書
トピック
トピック
語
S
Latent Semantic Indexing
• LSIの困った所
• U 、V に現れる値の意味付けが困難
• 負の値も取りうる
• トピックの軸は直交するよう選ばれる
• 頻度分布としてガウス分布を仮定
• etc…
もくじ
• はじめに
• Latent Semantic Indexing (LSI)
• Probabilistic LSI (PLSI)
• Latent Dirichlet Allocation (LDA)
• おわりに
Probabilistic LSI
• LSIを確率生成モデルとして考え直す(Hoffmann, 1999)
• 文書-単語共起行列がどのような経過をたどって作られ
たのか?
X = U
S
V
文書
語
文書
トピック
トピック
語
S
• PSLIの文書生成
• 文書-単語共起確率
• 文書dが生成
• トピックzが生成
• 単語wが生成
Probabilistic LSI
Probabilistic LSI
• ある文書dがあり、その中にある単語wに注目する
• この文書のトピックがあるトピックzである確率
• dの中の単語wについて
• トピックzにおける出現のしやすさ
• dの出現のしやすさ
Probabilistic LSI
• 文書dの出現しやすさp(d)とかよくわからない
• のでベイズの公式を使って消してしまう
• 学習データの尤度を最大化する上記3パラメータをEMで推定
Probabilistic LSI
• 性質
• 文書ごとに複数のトピックを持ちうる
• (トピック数は与える必要がある)
• トピックごとに異なる単語生成確率の分布を持ちうる
Probabilistic LSI
• PLSIの問題点
• dは学習コーパス内の文書実体
• 新規文書を自然に扱えない
• 推定すべきパラメータ数が多すぎる
• 文書数 トピック数
• 過学習し易い
もくじ
• はじめに
• Latent Semantic Indexing (LSI)
• Probabilistic LSI (PLSI)
• Latent Dirichlet Allocation (LDA)
• おわりに
Latent Dirichlet Allocation
• PLSIのベイズ化 (Blei+, 2003)
• そうすると何が嬉しいか?
• dに直接依存しないトピックの確率分布を得られる
• 新規文書も扱える
この確率分布を生成する確率分布を考える
事前分布を導入
という言い方をする
αはトピック数次元の
ベクトル
Latent Dirichlet Allocation
• PLSIのベイズ化
• さらに単語分布にスムージングを入れる
• ※[Blei+, 2003]で書かれているLDAにはこの拡張が無いもの
• Smoothed LDAという名前で同論文で導入
• 多くの参考文書でこちらがLDAとして扱われているので…
この確率分布を生成する確率分布を考える
βは語彙数次元の
ベクトル トピック数分
トピックzにの時の
単語分布のパラメータ
Latent Dirichlet Allocation
• PLSIのベイズ化
• ちなみにこのモデルでは
• 文書dのことは完全に忘れる
• d中の単語集合w=w1, w2…wNで文書を代表させる
Latent Dirichlet Allocation
• LDAの文書生成
• トピック数Kは与える
• 各トピックごとに単語分布を生成
• 各文書ごとにトピック分布を生成
• 単語のトピックを生成
• 上記単語のトピックに該当する単語分布を選び、単語を生成
• たったこれだけ!
もくじ
• はじめに
• Latent Semantic Indexing (LSI)
• Probabilistic LSI (PLSI)
• Latent Dirichlet Allocation (LDA)
• おわりに
おわりに
• LDAの初出(Blei+; 2003)
• 10年以上前
• これを原典として拡張が多く提案されている
おわりに
• 著者も一緒にモデリング
• トピック間の独立仮定を外す
• トピック間の階層構造を導入
• トピック数Kの自動推定
• 教師あり
• etc…
おわりに
• LDAはベイズモデルの中ではかなりシンプル
• のため、拡張の余地が大きかった
• かつ性能が良い
• のため、広く使われるようになった
• (と想像
• ベイズワールド初学者にも最適
• しかも本もある。やるなら今!
まとめ
• LSI
• 特異値分解を利用した次元縮約
• PSLI
• LSIの確率モデル化
• LDA
• PLSIのベイズモデル化
• LDAは比較的シンプルだから勉強に良いという話
• 最近出た2冊の本の宣伝
おことわり
• 本資料は
• 以下の書籍、
• 2013年の統計数理公開講座資料
• 2014年のIBISのチュートリアル
• を元に作成されています。問題があればご報告ください。

More Related Content

What's hot

How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
Satoshi Kato
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38horihorio
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
. .
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
matsuolab
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 

What's hot (20)

How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
 
Stan超初心者入門
Stan超初心者入門Stan超初心者入門
Stan超初心者入門
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
順序データでもベイズモデリング
順序データでもベイズモデリング順序データでもベイズモデリング
順序データでもベイズモデリング
 
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM) 一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
ベイズファクターとモデル選択
ベイズファクターとモデル選択ベイズファクターとモデル選択
ベイズファクターとモデル選択
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 
2 3.GLMの基礎
2 3.GLMの基礎2 3.GLMの基礎
2 3.GLMの基礎
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
 
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 

Viewers also liked

Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Taro Tezuka
 
トピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみたトピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみた
Hirofumi Tsuruta
 
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
Yusuke Fukasawa
 
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむDeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむ
Yusuke Fukasawa
 
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
Yusuke Fukasawa
 
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析
Yusuke Fukasawa
 
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
Yusuke Fukasawa
 
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
Yusuke Fukasawa
 
コミュニケーション
コミュニケーションコミュニケーション
コミュニケーション
saireya _
 
メディア・リテラシー
メディア・リテラシーメディア・リテラシー
メディア・リテラシー
saireya _
 
暗号
暗号暗号
暗号
saireya _
 
BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践
saireya _
 
著作権
著作権著作権
著作権
saireya _
 
システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践
saireya _
 
メディア・リテラシー実習
メディア・リテラシー実習メディア・リテラシー実習
メディア・リテラシー実習
saireya _
 
セル結合を含む表のデータモデル
セル結合を含む表のデータモデルセル結合を含む表のデータモデル
セル結合を含む表のデータモデル
saireya _
 
What is "design"?
What is "design"?What is "design"?
What is "design"?
saireya _
 
知的財産
知的財産知的財産
知的財産
saireya _
 
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
saireya _
 
情報とは
情報とは情報とは
情報とは
saireya _
 

Viewers also liked (20)

Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
 
トピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみたトピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみた
 
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
 
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむDeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむ
 
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
 
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析
 
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
 
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
 
コミュニケーション
コミュニケーションコミュニケーション
コミュニケーション
 
メディア・リテラシー
メディア・リテラシーメディア・リテラシー
メディア・リテラシー
 
暗号
暗号暗号
暗号
 
BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践
 
著作権
著作権著作権
著作権
 
システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践
 
メディア・リテラシー実習
メディア・リテラシー実習メディア・リテラシー実習
メディア・リテラシー実習
 
セル結合を含む表のデータモデル
セル結合を含む表のデータモデルセル結合を含む表のデータモデル
セル結合を含む表のデータモデル
 
What is "design"?
What is "design"?What is "design"?
What is "design"?
 
知的財産
知的財産知的財産
知的財産
 
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
 
情報とは
情報とは情報とは
情報とは
 

Similar to トピックモデルの話

質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
 
Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析
Nobuyuki Kawagashira
 
100816 nlpml sec2
100816 nlpml sec2100816 nlpml sec2
100816 nlpml sec2shirakia
 
入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装
pon get
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションantibayesian 俺がS式だ
 
情報科学演習 09
情報科学演習 09情報科学演習 09
情報科学演習 09libryukyu
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
Koji Matsuda
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合うYuya Unno
 
Rm20130619 9key
Rm20130619 9keyRm20130619 9key
Rm20130619 9keyyouwatari
 
テキストマイニング講義資料
テキストマイニング講義資料テキストマイニング講義資料
テキストマイニング講義資料
Kosuke Sato
 
Rm20140423 2key
Rm20140423 2keyRm20140423 2key
Rm20140423 2keyyouwatari
 
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
つながるデータShare
つながるデータShareつながるデータShare
つながるデータShare
Seiji Koide
 
シー・ビブリオ
シー・ビブリオシー・ビブリオ
シー・ビブリオgenroku
 
情報科学演習 09
情報科学演習 09情報科学演習 09
情報科学演習 09
libryukyu
 
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data.  #KDD2014読み...Mining topics in documents standing on the shoulders of Big Data.  #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Hiroki Takanashi
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
Ogushi Masaya
 
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meetingakikom0819
 
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2Takuya Nishimoto
 

Similar to トピックモデルの話 (20)

質問応答システム入門
質問応答システム入門質問応答システム入門
質問応答システム入門
 
Twitterテキストのトピック分析
Twitterテキストのトピック分析Twitterテキストのトピック分析
Twitterテキストのトピック分析
 
100816 nlpml sec2
100816 nlpml sec2100816 nlpml sec2
100816 nlpml sec2
 
入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
 
情報科学演習 09
情報科学演習 09情報科学演習 09
情報科学演習 09
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
 
言語資源と付き合う
言語資源と付き合う言語資源と付き合う
言語資源と付き合う
 
Rm20130619 9key
Rm20130619 9keyRm20130619 9key
Rm20130619 9key
 
テキストマイニング講義資料
テキストマイニング講義資料テキストマイニング講義資料
テキストマイニング講義資料
 
Rm20140423 2key
Rm20140423 2keyRm20140423 2key
Rm20140423 2key
 
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
つながるデータShare
つながるデータShareつながるデータShare
つながるデータShare
 
シー・ビブリオ
シー・ビブリオシー・ビブリオ
シー・ビブリオ
 
情報科学演習 09
情報科学演習 09情報科学演習 09
情報科学演習 09
 
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data.  #KDD2014読み...Mining topics in documents standing on the shoulders of Big Data.  #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
 
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
 
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2
 

トピックモデルの話