Submit Search
Upload
トピックモデルの話
•
64 likes
•
28,419 views
K
kogecoo
Follow
Talk about Topic Modeling @cookpad
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 31
Download now
Download to read offline
Recommended
トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
日本計算機統計学会 スタディーグループ 「IR(Institutional Research)のための統計的モデル構築に関する研究」ワークショップ 開催日時:2019年3月23日(土) 13:30~17:00 会場: 統計数理研究所 セミナー室1
LDA等のトピックモデル
LDA等のトピックモデル
Mathieu Bertin
潜在ディリクレ配分法
潜在ディリクレ配分法
y-uti
勤め先の社内勉強会での発表資料です。日本語版 Wikipedia の抄録を対象として gensim の LdaModel を利用する例を説明した後、LDA の生成モデルについて説明します。そのうえで、gensim の LdaModel に指定できるパラメータや提供されているメソッドの意味を LDA の生成モデルに照らして確認します。
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
Topic model
Topic model
saireya _
SVD, LSAからpLSA, LDAまで、topic modelの原論文を読んでまとめるために作成したスライドです。 ※Gibbs samplingは割愛しました:)
LDA入門
LDA入門
正志 坪坂
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
『トピックモデルによる統計的潜在意味解析』読書会ファイナル ~佐藤一誠先生スペシャル~ LT 資料 http://topicmodel.connpass.com/event/27999/
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
Takuya Ono
近年、自然言語処理の分野で注目を集め今では重要な基礎技術となったAttentionについて、その起源と発展を振り返ります。
Recommended
トピックモデルの基礎と応用
トピックモデルの基礎と応用
Tomonari Masada
日本計算機統計学会 スタディーグループ 「IR(Institutional Research)のための統計的モデル構築に関する研究」ワークショップ 開催日時:2019年3月23日(土) 13:30~17:00 会場: 統計数理研究所 セミナー室1
LDA等のトピックモデル
LDA等のトピックモデル
Mathieu Bertin
潜在ディリクレ配分法
潜在ディリクレ配分法
y-uti
勤め先の社内勉強会での発表資料です。日本語版 Wikipedia の抄録を対象として gensim の LdaModel を利用する例を説明した後、LDA の生成モデルについて説明します。そのうえで、gensim の LdaModel に指定できるパラメータや提供されているメソッドの意味を LDA の生成モデルに照らして確認します。
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
Topic model
Topic model
saireya _
SVD, LSAからpLSA, LDAまで、topic modelの原論文を読んでまとめるために作成したスライドです。 ※Gibbs samplingは割愛しました:)
LDA入門
LDA入門
正志 坪坂
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
『トピックモデルによる統計的潜在意味解析』読書会ファイナル ~佐藤一誠先生スペシャル~ LT 資料 http://topicmodel.connpass.com/event/27999/
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
Takuya Ono
近年、自然言語処理の分野で注目を集め今では重要な基礎技術となったAttentionについて、その起源と発展を振り返ります。
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
Satoshi Kato
機械学習の説明方法をRで使うためのチュートリアル. DALEXとimlパッケージを紹介します。
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
horihorio
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
Stanの初心者が基本的な統計モデルを実行するまでの解説です。プログラミング初心者向けに書いているので,やや説明が遠回りなところもあります。
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
2014.06.08 「ベイズ推定による多変量解析入門」@広島大学 ベイズ推定とマルコフ連鎖モンテカルロ法について解説しています。 当日動かしたギブスサンプリングのアニメーションは, 以下のサイトで紹介されたコードを参考にしています。 http://qiita.com/yagays/items/5bde6addf228b1fe24e6
順序データでもベイズモデリング
順序データでもベイズモデリング
. .
第46回東京R勉強会 #TokyoRの資料です。
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
日本マイクロソフト株式会社 山口順也 氏
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
PRML勉強会2013冬 第7回 3章線形回帰モデルの3.2〜3.4です
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
PRML上巻勉強会 at 東京大学の資料です。 この資料はChristopher M. Bishop 著「Pattern Recognition and Machine Learning」の日本語版「パターン認識と機械学習 上 - ベイズ理論による統計的予測」について補足説明を入れた上でなるべくわかりやすくしたものです。 本資料では第3章の前半、特に3.1節を中心に解説しています。 詳しくはこちらのサイト(外部)を御覧ください。 http://ibisforest.org/index.php?PRML
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有しています。 http://xpaperchallenge.org/cv/ 本資料はxpaper.challengeの2020年末ワークショップとしてプレゼンした、研究効率化Tipsです。10研究室、200ページ超にわたるノウハウ詰め合わせです。
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
2013年8月10~11日にかけて北大函館キャンパス内で行われた統計勉強会の投影資料です。 2日目 2-3.GLMの基礎 一般化線形モデルの構成要素や、計算の方法について解説します。 サイト作ってます http://logics-of-blue.com/
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
ベイズ塾主催の第3回WSで話した内容です。 間違いあると思います。より詳細を学びたい方は書籍等をご参考にしてください
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
よくわかるフリストンの自由エネルギー原理
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
(The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer, 2009.)
PRML輪読#1
PRML輪読#1
matsuolab
東京大学松尾研究室におけるPRMLの輪読資料です。
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-men
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Taro Tezuka
Describes the Beta and Dirichlet distribution. ベータ分布とディリクレ分布について説明します。
トピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみた
Hirofumi Tsuruta
トピックモデルでテキストのクラスタリングをやってみました!
More Related Content
What's hot
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
Satoshi Kato
機械学習の説明方法をRで使うためのチュートリアル. DALEXとimlパッケージを紹介します。
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
horihorio
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択
Stan超初心者入門
Stan超初心者入門
Hiroshi Shimizu
Stanの初心者が基本的な統計モデルを実行するまでの解説です。プログラミング初心者向けに書いているので,やや説明が遠回りなところもあります。
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
2014.06.08 「ベイズ推定による多変量解析入門」@広島大学 ベイズ推定とマルコフ連鎖モンテカルロ法について解説しています。 当日動かしたギブスサンプリングのアニメーションは, 以下のサイトで紹介されたコードを参考にしています。 http://qiita.com/yagays/items/5bde6addf228b1fe24e6
順序データでもベイズモデリング
順序データでもベイズモデリング
. .
第46回東京R勉強会 #TokyoRの資料です。
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
Deep Learning Lab(ディープラーニング・ラボ)
日本マイクロソフト株式会社 山口順也 氏
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
Takeshi Sakaki
PRML勉強会2013冬 第7回 3章線形回帰モデルの3.2〜3.4です
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
PRML上巻勉強会 at 東京大学の資料です。 この資料はChristopher M. Bishop 著「Pattern Recognition and Machine Learning」の日本語版「パターン認識と機械学習 上 - ベイズ理論による統計的予測」について補足説明を入れた上でなるべくわかりやすくしたものです。 本資料では第3章の前半、特に3.1節を中心に解説しています。 詳しくはこちらのサイト(外部)を御覧ください。 http://ibisforest.org/index.php?PRML
ベイズファクターとモデル選択
ベイズファクターとモデル選択
kazutantan
2014年6月8日に広島大学にて開催された魁!! 広島ベイズ塾のワークショップで発表したスライド。
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有しています。 http://xpaperchallenge.org/cv/ 本資料はxpaper.challengeの2020年末ワークショップとしてプレゼンした、研究効率化Tipsです。10研究室、200ページ超にわたるノウハウ詰め合わせです。
2 3.GLMの基礎
2 3.GLMの基礎
logics-of-blue
2013年8月10~11日にかけて北大函館キャンパス内で行われた統計勉強会の投影資料です。 2日目 2-3.GLMの基礎 一般化線形モデルの構成要素や、計算の方法について解説します。 サイト作ってます http://logics-of-blue.com/
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
ベイズ塾主催の第3回WSで話した内容です。 間違いあると思います。より詳細を学びたい方は書籍等をご参考にしてください
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
Masatoshi Yoshida
よくわかるフリストンの自由エネルギー原理
統計的学習の基礎_3章
統計的学習の基礎_3章
Shoichi Taguchi
(The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer, 2009.)
PRML輪読#1
PRML輪読#1
matsuolab
東京大学松尾研究室におけるPRMLの輪読資料です。
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-men
What's hot
(20)
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
Stan超初心者入門
Stan超初心者入門
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
順序データでもベイズモデリング
順序データでもベイズモデリング
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
一般化線形モデル (GLM) & 一般化加法モデル(GAM)
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
ベイズファクターとモデル選択
ベイズファクターとモデル選択
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
2 3.GLMの基礎
2 3.GLMの基礎
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
よくわかるフリストンの自由エネルギー原理
よくわかるフリストンの自由エネルギー原理
統計的学習の基礎_3章
統計的学習の基礎_3章
PRML輪読#1
PRML輪読#1
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
Viewers also liked
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Taro Tezuka
Describes the Beta and Dirichlet distribution. ベータ分布とディリクレ分布について説明します。
トピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみた
Hirofumi Tsuruta
トピックモデルでテキストのクラスタリングをやってみました!
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
Yusuke Fukasawa
11/10~11/12(2016)に北九州の小倉で行われた第59回自動制御連合会(http://www.jsme.or.jp/conference/rengo59/)のサービス工学セッションでプレゼンしました。 ACSMO 2016(http://www.acsmo2016.com/)とCIRP ICME'16(http://www.icme.unina.it/ICME%2016/ICME_14.htm)でも同様の内容でプレゼンいたしました。
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむ
Yusuke Fukasawa
DeNAの報告書をNLPして雰囲気をつかもうとしています。 コード: https://github.com/fufufukakaka/dena-visualize デモはこちら ・Bi-Gram Network(https://fufufukakaka.github.io/dena-visualize/network-bigram/index.html) ・Word2vec Visualization with t-sne(https://fufufukakaka.github.io/dena-visualize/tsne/tsne-visualize.html)
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
Yusuke Fukasawa
ニコニコ動画では、各動画ごとに"タグ"と呼ばれる視聴者及び投稿者が付けることのできる"動画の何かしらを表現する一言"を付け加えることができます。 このスライドでは、タグの共起関係から構築出来るタグネットワークを用いて"ゆっくり文化"の発展と現状を俯瞰するとともに、先行研究を用いて"今後文化として定着し得るタグ"を見つけることを試行しました。
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析
Yusuke Fukasawa
第228回自然言語処理研究会にて、発表した時のスライドです。 https://nl-ipsj.or.jp/2016/09/12/nl228-program/
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
Yusuke Fukasawa
昨年秋頃にニコニコ動画で議論になった(と思われる)"マリオメーカー問題"がどのように広がっていったのか、ニコニコ動画の関連動画システムを用いてネットワークを構築し、分析してみました。
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
Yusuke Fukasawa
3月26日のニコニコ学会データ研究会で発表した資料です。
コミュニケーション
コミュニケーション
saireya _
See http://saireya.hateblo.jp/entry/class/communication for details.
メディア・リテラシー
メディア・リテラシー
saireya _
See http://saireya.hateblo.jp/entry/class/medialiteracy for details.
暗号
暗号
saireya _
See http://saireya.hateblo.jp/entry/class/security for details.
BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践
saireya _
CIS2015発表スライド 論文: https://ja.scribd.com/doc/255147300 (各資料へのリンク有り) 授業スライド: http://www.slideshare.net/saireya/what-is-design-44244816
著作権
著作権
saireya _
See http://saireya.hateblo.jp/entry/class/intellectualproperty for details.
システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践
saireya _
See https://saireya.gitbooks.io/thesis/content/2016zen-system/ for details.
メディア・リテラシー実習
メディア・リテラシー実習
saireya _
See http://saireya.hateblo.jp/entry/class/medialiteracy-practical for details.
セル結合を含む表のデータモデル
セル結合を含む表のデータモデル
saireya _
DEIM2015での発表スライド(学生プレゼンテーション賞受賞)。 論文: https://ja.scribd.com/doc/257485153 ポスター: http://ja.scribd.com/doc/257486265
What is "design"?
What is "design"?
saireya _
See http://saireya.hateblo.jp/entry/class/design for details. CIS資料(授業スライド) 論文: https://www.scribd.com/doc/255147300 発表スライド: http://www.slideshare.net/saireya/slide-cis2015 出典(スライドに収まらなかったもの): p.4 Sullivanの建築 (PD) http://www.loc.gov/pictures/item/mo0297 Sullivanの建築 (CC3-BY-SA) http://en.wikipedia.org/wiki/File:SullivanNY1.jpg p.5-6 人画像(1人) (PD): http://www.clker.com/clipart-2491.html 人画像(複数) (PD): http://www.clker.com/clipart-2492.html p.14-15 富永冴樹, アクセシビリティキャンプ東京 第6回 と駅時刻表の色について - 富永日記帳 http://w0s.jp/diary/285 p.16-18 福島県, カラーユニバーサルデザインガイド http://www.pref.fukushima.lg.jp/sec/16005c/ud-cudguide04.html p.22-23 朝日新聞, 電車内の足投げ出し、新型座席で解決 苦情なくなる http://digital.asahi.com/articles/ASGBQ5DGSGBQULFA01Z.html</url> p.24 楽しいBADUIの世界 - 遊ばれているとしか思えない靴箱の数字 http://badui.org/articles/funny\_order.html 楽しいBADUIの世界 - 貼り方を間違えてしまってBADUIに http://badui.org/articles/maru\_sankaku.html p.25 京都市交通局, 市バスの「分かりやすさ向上」のためのデザインマニュアルの策定と案内表示の一新について http://www.city.kyoto.lg.jp/kotsu/page/0000161667.html
知的財産
知的財産
saireya _
See http://saireya.hateblo.jp/entry/class/intellectualproperty for details.
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
saireya _
修論公聴会のスライド。DEIM2015でも簡略版を発表しています。 簡略版(DEIMでの発表スライド): http://www.slideshare.net/saireya/slide-deim2015
情報とは
情報とは
saireya _
See http://saireya.hateblo.jp/entry/class/information for details.
Viewers also liked
(20)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
Beta distribution and Dirichlet distribution (ベータ分布とディリクレ分布)
トピックモデルでテキストをクラスタリングしてみた
トピックモデルでテキストをクラスタリングしてみた
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
経済的寄与度を重視した橋梁管理手法の有効性に関するマルチエージェントシミュレーションによる分析
DeNAの報告書を可視化して雰囲気をつかむ
DeNAの報告書を可視化して雰囲気をつかむ
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
動画タグネットワーク分析を用いた ニコニコ動画における萌芽文化発見の試み ~”ゆっくり関連タグ”を例として~
料理レシピサービスにおける検索語の意味変化に関する分析
料理レシピサービスにおける検索語の意味変化に関する分析
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
【ニコニコ動画】"マリオメーカー問題"のもたらした影響をネットワーク分析してみた
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
ニコニコ動画における関連動画情報を用いたカテゴリ特徴の把握
コミュニケーション
コミュニケーション
メディア・リテラシー
メディア・リテラシー
暗号
暗号
BADUIからユニバーサルデザインへ展開するデザイン教育実践
BADUIからユニバーサルデザインへ展開するデザイン教育実践
著作権
著作権
システム論に基づく情報教育の授業計画と教育実践
システム論に基づく情報教育の授業計画と教育実践
メディア・リテラシー実習
メディア・リテラシー実習
セル結合を含む表のデータモデル
セル結合を含む表のデータモデル
What is "design"?
What is "design"?
知的財産
知的財産
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
Extending Relational Data Model with Merged Cells(セル結合を考慮した関係データモデルの拡張)
情報とは
情報とは
Similar to トピックモデルの話
質問応答システム入門
質問応答システム入門
Hiroyoshi Komatsu
第17回 プログラミング生放送勉強会の発表資料。Microsoft のセミナールームが会場なので、Bing ネタがちょくちょく入っています。
Twitterテキストのトピック分析
Twitterテキストのトピック分析
Nobuyuki Kawagashira
TwitterテキストをLDAを使って分類してみました。NLP勉強会#2のLT発表資料。 http://tokyoscrapper.connpass.com/event/9753/?utm_campaign=&utm_source=notifications&utm_medium=email&utm_content=title_link
100816 nlpml sec2
100816 nlpml sec2
shirakia
入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装
pon get
実装は13PのURLから見れます 環境なくてもブラウザだけで試せます(っ˘ω˘c )
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
antibayesian 俺がS式だ
情報科学演習 09
情報科学演習 09
libryukyu
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
Koji Matsuda
DSIRNLP#5 の 松田の発表です
言語資源と付き合う
言語資源と付き合う
Yuya Unno
Rm20130619 9key
Rm20130619 9key
youwatari
テキストマイニング講義資料
テキストマイニング講義資料
Kosuke Sato
2019.07.13に島根大学人間科学部で行った講義の資料です。 テキストマイニング/計量テキスト分析の紹介と、テキスト分析の研究デザイン、RとMeCabによる簡単な実習を含みます。
Rm20140423 2key
Rm20140423 2key
youwatari
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
最新版はこちら!:https://www.slideshare.net/yukiarase/jsai2018-101054060 JSAI2018でのチュートリアル資料です。 --- 6月7日(木) 13:50-15:30 I会場(2F ロイヤルガーデンA) ---
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
最新版のJSAI2018でのチュートリアル資料です。 --- 6月7日(木) 13:50-15:30 I会場(2F ロイヤルガーデンA) ---
つながるデータShare
つながるデータShare
Seiji Koide
IODD大阪2016
シー・ビブリオ
シー・ビブリオ
genroku
情報科学演習 09
情報科学演習 09
libryukyu
全学共通科目「情報科学演習」の「図書館検索入門」の講義用スライドです。
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Hiroki Takanashi
リクルートテクノロジーズさんで9月23日に開催されたKDD2014読み会で担当したやつ。 LDAのlifetime learningへの拡張で、教師ありクラスタリングで使われるmust-link, cannot-linkの形で過去の学習事例から制約条件を自動で抽出し、新しい文章ドメインにおけるトピック集合を作る際の性能向上を行おうという提案ですが、いろいろと面白いトリックが組み合わされているので参考になります。
Chainer with natural language processing hands on
Chainer with natural language processing hands on
Ogushi Masaya
Tech-Circle Chainerハンズオン勉強会での発表資料です。 http://techcircle.connpass.com/event/20042/ 数式を使わずに説明するように心がけました。 Chainer、自然言語処理、機械学習にデビューしたい人は参照して頂けると幸いです。 筆者のTwitterアカウントはこちら https://twitter.com/SnowGushiGit
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
akikom0819
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2
Takuya Nishimoto
Similar to トピックモデルの話
(20)
質問応答システム入門
質問応答システム入門
Twitterテキストのトピック分析
Twitterテキストのトピック分析
100816 nlpml sec2
100816 nlpml sec2
入門トピックモデル + Google colab で試せる実装
入門トピックモデル + Google colab で試せる実装
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
情報科学演習 09
情報科学演習 09
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
言語資源と付き合う
言語資源と付き合う
Rm20130619 9key
Rm20130619 9key
テキストマイニング講義資料
テキストマイニング講義資料
Rm20140423 2key
Rm20140423 2key
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
つながるデータShare
つながるデータShare
シー・ビブリオ
シー・ビブリオ
情報科学演習 09
情報科学演習 09
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Mining topics in documents standing on the shoulders of Big Data. #KDD2014読み...
Chainer with natural language processing hands on
Chainer with natural language processing hands on
20120731 ALC Eijiro User Meeting
20120731 ALC Eijiro User Meeting
opensource and accessibility (Dec2000) Part 2
opensource and accessibility (Dec2000) Part 2
トピックモデルの話
1.
トピックモデルの話 cookpad 勉強会? 2015/04/27 Mon. twitterID:
@kogecoo
2.
自己紹介 • @kogecoo • background:
自然言語処理/機械学習 • 構文解析/ノンパラベイズ • 推薦アルゴリズムを主に(と言いたい)、わりと何でも
3.
はじめに • いきなりトピックモデル本2冊出た • 少し前までは書籍で勉強とはいかなかった •
→ 敷居がだいぶ下がった(twitter調べ) • イケてる本なので両方買いましょう • PRMLでベイズに挫折した人にもオススメ そういう人はついでに これも買いましょう
4.
はじめに • トピックモデルとは • データの背後にある隠れた「トピック」を推定する •
自然言語処理で潜在意味解析という文脈で発展 • ここでのデータは「文書」 • トピック/潜在意味? • → 話題や分野と考えると理解しやすいかも
5.
はじめに • 豊富な応用先 • 文書 •
画像 • 音楽 • etc • 研究だけでなく、実応用も…
6.
大人の事情で割愛
7.
大人の事情で割愛
8.
もくじ • はじめに • Latent
Semantic Indexing (LSI) • Probabilistic LSI (PLSI) • Latent Dirichlet Allocation (LDA) • おわりに
9.
Latent Semantic Indexing •
検索分野で登場 (Deerwester+, 1988) • のでIndexing(Analysisとも) • 同義語の検索を可能にする目的 • car/automobileともに同じ検索結果を得たい • (地味にpatentが取られていた; expired)
10.
Latent Semantic Indexing 文書ベクトル1 dog automobile car 1
0 catwheel rabbit … 1 0 0 0 … 文書ベクトル2 1 1 0 0 0 0 … 文書ベクトル3 0 1 1 0 0 0 … 文書ベクトル4 0 0 0 1 1 0 … 文書ベクトル5 0 0 0 0 1 1 … 文書ベクトル6 0 0 0 0 1 0 … • 文書-語彙の共起行列 • 語の使われ方でなんとなくグルーピングできそう…
11.
• 特異値分解 • からの
低ランク近似 • Sの特異値の小さいものを削る Latent Semantic Indexing X = U S V 文書 語 文書 トピック トピック 語 X = U S V (対角行列) S
12.
• 低ランク近似 • Sの特異値の小さいものを削る •
文書を特徴づけ易い重要な次元が生き残る • ノイズ削減 • 重要な次元 → トピック、重要な次元の数 → トピック数 Latent Semantic Indexing X = U S V 文書 語 文書 トピック トピック 語 S
13.
Latent Semantic Indexing •
LSIの困った所 • U 、V に現れる値の意味付けが困難 • 負の値も取りうる • トピックの軸は直交するよう選ばれる • 頻度分布としてガウス分布を仮定 • etc…
14.
もくじ • はじめに • Latent
Semantic Indexing (LSI) • Probabilistic LSI (PLSI) • Latent Dirichlet Allocation (LDA) • おわりに
15.
Probabilistic LSI • LSIを確率生成モデルとして考え直す(Hoffmann,
1999) • 文書-単語共起行列がどのような経過をたどって作られ たのか? X = U S V 文書 語 文書 トピック トピック 語 S
16.
• PSLIの文書生成 • 文書-単語共起確率 •
文書dが生成 • トピックzが生成 • 単語wが生成 Probabilistic LSI
17.
Probabilistic LSI • ある文書dがあり、その中にある単語wに注目する •
この文書のトピックがあるトピックzである確率 • dの中の単語wについて • トピックzにおける出現のしやすさ • dの出現のしやすさ
18.
Probabilistic LSI • 文書dの出現しやすさp(d)とかよくわからない •
のでベイズの公式を使って消してしまう • 学習データの尤度を最大化する上記3パラメータをEMで推定
19.
Probabilistic LSI • 性質 •
文書ごとに複数のトピックを持ちうる • (トピック数は与える必要がある) • トピックごとに異なる単語生成確率の分布を持ちうる
20.
Probabilistic LSI • PLSIの問題点 •
dは学習コーパス内の文書実体 • 新規文書を自然に扱えない • 推定すべきパラメータ数が多すぎる • 文書数 トピック数 • 過学習し易い
21.
もくじ • はじめに • Latent
Semantic Indexing (LSI) • Probabilistic LSI (PLSI) • Latent Dirichlet Allocation (LDA) • おわりに
22.
Latent Dirichlet Allocation •
PLSIのベイズ化 (Blei+, 2003) • そうすると何が嬉しいか? • dに直接依存しないトピックの確率分布を得られる • 新規文書も扱える この確率分布を生成する確率分布を考える 事前分布を導入 という言い方をする αはトピック数次元の ベクトル
23.
Latent Dirichlet Allocation •
PLSIのベイズ化 • さらに単語分布にスムージングを入れる • ※[Blei+, 2003]で書かれているLDAにはこの拡張が無いもの • Smoothed LDAという名前で同論文で導入 • 多くの参考文書でこちらがLDAとして扱われているので… この確率分布を生成する確率分布を考える βは語彙数次元の ベクトル トピック数分 トピックzにの時の 単語分布のパラメータ
24.
Latent Dirichlet Allocation •
PLSIのベイズ化 • ちなみにこのモデルでは • 文書dのことは完全に忘れる • d中の単語集合w=w1, w2…wNで文書を代表させる
25.
Latent Dirichlet Allocation •
LDAの文書生成 • トピック数Kは与える • 各トピックごとに単語分布を生成 • 各文書ごとにトピック分布を生成 • 単語のトピックを生成 • 上記単語のトピックに該当する単語分布を選び、単語を生成 • たったこれだけ!
26.
もくじ • はじめに • Latent
Semantic Indexing (LSI) • Probabilistic LSI (PLSI) • Latent Dirichlet Allocation (LDA) • おわりに
27.
おわりに • LDAの初出(Blei+; 2003) •
10年以上前 • これを原典として拡張が多く提案されている
28.
おわりに • 著者も一緒にモデリング • トピック間の独立仮定を外す •
トピック間の階層構造を導入 • トピック数Kの自動推定 • 教師あり • etc…
29.
おわりに • LDAはベイズモデルの中ではかなりシンプル • のため、拡張の余地が大きかった •
かつ性能が良い • のため、広く使われるようになった • (と想像 • ベイズワールド初学者にも最適 • しかも本もある。やるなら今!
30.
まとめ • LSI • 特異値分解を利用した次元縮約 •
PSLI • LSIの確率モデル化 • LDA • PLSIのベイズモデル化 • LDAは比較的シンプルだから勉強に良いという話 • 最近出た2冊の本の宣伝
31.
おことわり • 本資料は • 以下の書籍、 •
2013年の統計数理公開講座資料 • 2014年のIBISのチュートリアル • を元に作成されています。問題があればご報告ください。
Download now