Submit Search
Upload
クラシックな機械学習入門 1 導入
•
44 likes
•
9,497 views
Hiroshi Nakagawa
Follow
今や古典的になった機械学習の入門スライドです。通信路モデルから始まり、ベイズ統計によるパラメタ-学習の簡単な例を説明しています。以後、続編が出ます。
Read less
Read more
Engineering
Report
Share
Report
Share
1 of 24
Download now
Download to read offline
Recommended
クラシックな機械学習の入門 8. クラスタリング
クラシックな機械学習の入門 8. クラスタリング
Hiroshi Nakagawa
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
モンテカルロサンプリング
モンテカルロサンプリング
Kosei ABE
Recommended
クラシックな機械学習の入門 8. クラスタリング
クラシックな機械学習の入門 8. クラスタリング
Hiroshi Nakagawa
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
Yoshitake Takebayashi
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
モンテカルロサンプリング
モンテカルロサンプリング
Kosei ABE
Sift特徴量について
Sift特徴量について
la_flance
tf,tf2完全理解
tf,tf2完全理解
Koji Terada
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
Jun Okumura
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
強化学習その1
強化学習その1
nishio
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
シンギュラリティ以前
シンギュラリティ以前
Hiroshi Nakagawa
More Related Content
What's hot
Sift特徴量について
Sift特徴量について
la_flance
tf,tf2完全理解
tf,tf2完全理解
Koji Terada
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
Jun Okumura
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
強化学習その1
強化学習その1
nishio
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
AGIRobots
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
What's hot
(20)
Sift特徴量について
Sift特徴量について
tf,tf2完全理解
tf,tf2完全理解
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
強化学習その1
強化学習その1
Optimizer入門&最新動向
Optimizer入門&最新動向
グラフィカルモデル入門
グラフィカルモデル入門
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
幾何を使った統計のはなし
幾何を使った統計のはなし
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Viewers also liked
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
シンギュラリティ以前
シンギュラリティ以前
Hiroshi Nakagawa
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
Hiroshi Nakagawa
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
Hiroshi Nakagawa
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
Ryota Kamoshida
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
クラシックな機械学習の入門 5. サポートベクターマシン
クラシックな機械学習の入門 5. サポートベクターマシン
Hiroshi Nakagawa
クラシックな機械学習の入門 7. オンライン学習
クラシックな機械学習の入門 7. オンライン学習
Hiroshi Nakagawa
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
シンギュラリティ以後
シンギュラリティ以後
Hiroshi Nakagawa
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
Hiroshi Nakagawa
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
Hiroshi Nakagawa
K匿名と濡れ衣
K匿名と濡れ衣
Hiroshi Nakagawa
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
Yoji Kiyota
タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~
Suyama Ikuo
知能型システム論(後半)
知能型システム論(後半)
Sotetsu KOYAMADA(小山田創哲)
KDD2015論文読み会
KDD2015論文読み会
Sotetsu KOYAMADA(小山田創哲)
強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)
Sotetsu KOYAMADA(小山田創哲)
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
Shohei Okada
Viewers also liked
(20)
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
シンギュラリティ以前
シンギュラリティ以前
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
クラシックな機械学習の入門 5. サポートベクターマシン
クラシックな機械学習の入門 5. サポートベクターマシン
クラシックな機械学習の入門 7. オンライン学習
クラシックな機械学習の入門 7. オンライン学習
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
シンギュラリティ以後
シンギュラリティ以後
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
K匿名と濡れ衣
K匿名と濡れ衣
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~
知能型システム論(後半)
知能型システム論(後半)
KDD2015論文読み会
KDD2015論文読み会
強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
More from Hiroshi Nakagawa
人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス
Hiroshi Nakagawa
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
Hiroshi Nakagawa
NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12
Hiroshi Nakagawa
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会
Hiroshi Nakagawa
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察
Hiroshi Nakagawa
AI and Accountability
AI and Accountability
Hiroshi Nakagawa
AI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
Hiroshi Nakagawa
2019 3-9-nakagawa
2019 3-9-nakagawa
Hiroshi Nakagawa
CPDP2019 summary-report
CPDP2019 summary-report
Hiroshi Nakagawa
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
Hiroshi Nakagawa
Ai e-accountability
Ai e-accountability
Hiroshi Nakagawa
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
Hiroshi Nakagawa
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
Hiroshi Nakagawa
Defamation Caused by Anonymization
Defamation Caused by Anonymization
Hiroshi Nakagawa
人工知能と社会
人工知能と社会
Hiroshi Nakagawa
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
Hiroshi Nakagawa
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
Hiroshi Nakagawa
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
Hiroshi Nakagawa
AI社会論研究会
AI社会論研究会
Hiroshi Nakagawa
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
Hiroshi Nakagawa
More from Hiroshi Nakagawa
(20)
人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察
AI and Accountability
AI and Accountability
AI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
2019 3-9-nakagawa
2019 3-9-nakagawa
CPDP2019 summary-report
CPDP2019 summary-report
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
Ai e-accountability
Ai e-accountability
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
Defamation Caused by Anonymization
Defamation Caused by Anonymization
人工知能と社会
人工知能と社会
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
AI社会論研究会
AI社会論研究会
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
クラシックな機械学習入門 1 導入
1.
通信路モデル Bayes統計 最尤推定とMAP推定 データの性質 1.導入 クラシックな機械学習の入門 by 中川裕志(東京大学)
2.
情報源を記号列(例えば単語列 あるいは文字列)とする Noisy
Channel Model 機械学習の先史時代 --情報の変換過程のモデル化-- 情報源記号 列:t tx 情報変換 雑音(N(0,σ2) etc) 推定処理 :推定さ れた情報 源記号列 出力された記号 列=推定処理 への入力 x 出力された記号列=推定処理への入力データxから 情報源記号列tを推定し を計算する tˆ tˆ
3.
Bayesの定理 P(t|x)は、新たな出力記号列xが得られたときの情 報源から出力された記号列
t を推定する式で、これ を最大化する t すなわち を求めるのが目標。 ところが、このままでは、既に得られている情報を 使えないので、Bayesの定理で変換する。 すると、既知の情報源状態と出力記号列のペアに 関する条件付き確率P(x|t) (=教師データ) 情報源についての事前知識P(t)が使える形になる。 Bayes統計の意義 )( )()|( )|( xP tPtxP xtP xtPt t |maxargˆ
4.
Bayes統計とは 1. 常にBayesの定理を用いる 2. 用いられる確率は主観確率(=確信度) 3.
事前情報を利用する 4. 未知量(確率分布のパラメター)は確率的に 変動 5. 観測されたデータは絶対的 6. 推測は常に条件付 7. アドホックな手続きを認めない
5.
Bayes統計を用いた情報変換過程のモデルに おける出力データからの情報源の推定方法 通信路を条件付確率でモデル化:P(x|t) 目的は
x が観測されたときの t の確率すなわち事後確率 P(t|x)を最大化する情報源の確率。 P(t)は情報源記号列の既知の統計的性質が利用できる P(x|t) は情報源記号列tが情報変換およびnoisy channelの 雑音によってx毎に変化する確率。 この確率は多数の<t,x>対の観測データにより計算する )()|(maxarg )|(maxargˆ tPtxP xtPt t t よりここでベイズの定理に
6.
情報変換過程モデルの適用例 例:機械翻訳 P(t|x) は元言語のテキスト
x(既知)が翻訳先言語 のテキスト t に翻訳される確率 P(x|t) はtという翻訳結果に対する元言語のテキス トがxである確率 P(t) 翻訳先言語におけるテキストtの自然さ。例え ば、N単語列のコーパスにおける 単語3-gram確率 以上の設定で下の式 は機械翻訳の出力 この考え方を元にしたのが現在主流となってきてい る統計的機械翻訳(IBMで1993年に開発された) )()|(maxarg)|(maxargˆ tPtxPxtPt tt tˆ 元言語 x:私がリンゴを食べる 機械 翻訳 翻訳先言語 t: I eat an apple
7.
日英機械翻訳の例 P(リンゴを食べる|eats an
apple)=0.3 P(リンゴを食べる|eats apples)=0.2 P(彼は|He)=1.0 P(He eats apples)=0.2、P(He eats an apple)=0.5 P(He eats an apple|彼はリンゴを食べる) =1.0x0.3x0.5=0.15 P(He eats apples|彼はリンゴを食べる) =1.0x0.2x0.2=0.04 “He eats an apple”のほうが良い英訳 事前知識として P(He eats apple)=0.0 があれば 非文P(He eats apple)=0にできるのがベイズの強み
8.
例:文書分類 P(t|x) においてxが与えられた文書、tがカテゴリ P(t)
はカテゴリtの文書の出現確率 P(x|t)はカテゴリtにおいて文書xが出現する確率 このモデル化にはいろいろな方法があるが、簡単なの は、出現する単語w1,…wN P(x|t) =P(w1,…wN|t)だが、 このままでは計算しにくい のでw1,…wNが独立だとすると これを naïve Bayse 分類とよぶ。 )()|(maxargˆ tPtxPt t 推定されたカテゴリ: N n nN twPtwwP 1 1 )|()|,...,( Why?
9.
文書分類の例:長澤まさみ vs 上野樹里 「長澤まさみ」関連の文書に高い確率で出現 する単語 主演、映画、東宝、吉田礼、薬師丸ひろ子、サッカー、 「上野樹里」関連の文書に高い確率で出現す る単語 主演、のだめ、カンタービレ、ドラマ、ラスト、フジテレビ、 分類したい文書:Dの含む単語は 主演、ラスト、フレンズ P(主演|長澤)=0.1、P(主演|上野)=0.1 P(ラスト|長澤)=0.2、P(ラスト|上野)=0.2 P(フレンズ|長澤)=0.2、P(フレンズ|上野)=0.2
10.
Googleのヒット数から推定したところ、 P(長澤)=0.6、 P(上野)=0.4 P(長澤|D)=P(D|長澤)P(長澤) =P(主演|長澤)P(ラスト|長澤)P(フレンズ|長澤)P(長澤) =0.1x0.2x0.2x0.6=0.0024
P(上野|D)=P(D|上野)P(上野) =P(主演|上野)P(ラスト|上野)P(フレンズ|上野)P(上野) =0.1x0.2x0.2x0.4=0.0016 よって、文書Dは長澤に分類 しかし、Dに「カンタービレ」という単語も含まれ、 P(カン..|長澤)=0.1、P(カン..|上野)=0.8だと P(長澤|D)=0.00024、P(上野|D)=0.00128 で文書Dは上野に分類。 直感にあっているようだ!
11.
教師あり学習 上記の例では、情報源のモデルであるP(t)やP(x|t)は単に出現 確率だったが、ここで適切な確率分布を考えることが可能 すると、その分布を決めるパラメターを推定する必要が出てく る。
そのために<t,x>という情報源の状態と出力データの対デー タが多数入手できれば利用する。 この<t,x>を教師データ(あるいは観測データ)と呼ぶ。 すると、機械学習の中心となる教師あり学習は、 確率分布P(t)、P(x|t)のパラメターを 教師データ<t,x>を利用して求める という問題になる。
12.
教師なし学習 教師あり学習では教師データ<t,x>の集合が与えられた状態 で、P(t)やP(x|t)のパラメターを求めた。 しかし、データ<x>の集合だけが与えられていて(tは与えら れていない)ときはどうする? データ<x>の集合から、P(x)のパラメターだ けを求めることになる。
直観的には、データ<x>を類似したものにグループ化する クラスタリングと言い、グループのことをクラスタと呼ぶ。 これを教師なし学習と呼ぶ。
13.
識別モデルと生成モデル 入力データxに対応する予測値tを求める 識別モデル(discrimiative
model):p(t|x)を直接モデ ル化する。 このp(t|x)によって、未知のxに対するtを 予測(あるいは推定)する方法 t=f(x)となる関数を直接求めるものもあり。 生成モデル(generative model):ベイズの定理で p(t|x)をp(x|t)p(t)/p(x)に変換。p(x|t)を学習。p(t)を事 前データから求める。これと既知の<x,t>のペアの データからp(x|t)のパラメターを更新。これによって、 未知のxに対するtを求めるp(t|x)の確率分布をモデ ル化する。 事前 分布 観測データが知られて後のp(x|t)の事後分布
14.
|XP ˆ
|,...,maxargˆ 1 NXXP |,...,logmaxargˆ 1 NXXP P 個の観測データはただし、 N,..,XX PXXP N N 1 1 |,...,logmaxargˆ 、 最尤推定とMAP推定 最尤推定 分布 のパラメタ-θの推定値 を以下の式で求 める あるいは対数をとり推定:対数尤度の最大化 MAP推定(事後確率の最大化) 事前確率 が与えられていたときには、次式のように 事後分布の確率を最大化するパラメタ-を求める
15.
XX XP 1 1 問題1 (Xiは、0か1)で定義されるベルヌ- イ試行を独立にN回繰り返したとき、0がm回、1がN-m回 観測されたとする。最尤推定して θを求めよ また、事前分布として、 のときのMAP推定した θ を求めよ。 この場合の結果の意味を考察せよ。 問題2 次式の多項分布 において最尤推定して θi を求めよ。 事前分布が、 の場合の、MAP推定した θi を求めよ 10 ただし、bP 1 !! ! 1 1 1 1 K k k X K X K K XX N XP 11 1 1 1 1 K K K K P
16.
今までは、情報源の記号tと出力記号列(= 直接に観測されたデータ)xは、機械学習にお いて直接に計算の対象としていた。 この仮定が成立する場合も多い。 身長、体重、薬の濃度、価格、などの(連続)数値データ 人数、個数、などの整数をとる数値データ 割合、%など 男女、国籍など属性が記号の場合(整数に変換すれば数 値として処理可能) しかし、必ずしも直接に観測されたデータだけ を使える場合ばかりではない。 データの性質
17.
観測データを表す情報の次元 観測データ点が人間の場合の例 x=(身長、体重、血圧、収入金額)T数値だけな ので簡単。単位は外部知識とする。 Ex (170, 50,
120, 10,000,000) 確率分布としては正規分布など。 x=(職業、発熱)T 記号。2つの方法 記号に番号を与える。Ex 無職=0, 学生=1,..、発熱 無=0、有=1 確率分布としては離散数値をとる分布など。数値の意味付け が難しい。 記号の種別ごとに1次元を与える(次のページ参照)
18.
記号の種類ごとに次元を割り当てる方法 x=(訪問国1、,…,訪問国N)T ex(USA,UK,Italy)
T 対策:国を番号つける。 (USA=1, UK=2, Japan=3, China=4, Italy=5,…) この番号がベクトルの何番目の要素かを示すとして、数 値のベクトルとして表現 : Bernoulli分布: 上のexは (1,1,0,0,1,….) T このベクトルの次元は世界中の国の数だけあるため、か なり大きい。しかし、観測データには0が多く、スパースな データ 記号の出現回数のある場合 x=((訪問国1、滞在日数1),…,(訪問国N、滞在日数))T ex((USA,15),(UK,5),(Italy,3)) T (15,5,0,0,3,….) T 多項分布: xx xBern 1 )1()|( 300515 ,...),,,,|,...3,0,0,5,15( ItalyChinaJapanUKUSA ItalyChinaJapanUKUSAMult
19.
次元の大きさ 国と滞在日数の例と同じタイプの問題を、テキストデ ータで考えてみよう。 あるテキストを表現するには、そのテキストに出現し た各単語の個数で表現する。 次元は語彙数
日本語の新聞では約40万語。固有名詞 や複合語まで入れると、100万以上。 100万次元の ベクトルを扱う必要あり! 個々の単語だけを対象にすれば済むのか? ABC証券、ABC証券株式会社、… 、総理が失言、総理が訂正、 …、というような単語の連鎖で見ないと分からない場合は? N単語の連鎖(=N-gram)の種類数は、100万のN乗!!! しかし、このような多次元がすべて重要な情報だとも思えない 次元圧縮の技術が有望 i.e. Singular Value Decomposition (SVD)とかLatent Semantic Indexing(LSI)
20.
特殊性を表すデータ 1 これまでに示したデータ点の数値は、観測さ れた数値(出現回数など)を直接使っていた。 観測データ全体の構造を利用したtf*idfと呼 ばれる数値も有力 データ点頻度 Data
point Frequency : DF ただし、DF(j)はj番目の次元のデータが0でな いデータ点の数 また、観測データ点の総数をNとする。
21.
特殊性を表すデータ 2 データ点頻度 Data
point frequency:DF ただし、DF(j)はj番目の次元のデータが0でな いデータ点の数 また、観測データ点の総数をNとする。 IDF(j)=1/DF(j) TF(i,j)=観測データ点iで第j次元のデータの 出現回数 TF*IDFの定義: DF(j) logj)TF(i,j)IDF(i,*TFw ji, N
22.
例 データ例 旅行者a:(USA=10, UK=2,
Japan=3, China=0, Italy=0) 旅行者b:(USA=0, UK=2, Japan=0, China=4, Italy=0) 旅行者c:(USA=5, UK=0, Japan=2, China=0, Italy=0) 旅行者d:(USA=2, UK=0, Japan=1, China=2, Italy=1) DF(USA)=3, DF(UK)=2, DF(JP)=3. DF(CH)=2, DF(IT)=1 N/DF(..)は USA=4/3, UK=4/2, JP=4/3, CH=4/2, IT=4/1 TF*IDF(USA,a)=10*log(4/3)=4.114, TF*IDF(USA,b)=0 TF*IDF(UK,a)=2*log(4/2)=2 TF*IDF(IT,d)=1*log(4/1)=2
23.
特殊性を表すデータ 3 TF*IDFの定義: TF*IDF(i,j)は、データ点: iだけで特別に多く 現れる次元:
jの数値を表す。 例えば、新聞の1記事を観測データ点とし、次元 を単語とすると、TF*IDF(i,j)の大きな単語iは、偏 りのある特殊ないし専門の単語、小さな単語は一 般的な単語といえる。 TF*DIFを用いて観測データ点を表現しなお すと、いろいろなことが見えてくることがある。 DF(j) logj)TF(i,j)IDF(i,*TFw ji, N
24.
観測データ点を多次元空間中の点と定義 そこで2つの問題 各次元は観測データ点からどのように定義するか 次元のことをfeatureあるいは素性(そせい)と呼ぶ この問題をfeature design :素性設計と呼ぶ。例えば、
2つの素性の比を新たな素性とする ex 身長/体重 2つの素性の連続したもの ex 日本・銀行、 日本・沈没、 しかし、これは個別適用分野に応じて工夫すべし。 多次元空間における2点間の距離の定義 ユークリッド距離ばかりではないのだ! この話は後にまた丁寧にします。 距離の定義
Download now