Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
moritama1515
PPTX, PDF
3,210 views
EMアルゴリズム
勉強会用に作成した資料です. 続わかりやすいパターン認識
Technology
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Downloaded 13 times
1
/ 20
2
/ 20
3
/ 20
4
/ 20
5
/ 20
6
/ 20
7
/ 20
8
/ 20
9
/ 20
10
/ 20
11
/ 20
12
/ 20
13
/ 20
14
/ 20
15
/ 20
16
/ 20
17
/ 20
18
/ 20
19
/ 20
20
/ 20
More Related Content
PDF
双対性
by
Yoichi Iwata
PDF
Re永続データ構造が分からない人のためのスライド
by
Masaki Hara
PDF
最適輸送の解き方
by
joisino
PDF
Binary indexed tree
by
HCPC: 北海道大学競技プログラミングサークル
PDF
最小カットを使って「燃やす埋める問題」を解く
by
shindannin
PDF
最適輸送入門
by
joisino
PDF
指数時間アルゴリズムの最先端
by
Yoichi Iwata
PPTX
Prml 最尤推定からベイズ曲線フィッティング
by
takutori
双対性
by
Yoichi Iwata
Re永続データ構造が分からない人のためのスライド
by
Masaki Hara
最適輸送の解き方
by
joisino
Binary indexed tree
by
HCPC: 北海道大学競技プログラミングサークル
最小カットを使って「燃やす埋める問題」を解く
by
shindannin
最適輸送入門
by
joisino
指数時間アルゴリズムの最先端
by
Yoichi Iwata
Prml 最尤推定からベイズ曲線フィッティング
by
takutori
What's hot
PDF
最適輸送の計算アルゴリズムの研究動向
by
ohken
PPTX
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
by
Kosuke Shinoda
PDF
最適化超入門
by
Takami Sato
PDF
図と実装で理解する『木構造入門』
by
Proktmr
PDF
続・わかりやすいパターン認識第5章
by
Roy Ray
PDF
プログラミングコンテストでのデータ構造
by
Takuya Akiba
PDF
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
by
Toshihiro Kamishima
PDF
プログラミングコンテストでの動的計画法
by
Takuya Akiba
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
PDF
グラフニューラルネットワークとグラフ組合せ問題
by
joisino
PDF
Convex Hull Trick
by
HCPC: 北海道大学競技プログラミングサークル
PPTX
充足可能性問題のいろいろ
by
Hiroshi Yamashita
PDF
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
PPTX
強化学習 DQNからPPOまで
by
harmonylab
PPTX
動的計画法を極める!
by
HCPC: 北海道大学競技プログラミングサークル
PDF
スペクトラルグラフ理論入門
by
irrrrr
PPTX
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
PDF
PRML輪読#4
by
matsuolab
PPTX
Graph Convolutional Network 概説
by
KCS Keio Computer Society
PPTX
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
by
Makoto Takenaka
最適輸送の計算アルゴリズムの研究動向
by
ohken
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
by
Kosuke Shinoda
最適化超入門
by
Takami Sato
図と実装で理解する『木構造入門』
by
Proktmr
続・わかりやすいパターン認識第5章
by
Roy Ray
プログラミングコンテストでのデータ構造
by
Takuya Akiba
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
by
Toshihiro Kamishima
プログラミングコンテストでの動的計画法
by
Takuya Akiba
最近のDeep Learning (NLP) 界隈におけるAttention事情
by
Yuta Kikuchi
グラフニューラルネットワークとグラフ組合せ問題
by
joisino
Convex Hull Trick
by
HCPC: 北海道大学競技プログラミングサークル
充足可能性問題のいろいろ
by
Hiroshi Yamashita
coordinate descent 法について
by
京都大学大学院情報学研究科数理工学専攻
強化学習 DQNからPPOまで
by
harmonylab
動的計画法を極める!
by
HCPC: 北海道大学競技プログラミングサークル
スペクトラルグラフ理論入門
by
irrrrr
Curriculum Learning (関東CV勉強会)
by
Yoshitaka Ushiku
PRML輪読#4
by
matsuolab
Graph Convolutional Network 概説
by
KCS Keio Computer Society
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
by
Makoto Takenaka
Viewers also liked
PPTX
劣モジュラ最適化と機械学習1章
by
Hakky St
PPTX
劣モジュラ最適化と機械学習 2.4節
by
Hakky St
PDF
混合モデルとEMアルゴリズム(PRML第9章)
by
Takao Yamanaka
PPTX
劣モジュラ最適化と機械学習 3章
by
Hakky St
KEY
アンサンブル学習
by
Hidekazu Tanaka
PDF
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
PPTX
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
by
Yuichi Yoshida
PDF
機会学習ハッカソン:ランダムフォレスト
by
Teppei Baba
PDF
Chapter9 2
by
Takuya Minagawa
PDF
数式を使わずイメージで理解するEMアルゴリズム
by
裕樹 奥田
PPTX
劣モジュラ最適化と機械学習 2.5節
by
Hakky St
PDF
続・わかりやすいパターン認識_3章
by
weda654
PPTX
『劣モジュラ最適化と機械学習』 4章
by
ayato shimada
PDF
第一回ぞくパタ
by
Akifumi Eguchi
PDF
第2回ぞくパタ
by
Akifumi Eguchi
PPTX
第14章集団学習
by
Kei Furihata
PDF
続・わかりやすいパターン認識4章(関西機械学習勉強会発表スライド)
by
Eriko Nomoto
劣モジュラ最適化と機械学習1章
by
Hakky St
劣モジュラ最適化と機械学習 2.4節
by
Hakky St
混合モデルとEMアルゴリズム(PRML第9章)
by
Takao Yamanaka
劣モジュラ最適化と機械学習 3章
by
Hakky St
アンサンブル学習
by
Hidekazu Tanaka
20130716 はじパタ3章前半 ベイズの識別規則
by
koba cky
有向グラフに対する 非線形ラプラシアンと ネットワーク解析
by
Yuichi Yoshida
機会学習ハッカソン:ランダムフォレスト
by
Teppei Baba
Chapter9 2
by
Takuya Minagawa
数式を使わずイメージで理解するEMアルゴリズム
by
裕樹 奥田
劣モジュラ最適化と機械学習 2.5節
by
Hakky St
続・わかりやすいパターン認識_3章
by
weda654
『劣モジュラ最適化と機械学習』 4章
by
ayato shimada
第一回ぞくパタ
by
Akifumi Eguchi
第2回ぞくパタ
by
Akifumi Eguchi
第14章集団学習
by
Kei Furihata
続・わかりやすいパターン認識4章(関西機械学習勉強会発表スライド)
by
Eriko Nomoto
Similar to EMアルゴリズム
PDF
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
by
Preferred Networks
PDF
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
PDF
混合ガウスモデルとEMアルゴリスム
by
貴之 八木
PDF
幾何を使った統計のはなし
by
Toru Imai
PDF
パターン認識と機械学習 13章 系列データ
by
emonosuke
PDF
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
PDF
パターン認識 04 混合正規分布
by
sleipnir002
PDF
人工知能2018 6 強化学習の基礎
by
Hirotaka Hachiya
PDF
情報幾何勉強会 EMアルゴリズム
by
Shinagawa Seitaro
PPTX
Gmm勉強会
by
Hayato Ohya
PDF
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
PDF
人工知能2018 強化学習の応用
by
Hirotaka Hachiya
PDF
社内機械学習勉強会 #5
by
shingo suzuki
PDF
Oshasta em
by
Naotaka Yamada
PDF
How to study stat
by
Ak Ok
PDF
Unified Expectation Maximization
by
Koji Matsuda
PDF
PRML 9章
by
ぱんいち すみもと
PDF
Data-Intensive Text Processing with MapReduce ch6.1
by
Sho Shimauchi
PPTX
KDD2015読み会 Matrix Completion with Queries
by
Toshihiro Nakae
PDF
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
by
Yuma Yoshimoto
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
by
Preferred Networks
SMO徹底入門 - SVMをちゃんと実装する
by
sleepy_yoshi
混合ガウスモデルとEMアルゴリスム
by
貴之 八木
幾何を使った統計のはなし
by
Toru Imai
パターン認識と機械学習 13章 系列データ
by
emonosuke
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
パターン認識 04 混合正規分布
by
sleipnir002
人工知能2018 6 強化学習の基礎
by
Hirotaka Hachiya
情報幾何勉強会 EMアルゴリズム
by
Shinagawa Seitaro
Gmm勉強会
by
Hayato Ohya
Bishop prml 9.3_wk77_100408-1504
by
Wataru Kishimoto
人工知能2018 強化学習の応用
by
Hirotaka Hachiya
社内機械学習勉強会 #5
by
shingo suzuki
Oshasta em
by
Naotaka Yamada
How to study stat
by
Ak Ok
Unified Expectation Maximization
by
Koji Matsuda
PRML 9章
by
ぱんいち すみもと
Data-Intensive Text Processing with MapReduce ch6.1
by
Sho Shimauchi
KDD2015読み会 Matrix Completion with Queries
by
Toshihiro Nakae
PATTERN RECOGNITION AND MACHINE LEARNING (1.1)
by
Yuma Yoshimoto
Recently uploaded
PDF
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
PDF
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
PDF
Drupal Recipes 解説 .
by
iPride Co., Ltd.
PDF
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
PDF
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
PDF
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
PDF
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
PPTX
ddevについて .
by
iPride Co., Ltd.
2025→2026宙畑ゆく年くる年レポート_100社を超える企業アンケート総まとめ!!_企業まとめ_1229_3版
by
sorabatake
第21回 Gen AI 勉強会「NotebookLMで60ページ超の スライドを作成してみた」
by
嶋 是一 (Yoshikazu SHIMA)
Drupal Recipes 解説 .
by
iPride Co., Ltd.
さくらインターネットの今 法林リージョン:さくらのAIとか GPUとかイベントとか 〜2026年もバク進します!〜
by
法林浩之
100年後の知財業界-生成AIスライドアドリブプレゼン イーパテントYouTube配信
by
e-Patent Co., Ltd.
Starlink Direct-to-Cell (D2C) 技術の概要と将来の展望
by
CRI Japan, Inc.
Reiwa 7 IT Strategist Afternoon I Question-1 3C Analysis
by
akipii ogaoga
Reiwa 7 IT Strategist Afternoon I Question-1 Ansoff's Growth Vector
by
akipii ogaoga
ddevについて .
by
iPride Co., Ltd.
EMアルゴリズム
1.
EMアルゴリズム @clear0015
2.
お品書き(第6章 EMアルゴリズム p90〜) •
教師なし学習に伴う問題 • log-sumからsum-logへ • Q関数の特性 • Q関数の最大化 • EMアルゴリズムと補助関数法 2
3.
EMアルゴリズムとは?→ 教師なし学習に伴う問題 前回の復習 ■教師付き学習(ラベル付きパターン,完全データ) ・サイコロを投げる度に出た目だけでなく種類も教えてくれる = 所属クラスを示すラベルが貼られている ■教師なし学習(ラベルなしパターン,不完全データ) ・観測できるのはサイコロの目のみ =
所属クラスを示すラベルが貼られていない 𝑃 𝑥, 𝑠 𝑃 𝑥 = 𝑠 𝑃(𝑥, 𝑠) マルコフ性を前提 3
4.
𝑙𝑜𝑔𝑃 𝑥, 𝑠
= 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑠𝑡 + 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑥𝑡|𝑠𝑡 = 𝐿1 + 𝐿2 ■教師付き学習 教師なし学習に伴う問題(最尤推定) ■教師なし学習 𝑙𝑜𝑔𝑃 𝑥 = 𝑙𝑜𝑔 𝑃 𝑥, 𝑠 パラメータ𝜋𝑖,θ𝑖の推定は𝐿1,𝐿2を最大化することにより求まる 計算量が膨大で最大化計算が困難(微分形の扱いも面倒) 4
5.
EMアルゴリズムとは?(ざっくり説明) 「log-sumの目的関数をsum-logの形で最大化する手法」 ・最尤推定値を逐次解法によって求める(実用的) (ニュートン法などと違いヘッセ行列や逆行列計算を必要としない) ・通常統計モデルの算法として説明されるがこの本では 限定しない. 5
6.
パラメータの存在を陽に示すため,次の様式を用いる. 𝜃 = (𝜃1,
… , 𝜃𝑐, 𝜋1, … , 𝜋 𝑐)パラメータベクトル: • P(x) → P(x;θ) • P(s|x) → P(s|x;θ) • P(x|s) → P(x|s;θ) 6
7.
EMアルゴリズム • step1 パラメータθ0の初期値を与える(パラメータの初期化) •
step2 パラメータθ0を用いてQ(θ0,θ)を求める • step3 パラメータθ0を定数とみなし, Q(θ0,θ)を最大にするθを求める • step4 対数有度logP(x;θ)を求め,その増分が予め定めた闘値以下なら収束した とみなし終了.さもなければθ0←θと設定し,step2に戻って同じ処理を繰り返す 7
8.
log-sumからsum-logへ log-sumの形をした目的関数 𝜕𝐽 θ 𝜕θ = 𝜕 𝜕𝜃 𝑖=1 𝑐 𝑓𝑖(θ) 𝑗=1 𝑐 𝑓𝑗(θ) =
0 𝐽 θ = 𝑙𝑜𝑔 𝑖=1 𝑐 𝑓𝑖(θ) 普通に解こうとすると... 苦しい 8
9.
ℎ𝑖 0 = 𝑓𝑖(θ0 ) 𝑗=1 𝑐 𝑓𝑗(θ0) 更新前と更新後のパラメータ2種類を考える ℎ𝑖 0 > 0, 𝑖=1 𝑐 ℎ𝑖 0 = 1 𝐽
θ = 𝑙𝑜𝑔 𝑖=1 𝑐 𝑓𝑖 θ = 𝑙𝑜𝑔 𝑖=1 𝑐 ℎ 𝑖 0 𝑓 𝑖(θ) ℎ 𝑖 0 ≥ 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 𝑓 𝑖(θ) ℎ 𝑖 0 イェンゼンの不等式より 9
10.
イェンゼンの不等式 p297 定理A.5 関数f(x)が凸関数であるとする.このとき, 𝑝1
+ 𝑝2 + … + 𝑝 𝑛 = 1 0 ≤ 𝑝𝑖 ≤ 1 (𝑖 = 1,2, … , 𝑛) を満たすpiに対して 𝑓(𝑝1 𝑥1 + 𝑝2 𝑥2 + ⋯ + 𝑃𝑛 𝑥 𝑛) ≤ 𝑝1 𝑓(𝑥1) + 𝑝2 𝑓(𝑥2) + ⋯ + 𝑝 𝑛 𝑓(𝑥 𝑛) が成り立つ. 10
11.
𝑙𝑜𝑔 𝑖=1 𝑐 𝑓𝑖 θ − 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 𝑓𝑖(θ) ℎ𝑖 0
= 𝑗=1 𝑐 ℎ𝑗 0 (𝑙𝑜𝑔 𝑖=1 𝑐 𝑓𝑖 θ − 𝑙𝑜𝑔 𝑓𝑗 𝜃 ℎ𝑗 0 ) = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 ℎ 𝑗 0 ℎ 𝑗 不等式の両辺の差 ∵ 𝑗=1 𝑐 ℎ𝑗 0 = 1 ℎ𝑖 0 = 𝑓𝑖(θ0) 𝑗=1 𝑐 𝑓𝑗(θ0) 11
12.
KLダイバージェンス p299 二つの確率関数の相違度を表す尺度 ℎ𝑖 0 =
𝐻0 𝑥𝑖 , ℎ𝑖 = 𝐻 𝑥𝑖 (𝑖 = 1,2, … , 𝑐) ここで,二つの確率関数を定義する. 𝐾𝐿 𝑃, 𝑄 ≝ 𝑋 𝑃 𝑋 𝑙𝑜𝑔 𝑃(𝑋) 𝑄(𝑋) 𝐾𝐿 𝐻0 , 𝐻 = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 ℎ𝑗 0 ℎ𝑗 12
13.
𝐽 θ = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 𝑓𝑖(θ) ℎ𝑖 0
+ 𝐾𝐿 𝐻0 , 𝐻 𝐽 θ0 = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 𝑓𝑖(θ0 ) ℎ𝑖 0 + 𝐾𝐿 𝐻0, 𝐻0 θ → θ0 𝐽 θ − 𝐽 θ0 = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ − ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ0 + 𝐾𝐿 𝐻0 , 𝐻 辺々引き算すると, 𝐾𝐿 𝐻0, 𝐻0 = 0であるため, Q関数 13
14.
𝐽 θ −
𝐽 θ0 = 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ − ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ0 + 𝐾𝐿 𝐻0, 𝐻 𝑄(θ0,θ) ≝ 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ Q関数 𝐽 θ − 𝐽 θ0 = 𝑄 θ0, θ − 𝑄 θ0, θ0 + 𝐾𝐿(𝐻0, 𝐻) KLダイバージェンスの性質より,𝐾𝐿 𝐻0 , 𝐻 ≥ 0 𝑄 θ0, θ ≥ 𝑄 θ0, θ0 𝐽 θ ≥ 𝐽 θ0 θを繰り返し更新することによりJ(θ)は単調増加し,特定の値に収束する 14
15.
𝐽 θ ≥ 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔 𝑓𝑖(θ) ℎ𝑖 0 EMアルゴリズムの数式による表現 =
ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ0 − 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ = 𝑄 θ0 ,θ − 𝑖=1 𝑐 ℎ𝑖 0 𝑙𝑜𝑔𝑓𝑖 θ step1 step2 step3 15
16.
例6.1より 𝑄 θ0, θ
= 𝑠 𝑃 𝑠 𝑥; θ0 𝑙𝑜𝑔𝑃(𝑥, 𝑠; θ) = 𝑠 𝑃 𝑠1 𝑥1; θ0 ・・・𝑃 𝑠 𝑛 𝑥 𝑛; θ0 ∙ (𝑙𝑜𝑔𝑃(𝑥1, 𝑠1; θ0) + ⋯ + 𝑙𝑜𝑔𝑃(𝑥 𝑛, 𝑠 𝑛; θ0)) = 𝑡=1 𝑛 𝑄𝑡(θ0, θ) 𝑄𝑡(θ0, θ) ≝ s 𝑃(𝑠1|𝑥1; θ0) ・・・𝑃 𝑠 𝑛 𝑥 𝑛; θ0 ∙ (𝑙𝑜𝑔𝑃(𝑥𝑡, 𝑠𝑡; θ0) ただし, 16
17.
𝑄𝑡 θ0 , θ
= ( 𝑠 𝑡 𝑃 𝑠𝑡 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 𝑥𝑡, 𝑠𝑡; θ0 ) ∙ 𝑠−𝑡 𝑃 𝑠−𝑡 𝑥−𝑡; θ0 = 𝑠 𝑡 𝑃 𝑠𝑡 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 𝑥𝑡, 𝑠𝑡; θ0 𝑠 − 𝑡は𝑠から𝑠𝑡を除いた集合 Q関数の特性 𝑠−𝑡 𝑃 𝑠−𝑡 𝑥−𝑡; θ0 は,事後確率𝑃 𝑠−𝑡 𝑥−𝑡; θ0 における𝑠−𝑡の全ての可能な値の組の和であるから 𝑠−𝑡 𝑃 𝑠−𝑡 𝑥−𝑡; θ0 = τ=1 (τ≠𝑡) 𝑛 ( 𝑠τ 𝑃(𝑠τ|𝑥τ; θ0)) = 1 17
18.
= 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡;
θ0 𝑙𝑜𝑔𝑃 𝑥𝑡, ω𝑖; θ0𝑄𝑡 θ0, θ 𝑠 𝑡 = 𝑠 𝑡=ω1 ω 𝑐 であることを利用して, = 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 ω𝑖 + 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 𝑥𝑡, ω𝑖 = 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 ω𝑖 𝑃(𝑥𝑡|ω𝑖) = 𝑡=1 𝑛 𝑄𝑡(θ0, θ)𝑄𝑡 θ0, θ に代入 18
19.
19 = 𝑡=1 𝑛 𝑄𝑡(θ0, θ)𝑄𝑡 θ0,
θ = 𝑡=1 𝑛 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 ω𝑖 + 𝑡=1 𝑛 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 𝑥𝑡|ω𝑖 = 𝑅1 + 𝑅2 𝑙𝑜𝑔𝑃 𝑥, 𝑠 = 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑠𝑡 + 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑥𝑡|𝑠𝑡 = 𝐿1 + 𝐿2 ■教師付き学習 比較
20.
20 教師付き学習との関係 𝑙𝑜𝑔𝑃 𝑥, 𝑠;
θ = 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑠𝑡 + 𝑡=1 𝑛 𝑙𝑜𝑔𝑃 𝑥𝑡|𝑠𝑡 = 𝐿1 + 𝐿2 教師付きの場合,𝑠𝑡 𝑡 = 1, … , 𝑛 は既知 𝑃 ω𝑖 𝑥𝑡; θ0 = 1 (𝑠𝑡 = ω𝑖のとき) 0 (𝑠𝑡 ≠ ω𝑖のとき) 𝑅1 = 𝑡=1 𝑛 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 ω𝑖 = 𝑡=1 𝑛 ( 𝑖=1 𝑐 𝑃 ω𝑖 𝑥𝑡; θ0 𝑙𝑜𝑔𝑃 ω𝑖 ) = 𝑡=1 𝑛 𝑙𝑜𝑔𝑃(𝑠𝑡) = 𝐿1 𝑅2も同様にして𝑅2 = 𝐿2 教師付きはQ関数を最大化するという教師なしの場合の パラーメータ推定の特別な場合として考えられる
Download