Submit Search
Upload
モンテカルロ法と情報量
•
Download as PPTX, PDF
•
4 likes
•
1,691 views
Shohei Miyashita
Follow
Machine Learning a Probabilistic Perspective Ch.2-7, 2-8
Read less
Read more
Engineering
Report
Share
Report
Share
1 of 53
Download now
Recommended
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
ゼミで発表した資料です。間違っていたらTwitterに連絡ください。@ottamm_190
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
2018/10/19 Deep Learning JP: http://deeplearning.jp/seminar-2/
Recommended
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
PRML第6章「カーネル法」
PRML第6章「カーネル法」
Keisuke Sugawara
パターン認識と機械学習(PRML)の第6章「カーネル法」です 文字多め
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
ゼミで発表した資料です。間違っていたらTwitterに連絡ください。@ottamm_190
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
2018/10/19 Deep Learning JP: http://deeplearning.jp/seminar-2/
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
6/9 (木) 14:45~15:15 メイン会場 講師:石井 雅人 氏(ソニーグループ株式会社) 概要: 機械学習技術の急速な発達により、コンピュータによる知的処理は様々なタスクで人間に匹敵あるいは凌駕する性能を達成してきた。一方、このような高い性能は大量かつ高品質な学習データによって支えられており、多様化する機械学習応用においてデータの収集コストが大きな導入障壁の1つとなっている。本講演では、少ないデータやラベルから効率的に学習するための様々な技術について、「足りない情報をどのように補うか?」という観点から概観するとともに、特に画像認識分野における最新の研究動向についても紹介する。
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
多項分布とディリクレ分布の簡単な解説です。 正規分布とかはわかっている人向けです。 LDAの勉強などで使えるかも?
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
京都大学大学院情報学研究科 最適化数理分野 Coordinate Descent 法 (座標降下法) のサーベイ
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
BERTを理解するためのTransformer雰囲気紹介スライドです.
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
2018/09/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
2020/11/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
harmonylab
この論文は,VQ-VAEとPixelCNNを用いた生成モデルを提案しています. VQ-VAEの階層化と,PixelCNNによる尤度推定により,生成画像の解像度向上・多様性の獲得・一般的な評価が可能になった.
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 6月10日 (木) 11:00 - 12:30 メイン会場(vimeo + sli.do) 登壇者:松井 孝太 氏(名古屋大学) 概要:転移学習とは、解きたいタスクに対して、それと異なるが似ている他のタスクからの知識(データ、特徴、モデルなど)を利用するための方法を与える機械学習のフレームワークです。深層モデルの学習方法として広く普及している事前学習モデルの利用は、この広義の転移学習の一つの実現形態とみなせます。本発表では、まず何をいつ転移するのか (what/when to transfer) といった転移学習の基本概念と定式化を説明し、具体的な転移学習の主要なアプローチとしてドメイン適応、メタ学習について解説します。
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
[第3回分析コンペLT会 、オンライン開催] (https://kaggle-friends.connpass.com/event/220927/) での発表資料です。 画像コンペに出るうえで便利過ぎる timm(pytorch image models) の紹介をしました。
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
2012年度日本行動計量学会チュートリアルのスライド
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
LDA入門
LDA入門
正志 坪坂
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。2020の目標は「トップ会議30+本投稿」することです。 http://xpaperchallenge.org/cv/
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド
keiodig
慶應義塾大学データビジネス創造コンソーシアム 第4回スキル養成講座の講座資料
More Related Content
What's hot
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
WACODE 3rdの資料
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
shima o
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
6/9 (木) 14:45~15:15 メイン会場 講師:石井 雅人 氏(ソニーグループ株式会社) 概要: 機械学習技術の急速な発達により、コンピュータによる知的処理は様々なタスクで人間に匹敵あるいは凌駕する性能を達成してきた。一方、このような高い性能は大量かつ高品質な学習データによって支えられており、多様化する機械学習応用においてデータの収集コストが大きな導入障壁の1つとなっている。本講演では、少ないデータやラベルから効率的に学習するための様々な技術について、「足りない情報をどのように補うか?」という観点から概観するとともに、特に画像認識分野における最新の研究動向についても紹介する。
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
多項分布とディリクレ分布の簡単な解説です。 正規分布とかはわかっている人向けです。 LDAの勉強などで使えるかも?
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
京都大学大学院情報学研究科 最適化数理分野 Coordinate Descent 法 (座標降下法) のサーベイ
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
BERTを理解するためのTransformer雰囲気紹介スライドです.
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
2018/09/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
1/24 パンハウスゼミ
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
2020/11/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
harmonylab
この論文は,VQ-VAEとPixelCNNを用いた生成モデルを提案しています. VQ-VAEの階層化と,PixelCNNによる尤度推定により,生成画像の解像度向上・多様性の獲得・一般的な評価が可能になった.
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 6月10日 (木) 11:00 - 12:30 メイン会場(vimeo + sli.do) 登壇者:松井 孝太 氏(名古屋大学) 概要:転移学習とは、解きたいタスクに対して、それと異なるが似ている他のタスクからの知識(データ、特徴、モデルなど)を利用するための方法を与える機械学習のフレームワークです。深層モデルの学習方法として広く普及している事前学習モデルの利用は、この広義の転移学習の一つの実現形態とみなせます。本発表では、まず何をいつ転移するのか (what/when to transfer) といった転移学習の基本概念と定式化を説明し、具体的な転移学習の主要なアプローチとしてドメイン適応、メタ学習について解説します。
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
[第3回分析コンペLT会 、オンライン開催] (https://kaggle-friends.connpass.com/event/220927/) での発表資料です。 画像コンペに出るうえで便利過ぎる timm(pytorch image models) の紹介をしました。
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
2012年度日本行動計量学会チュートリアルのスライド
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
LDA入門
LDA入門
正志 坪坂
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。2020の目標は「トップ会議30+本投稿」することです。 http://xpaperchallenge.org/cv/
What's hot
(20)
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
階層ベイズによるワンToワンマーケティング入門
階層ベイズによるワンToワンマーケティング入門
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
深層生成モデルと世界モデル
深層生成モデルと世界モデル
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
最適輸送の解き方
最適輸送の解き方
変分ベイズ法の説明
変分ベイズ法の説明
coordinate descent 法について
coordinate descent 法について
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Generating Diverse High-Fidelity Images with VQ-VAE-2
Generating Diverse High-Fidelity Images with VQ-VAE-2
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
backbone としての timm 入門
backbone としての timm 入門
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
LDA入門
LDA入門
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
Similar to モンテカルロ法と情報量
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
koba cky
「はじめてのパターン認識」読書会の発表資料です。 第3章(前半):ベイズの識別規則
第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド
keiodig
慶應義塾大学データビジネス創造コンソーシアム 第4回スキル養成講座の講座資料
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
Hirotaka Hachiya
機械学習の基礎
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
12/09/25 w8prml 学習会 パターン認識と機械学習 上 1.3節~1.6節 申し訳ありませんが、字の大きさが変になって改行がおかしかったり、式に画像データを使ってる部分がぼやけ気味だったりします。 (9/25)いくつか再び訂正をしましたので再アップします。主な修正箇所は (P28)効用関数最小化→最大化 (P51) log(24)/log(3)=log(8)=3 → log(24)/log(3)=2.892789.... (P57) 右下枠内のエントロピー低・高が逆だったのを訂正。 ・・・以上となります。
An introduction to statistical learning 4 logistic regression manu
An introduction to statistical learning 4 logistic regression manu
Hideyuki Takahashi
『An Introduction to Statistical Learning』G・James他、Springer、2009 第4章の発表スライド 誤字や内容の誤りが有るかもしれません。 http://www-bcf.usc.edu/~gareth/ISL/index.html
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
2019年3月のJOI春合宿で行った講義のスライドです
データ解析6 重回帰分析
データ解析6 重回帰分析
Hirotaka Hachiya
重回帰分析
6 Info Theory
6 Info Theory
melvincabatuan
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
Junpei Matsuda
パターン認識と機械学習 上巻 2.3.8~2.5の担当分
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
パターン認識と機械学習(第1章:序論)をスライドにまとめました
WAICとWBICのご紹介
WAICとWBICのご紹介
Tomoki Matsumoto
Introduction to WAIC and WBIC
1 Info Theory
1 Info Theory
melvincabatuan
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
Takuya Akiba
K070k80 点推定 区間推定
K070k80 点推定 区間推定
t2tarumi
Deep learning入門
Deep learning入門
magoroku Yamamoto
deep learning,theano
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
Wataru Shito
西南学院大学経済学部 演習2 講義ノート(2021/8/22修正版) 講義ページ: http://courses.wshito.com/semi2/2019-bayes-AI
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
zansa Sep/27th/2012
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
Hirotaka Hachiya
ニューラルネットワークの基礎
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
Naoki Hayashi
これは旧版です.修正版は「https://www.slideshare.net/naokihayashi714/ss-161469671/naokihayashi714/ss-161469671」を参照ください. ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip を参照ください.
Similar to モンテカルロ法と情報量
(20)
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
第4回スキル養成講座 講義スライド
第4回スキル養成講座 講義スライド
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
An introduction to statistical learning 4 logistic regression manu
An introduction to statistical learning 4 logistic regression manu
充足可能性問題のいろいろ
充足可能性問題のいろいろ
データ解析6 重回帰分析
データ解析6 重回帰分析
6 Info Theory
6 Info Theory
PRML2.3.8~2.5 Slides in charge
PRML2.3.8~2.5 Slides in charge
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
WAICとWBICのご紹介
WAICとWBICのご紹介
1 Info Theory
1 Info Theory
プログラミングコンテストでの乱択アルゴリズム
プログラミングコンテストでの乱択アルゴリズム
K070k80 点推定 区間推定
K070k80 点推定 区間推定
Deep learning入門
Deep learning入門
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
演習II.第1章 ベイズ推論の考え方 Part 2.講義ノート
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
幾何を使った統計のはなし
幾何を使った統計のはなし
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
モンテカルロ法と情報量
1.
Machine Learning A P
r o b a b i l i s t i c P e r s p e c t i v e
2.
アジェンダ Ch.2 確率 • 2.1
イントロダクション • 2.2 確率論の簡単な概要 • 2.3 一般的な離散分布 • 2.4 一般的な連続分布 • 2.5 同時確率分布 • 2.6 Transformations of random variables • 2.7 モンテカルロ法 • 2.8 情報量 2
3.
今日やること ✔ モンテカルロ法を理解する ✔ モンテカルロ法を用いた木探索を知る ✔
エントロピーを理解する ✔ KL情報量を理解する ✔ 相互情報量を理解する 3
4.
モンテカルロ法 Machine Learning a
Probabilistic Perspective 2.7 4
5.
モンテカルロ法 (Monte Carlo
Approximation) 母集団からサンプルをいくつか取ってきて、そのサンプル群から 母集団の性質を見抜く手段のこと 5
6.
モンテカルロ法によって𝑓 𝑋 の期待値は次のように求められる 𝔼
𝑓 𝑋 = 𝑓 𝑥 𝑝 𝑥 𝑑𝑥 ⋍ 1 𝑆 𝑠=1 𝑆 𝑓(𝑥 𝑠) • 𝔼 𝑓 𝑋 : 𝑓 𝑋 の期待値 • 𝑝 𝑥 : 𝑓 𝑋 の分布 • 𝑆: サンプルの数 • 𝑥 𝑠: 適当な値 6
7.
他にもモンテカルロ法を用いて色々推定することができる • 𝑥~𝑋の期待値: 1 𝑆 𝑠=1 𝑆 𝑥
𝑠 • その𝑥の分散: 1 𝑆 𝑠=1 𝑆 𝑥 𝑠 − 𝑥 2 • 𝑥の中央値: 𝑚𝑒𝑑𝑖𝑎𝑛 𝑥1, … , 𝑥 𝑆 = 𝑚𝑒𝑑𝑖𝑎𝑛(𝑋) 7
8.
(例) 一様分布と𝑦 =
𝑥2 𝑥~𝑈𝑛𝑖𝑓 −1, 1 , 𝑦 = 𝑥2としたとき、𝑝(𝑦)の分布を求める 一様分布なので、 −1, 1 の範囲でランダムに𝑥をきめ、 その𝑥に 対する𝑦の値がどのように分布するかを調べる 8 左の図が実際の分布の形で、 右がモンテカルロ法によって求めた 分布である
9.
(例) モンテカルロ積分 円の円周率𝜋を求める 方針: 半径1の円とそれを囲う一辺が2の正方形の領域にランダムに点 を打ち、それが円の領域に含まれているかどうかを判定する 9 正方形の面積𝑆
𝑎 = 4, 円の面積𝑆 𝑏 = 𝜋 この領域の点で円に入る確率𝑃 = 𝜋/4 正方形の領域にうった点の総数: 𝑁𝑎 円の領域に打たれた点の総数: 𝑁𝑏 𝜋 = 4 𝑁𝑏 𝑁𝑎
10.
モンテカルロ法の精度 サンプルのサイズを大きくすれば(勿論)精度は上がる (例) モンテカルロ法による円周率の推定の場合 • サンプル数100
: 3.0495, 3.1683, 3.4059 • サンプル数1000000 : 3.1449, 3.1424, 3.1416 10 Rubyでモンテカルロ法を用いた円周率の推定
11.
実際の平均: 𝜇 =
𝔼[𝑓 𝑋 ] MC法の推定平均: 𝜇 中心極限定理より 𝜇 − 𝜇 → 𝒩 0, 𝜎2 𝑆 分散𝜎2は求められないが、 MC法によって推定値 𝜎2 は求めれ る 11 サンプル数: 10 サンプル数: 100 モンテカルロ法と正規分布
12.
𝜎2 = 1 𝑆 𝑠=1 𝑆 𝑓 𝑥
𝑠 − 𝜇 2 従って、 𝑃 𝜇 − 1.96 𝜎 𝑆 ≤ 𝜇 ≤ 𝜇 + 1.96 𝜎 𝑆 ≈ 0.95 𝜎 𝑆 は標準誤差という値で、95%の確率で標準誤差±𝜖以内で 正確(有意水準)であるためにはサンプル数𝑆は1.96 𝜎 𝑆 ≤ 𝜖を満たす 12
13.
モンテカルロ木探索 囲碁や将棋などのゲームにおいて、最善の方法を求める 囲碁や将棋は少し難しいので、「ラストワン」というゲームを 元に紹介する 13
14.
ラストワン すごくマイナーなゲーム 右図のような目があり、プレイヤー は交互に横・斜めを数珠つなぎに 消すことができる 最後の1個を取ったほうが負け 14
15.
一人目のプレイヤーが次のように消した とする 次のプレイヤーは様々な消し方があるが、 その全てのパターンを引いた後、仮想的 に交互にランダムに線を引くという作業 を行い、勝ったか負けたかを見る これを何回か繰り返し、勝率の高い初手 をこの回の手とする 15
16.
このゲームは探索空間が狭いので全ての初手からの動向を ランダムに何回も勝負させて勝つ回数を見る 16 … 勝つ確率 20% 勝ち 勝ち 負け 勝ち 勝ち 勝つ確率 80%
17.
✔ ゲームのソースコード • https://github.com/miyatin/lastone ✔
中学校のときに友達と作ったこのゲームのwiki • http://www15.atwiki.jp/rukusen/pages/28.html ✔ ブラウザで遊べるところ • http://lastone.miyatin.pw/ 17
18.
情報理論 Machine Learning a
Probabilistic Perspective 2.8 18
19.
エントロピー (entropy) 離散確率変数𝑋について以下の定義をエントロピーという ℍ 𝑋
≜ − 𝑖=0 𝑛 𝑝 𝑥𝑖 log2 𝑝 𝑥𝑖 19
20.
エントロピーの意味 エントロピーとはあるメッセージの送信者が確率変数の値を 受信者に送りたい時、その操作で送られる情報の平均量のことである 20 →よくわからないので、具体的に考えます
21.
渋谷とかにいそうな人のエントロピー おそらく、「やばい、だるい、うざい」で語彙は占められ、 「やばい」が会話の80%位を占めるので次のように定義する • 𝑋 =
やばい, だるい, うざい • 𝑝 𝑋 = やばい = 0.8, 𝑝 𝑋 = だるい = 0.1, 𝑝 𝑋 = うざい = 0.1 この人のエントロピーℍ 𝑋 は ℍ 𝑋 = 0.9219 21
22.
いろんなアニメに詳しい人のエントロピー 200タイトルぐらいのアニメに詳しく、どのアニメも均等に好き であると仮定する 𝑝 𝑋 =
ガルパン = 0.005, 𝑝 𝑋 = 𝑆𝐻𝑂𝑊𝐵𝑌𝑅𝑂𝐶𝐾 = 0.005, … この人のエントロピーℍ 𝑋 は ℍ 𝑋 = 7.6439 渋谷系の約8倍のエントロピー 22
23.
エントロピーの値の意味 エントロピーは起こりうる事象に 不確実性が伴えば伴うほど高い値を取る 23
24.
対数関数を再確認する 起こりにくい(=確率が低い)事象の 情報量ほど値が大きい − log2 𝑝
𝑥 はそれを表現する ある事象𝐸に対して 𝐼 𝐸 = − log2 𝑝 𝑥 = 𝐸 を(選択)情報量と定義する 24
25.
エントロピーの式を再確認する エントロピーの式は別の見方をすると 確率分布𝑝の選択情報量の期待値(平均値) と言える 25 ℍ 𝑋 ≜
− 𝑖=0 𝑛 𝑝 𝑥𝑖 log2 𝑝 𝑥𝑖 = 𝐸 𝑝 −log2 𝑝 𝑥𝑖
26.
エントロピーの値を見る 次のモデルのエントロピーを計算してみる • 𝑥 ∈
1,2,3,4,5 • 𝑝 𝑥 = 0.25, 0.25, 0.2, 0.15, 0.15 ℍ 𝑋 = 0.25 × log 0.25 + ⋯ + 0.15 × log 0.15 = 2.2855 26
27.
• 𝑥 ∈
1, 2, 3, 4, 5 • 𝑝 𝑥 = 0.2, 0.2, 0.2, 0.2, 0.2 ℍ 𝑋 = 0.25 × log 0.25 × 5 = 2.3219 最大エントロピー 27 次はこれらのモデルを使って計算してみる • 𝑥 ∈ 1, 2, 3, 4, 5 • 𝑝 𝑥 = 1, 0, 0, 0, 0 ℍ 𝑋 = 0 + 0 × 4 = 0 最小エントロピー
28.
ベルヌーイ分布におけるエントロピー 𝑥 = 1を取る確率がちょうど 1/2のときにエントロピーが 最大化されることが分かる 28 縦軸がエントロピーで、横軸が𝑝
𝑥 = 1 の値である
29.
エントロピーの性質 𝑥 = 1を取る確率がちょうど1/2のときにエントロピーが最大化 29 一般にすべての事象が等確率になる時 エントロピーが最大になる
30.
ℍ 𝑋 =
0 の意味するもの 「エントロピーが0」は「不確実性が全く無い」と解釈できる • 𝑥 ∈ 1, 2, 3, 4, 5 • 𝑝 𝑥 = 1, 0, 0, 0, 0 • ℍ 𝑋 = 0 (エントロピーが0) このモデルを何回実行しても得られるのは 𝑥 = 1 のみである むしろ、確実に 𝑥 = 1である 30
31.
画像というデータのエントロピー 単色の画像とは情報としては1つの色の情報しか持っていないた めエントロピーは0であるが、左のような画像は様々な情報を保 有している 31 • 四騎士アルトリウス • ウーラシール •
鎧を着ている • 深淵をまとっている …
32.
ファイル形式PNGとはBMPのような 形式とは異なり、圧縮されている PNGは損失のない圧縮方式であるため、 複雑な画像ではそれほど圧縮できない つまり、 32 477KB 19KB 情報の多さは圧縮の出来なさに繋がる
33.
エントロピーの持つ意味のまとめ 1. 情報の量 (Amount
of Information) 2. 不確実性 (Uncertainty) 3. 圧縮の出来なさ (Incompressibility) 33
34.
KL情報量 (Kullback-Leibler divergence) ✔
2つの確率分布𝑝と𝑞がどれくらい似てないかを測る術 つまり、2つが全く同じ分布をしていれば0をとる ✔ 作成したモデルの良さを測るための客観的指標 良いか悪いかをスカラー量で表現できるなら、それは計算機を用いて 求めたりすることにも向いている 34
35.
KL情報量は次の式で表現される 𝐷KL 𝑝||𝑞 = 𝑘=0 𝑁 𝑝(𝑘)
log 𝑝 𝑘 𝑞 𝑘 また、次の式を満たす 𝐷KL 𝑝||𝑞 ≥ 0 35
36.
KL情報量とエントロピーの関係 KL情報量の定義式を式変形する 𝐷KL 𝑝||𝑞 = 𝑘=0 𝑁 𝑝(𝑘)
log 𝑝 𝑘 𝑞 𝑘 = 𝑘=0 𝑁 𝑝(𝑘) log 𝑝 𝑘 − 𝑘=0 𝑁 𝑝 𝑘 log 𝑞 𝑘 = −ℍ 𝑝 + ℍ 𝑝, 𝑞 36 𝑝(𝑥)のエントロピー 𝑝 𝑥 と𝑞(𝑥)の交差エントロピー
37.
交差エントロピー ℍ 𝑝, 𝑞
≜ − 𝑖=0 𝑛 𝑝 𝑥𝑖 log2 𝑞 𝑥𝑖 真の分布𝑝に従っているデータに対して、それぞれの情報量を モデル𝑞の分布を用いて計算したものの期待値 真の分布𝑝に従っているデータに対して、符号化方式が モデル𝑞にもとづいている際に必要な平均情報量 37
38.
符号化方式 (Coding scheme) 符号化とはあるデータを1つのラベルに落としこむ事 符号化方式とは、その符号化の手段の事 38 猫 畳み込み ニューラル ネットワーク 符号化 ※もちろん、CNN以外にも符号化の方法はある 入力
39.
✔ モデル𝑞→ 畳み込みニューラルネットワーク ✔
真の分布𝑝→ 画像に対するラベルを特定できる超存在 CNNで符号化を行う場合、この超存在はℍ 𝑝, 𝑞 という エントロピー(平均情報量)を持つ必要がある 39
40.
選択情報量の計算方法は採用する確率分布に依存する 𝐷KL 𝑝||𝑞 =
エントロピーの理想値 − 自身のエントロピー KL情報量の値の意味は真の分布𝑝に従うデータに対してモデル𝑞 を用いる際に余分に必要になる情報量の期待値 40 𝐷KL 𝑝||𝑞 = ℍ 𝑝, 𝑞 − ℍ 𝑝, 𝑝 𝑞(𝑥)が要求するエントロピーの理想値 𝑝(𝑥)自身のエントロピー
41.
余分に必要になる情報量の平均 抽象的すぎて、なぜこれでモデルの良さを測れるのか分からない 真の分布𝑝に従う𝑥はできるだけモデル𝑞にも従うように𝑞をモデリングする この時𝐷KL 𝑝||𝑞 示す値は、真の分布𝑝とモデル𝑞の間の 単なるギャップであるだけではない! 真の分布𝑝がモデル𝑞にピッタリ従う為に 足りていない情報量である! 41 これを理解するのに8時間くらいかかった
42.
𝐷KL 𝑝||𝑞 >
0 のとき、真の分布𝑝は𝐷KL 𝑝||𝑞 だけ情報量が足り ないが、真の分布なので修正したりすることは無論できない したがって、 真の分布𝑝にとって余分に必要な情報量𝐷KL 𝑝||𝑞 が できるだけ小さくなるように𝑞を設計することが 結果的に良いモデル𝑞を設計するための手段となる 42
43.
モデルの良さを見るための交差エントロピー • 𝑝 𝑘
= 𝑘 = 1, 𝑝 𝑘 ≠ 𝑘 = 0 • 𝑞 𝑘 = 𝑘 = 0.3 𝑝 𝑘 log 𝑞 𝑘 = −1.2040 ℍ 𝑝, 𝑞 = 1.2040 43 • 𝑝 𝑘 = 𝑘 = 1, 𝑝 𝑘 ≠ 𝑘 = 0 • 𝑞 𝑘 = 𝑘 = 0.9999 ℍ 𝑝, 𝑞 = 0.0001
44.
相互情報量 (Mutual information) 確率変数𝑋,
𝑌がお互いにどれくらい関係しているかを測る 以下のように定義される 𝕀 𝑋; 𝑌 ≜ 𝕂𝕃(𝑝 𝑋, 𝑌 ||𝑝 𝑋 𝑝 𝑌 ) = 𝑥 𝑦 𝑝 𝑥, 𝑦 log 𝑝 𝑥, 𝑦 𝑝 𝑥 𝑝 𝑦 44
45.
相互情報量の具体例 • 試験の合否: 𝑋
= 試験に合格する, 試験に落第する • 試験日の状況: 𝑌 = すごく緊張している, そこそこ緊張, リラックス 𝕀 𝑋; 𝑌 の値は、私の場合緊張すると焦ってしまうので この2つの相互情報量は高そう 45
46.
相互情報量の性質 ✔ 𝕀 𝑋;
𝑌 ≥ 0 ✔ 2つの確率変数が依存していない場合 𝕀 𝑋; 𝑌 = 0 ✔ エントロピーとして以下のように表現できる • 𝕀 𝑋; 𝑌 = ℍ 𝑋 − ℍ 𝑋|𝑌 = ℍ 𝑌 − ℍ 𝑌|𝑋 • ℍ 𝑋|𝑌 は条件付きエントロピー 46
47.
条件付きエントロピー ある事象𝐵が生じているという条件下における情報量 条件付き情報量: −log 𝑝
𝐴|𝐵 そして、確率変数𝑋に対して𝑋 = 𝑥の条件付き情報量の𝑥に関する 平均値(期待値)を条件付きエントロピーという ℍ 𝑋|𝐵 ≜ − 𝑖=0 𝑛 𝑝 𝑋 = 𝑥𝑖|𝐵 log2 𝑝 𝑋 = 𝑥𝑖|𝐵 47
48.
相互情報量についての例題 東京都の年間を通しての天候は晴れが80パーセント,それ以外が20パーセ ントである.また,東京地方気象台の天気予報的中率は,晴れ,雨などに 関わらず90パーセントである. • 気象台の予報が実際の天候について伝える平均相互情報量はどれだけか. 48
49.
東京都の年間を通しての天候は晴れが80パーセント,それ以外が20パーセントである. また,東京地方気象台の天気予報的中率は,晴れ,雨などに関わらず90パーセントである. • 実際の天候の確率変数: 𝑥
= 晴れ, それ以外 • 予報の正当性の確率変数: 𝑓 = 的中, 外れ • 𝑝 𝑥 = 晴れ = 0.8, 𝑝 𝑥 = それ以外 = 0.2 • 𝑝 𝑓 = 的中 = 0.9, 𝑝 𝑓 = 外れ = 0.1 • 予報の天候の確率変数: 𝑦 = 晴れ, それ以外 • 𝑝 𝑦 = 晴れ = 0.9 × 0.8 + 0.1 × 0.2 = 0.74 𝑝 𝑦 ≠ 晴れ = 0.9 × 0.2 + 0.1 × 0.8 = 0.26 49 予報が晴れで実際の天候が晴れである 条件付き確率は 𝑝 𝑥 = 晴れ|𝑦 = 晴れ = 𝑝 𝑥 = 晴れ, 𝑦 = 晴れ 𝑝 𝑦 = 晴れ = 𝑝 𝑥 = 晴れ 𝑝 𝑓 = 的中 𝑝 𝑦 = 晴れ = 0.8 × 0.9 0.74 ≃ 0.973
50.
東京都の年間を通しての天候は晴れが80パーセント,それ以外が20パーセントである. また,東京地方気象台の天気予報的中率は,晴れ,雨などに関わらず90パーセントである. 同様に、予報が晴れで実際がそれ以外である 条件付き確率は 𝑝 𝑥 =
それ以外|𝑦 = 晴れ = 𝑝 𝑥 = それ以外, 𝑦 = 晴れ 𝑝 𝑦 = 晴れ = 𝑝 𝑥 = それ以外 𝑝 𝑓 = 外れ 𝑝 𝑦 = 晴れ 50 = 0.2 × 0.1 0.74 ≃ 0.027 同様に求めて 𝑝 𝑥 = それ以外|𝑦 = それ以外 ≃ 0.692 𝑝 𝑥 = 晴れ|𝑦 = それ以外 ≃ 0.308
51.
東京都の年間を通しての天候は晴れが80パーセント,それ以外が20パーセントである. また,東京地方気象台の天気予報的中率は,晴れ,雨などに関わらず90パーセントである. 相互情報量𝕀 𝑥; 𝑦
は以上を用いて 𝕀 𝑥; 𝑦 = 𝑥 𝑦 𝑝 𝑥, 𝑦 log 𝑝 𝑥, 𝑦 𝑝 𝑥 𝑝 𝑦 = 𝑥 𝑦 𝑝 𝑥, 𝑦 log 𝑝 𝑥|𝑦 𝑝 𝑥 = 𝑥 𝑦 𝑝 𝑥, 𝑦 log 𝑝 𝑥|𝑦 − log 𝑝 𝑥 51 = 0.8 × 0.9 × 0.282 + 0.8 × 0.1 × −1.378 +0.2 × 0.1 × −2.889 + 0.2 × 0.9 × 1.791 ≈ 0.357 以上より、相互情報量は0.357
52.
まとめ ✔ モンテカルロ法 分布の平均も円周率もゲームの最善手も推定できる ✔ 情報量 •
エントロピー 不確定性をどれほど有するか • Kullback-Leibler情報量 2つのモデル間の相違を図る手段の1つ • 相互情報量 2つの確率変数間の依存度を測れる 52
53.
個人的な意見 KL情報量は、Web文献で「2つにどれくらいの差があるか確認で きまーす」みたいな感じのばっかり ドコまで裏付けしていけるかは、果てしないが、自分はもう少し 奥まで足を運びたい 統計学の勉強もそろそろやっておきたい 53
Download now