Submit Search
Upload
はじめてのルベーグ積分
•
4 likes
•
8,503 views
W
Wakamatz
Follow
初めてルベーグ積分に触れる人のため入門資料です。
Read less
Read more
Science
Report
Share
Report
Share
1 of 19
Download now
Download to read offline
Recommended
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
Shuyo Nakatani
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
「第5回 プログラマのための数学勉強会 発表資料 (2015/11/21[sat])」 内容は統計学の素養がある方には基本的な事項ですが、ベクトルと内積で見方を変えてみたという点と、あまり統計学に親しみがない方にも理解してもらえるようなまとめになっている、というところに本スライドの独自性があると考えていますので、その辺り良ければご覧ください^^
階層的クラスタリング入門の入門
階層的クラスタリング入門の入門
Mas Kot
階層的クラスタリング入門の入門
直交領域探索
直交領域探索
okuraofvegetable
JOI夏季セミナー2016 コンピュータ・ジオメトリ
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
学習データから分類器を学習するアルゴリズムの理論的基礎である最適化のアルゴリズムについて説明する。
論文の図表レイアウト例
論文の図表レイアウト例
Sunao Hara
うちの研究室ではだいたいこんな感じでやってますよ、という一例です。
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
BengioのDeep Learningの輪読会資料 http://www.deeplearningbook.org/ 10.7-10.14
Recommended
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
Shuyo Nakatani
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
「第5回 プログラマのための数学勉強会 発表資料 (2015/11/21[sat])」 内容は統計学の素養がある方には基本的な事項ですが、ベクトルと内積で見方を変えてみたという点と、あまり統計学に親しみがない方にも理解してもらえるようなまとめになっている、というところに本スライドの独自性があると考えていますので、その辺り良ければご覧ください^^
階層的クラスタリング入門の入門
階層的クラスタリング入門の入門
Mas Kot
階層的クラスタリング入門の入門
直交領域探索
直交領域探索
okuraofvegetable
JOI夏季セミナー2016 コンピュータ・ジオメトリ
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
Hiroshi Nakagawa
学習データから分類器を学習するアルゴリズムの理論的基礎である最適化のアルゴリズムについて説明する。
論文の図表レイアウト例
論文の図表レイアウト例
Sunao Hara
うちの研究室ではだいたいこんな感じでやってますよ、という一例です。
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
Motoya Wakiyama
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
BengioのDeep Learningの輪読会資料 http://www.deeplearningbook.org/ 10.7-10.14
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
Shuyo Nakatani
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
第6章「線形識別関数」(後半)
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
第13回はじめてのパターン認識勉強会 10章後半 2014/3/3
PRML輪読#1
PRML輪読#1
matsuolab
東京大学松尾研究室におけるPRMLの輪読資料です。
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
智文 中野
MLP(機械学習プロフェッショナルシリーズ)の勉強会の資料です。
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
Deep Learning JP
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents
Deep Learning JP
2022/12/9 Deep Learning JP http://deeplearning.jp/seminar-2/
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
zansa Sep/27th/2012
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
第1回「はじめてのパターン認識」読書会 第1章「はじめに」
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
Tokyo.SciPy #2 にて発表した、数式(あるいは数式入りのアルゴリズム)から実装に落とす場合、何に気をつけるのか、どう考えればいいのか、というお話。 対象は、どうやって数式をプログラムすればいいかよくわからない人、ちょっとややこしい数式になると四苦八苦してしまい、コードに落とすのにすごく時間がかかってしまう人、など。 ここでは実行速度についてはひとまずおいといて、簡潔で間違いにくい、ちゃんと動くコードを書くことを目標にしています。
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
※ここで解説しているお天気推移モデルはオリジナルなものですので、数値・計算等にミスがある可能性が否めませんので、もし間違いを見かけた方は優しく教えていただけると助かります。 お天気推移モデルで理解するマルコフ連鎖モンテカルロ法。2状態離散モデルの解説を中心に、メトロポリス法の解説まで行った。 次は連続モデルや熱浴法・メトロポリスヘイスティング法の解説資料も作成したい⇒完成。以下のLINKを参照下さい。http://www.slideshare.net/teramonagi/ss-5344006 誤字を修正(2010/11/01)
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
Hiroshi Nakagawa
学習データから母集団の確率分布を求める万能な方法であるマルコフ連鎖モンテカルロ 法(MCMC)について説明する。MCMCは乱数を発生させて推定するモンテカルロ法の一種である。ただし、乱数の無駄打ちを避けるために種々の効率化が施されている。
査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律
英文校正エディテージ
査読者やジャーナル編集者からのコメントは元来、執筆者の論文の質を高めることを目的とします。査読者のコメントに返答する際は、3つの黄金律に従いましょう。
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
2017/11/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
圏論は、随伴が全て
圏論は、随伴が全て
ohmori
2018年10月16日に渋谷のサイバーエージェントで開催された「プログラマのための圏論研究会」で使用した資料です。数学はどの分野も同じですが、下地をしっかりと固めながら学ぶ必要があります。しかし頂上があまりにも遠いので途中で挫折してしまいがちです。圏論を学ぼうとしている人たちも同じような経験をしたのではないかと思います。 プログラマやエンジニアにとっては、圏論の概念を理解して、それを応用する方が重要です。下からの積み上げではなく、頂上から降りるようにトップダウンで、圏論とはこういうものと考え方を把握することが求められます。今回のプレゼンでは、そのような立場から圏論を説明しました。圏論での重要な概念をおさえて、いきなり、本丸の「随伴」に挑戦することにしました。よろしければご利用ください。
More Related Content
What's hot
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
Shuyo Nakatani
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
第6章「線形識別関数」(後半)
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
第13回はじめてのパターン認識勉強会 10章後半 2014/3/3
PRML輪読#1
PRML輪読#1
matsuolab
東京大学松尾研究室におけるPRMLの輪読資料です。
はじパタ8章 svm
はじパタ8章 svm
tetsuro ito
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
智文 中野
MLP(機械学習プロフェッショナルシリーズ)の勉強会の資料です。
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
Deep Learning JP
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents
Deep Learning JP
2022/12/9 Deep Learning JP http://deeplearning.jp/seminar-2/
幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
zansa Sep/27th/2012
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
第1回「はじめてのパターン認識」読書会 第1章「はじめに」
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
Tokyo.SciPy #2 にて発表した、数式(あるいは数式入りのアルゴリズム)から実装に落とす場合、何に気をつけるのか、どう考えればいいのか、というお話。 対象は、どうやって数式をプログラムすればいいかよくわからない人、ちょっとややこしい数式になると四苦八苦してしまい、コードに落とすのにすごく時間がかかってしまう人、など。 ここでは実行速度についてはひとまずおいといて、簡潔で間違いにくい、ちゃんと動くコードを書くことを目標にしています。
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
※ここで解説しているお天気推移モデルはオリジナルなものですので、数値・計算等にミスがある可能性が否めませんので、もし間違いを見かけた方は優しく教えていただけると助かります。 お天気推移モデルで理解するマルコフ連鎖モンテカルロ法。2状態離散モデルの解説を中心に、メトロポリス法の解説まで行った。 次は連続モデルや熱浴法・メトロポリスヘイスティング法の解説資料も作成したい⇒完成。以下のLINKを参照下さい。http://www.slideshare.net/teramonagi/ss-5344006 誤字を修正(2010/11/01)
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
Hiroshi Nakagawa
学習データから母集団の確率分布を求める万能な方法であるマルコフ連鎖モンテカルロ 法(MCMC)について説明する。MCMCは乱数を発生させて推定するモンテカルロ法の一種である。ただし、乱数の無駄打ちを避けるために種々の効率化が施されている。
査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律
英文校正エディテージ
査読者やジャーナル編集者からのコメントは元来、執筆者の論文の質を高めることを目的とします。査読者のコメントに返答する際は、3つの黄金律に従いましょう。
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
2017/11/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
圏論は、随伴が全て
圏論は、随伴が全て
ohmori
2018年10月16日に渋谷のサイバーエージェントで開催された「プログラマのための圏論研究会」で使用した資料です。数学はどの分野も同じですが、下地をしっかりと固めながら学ぶ必要があります。しかし頂上があまりにも遠いので途中で挫折してしまいがちです。圏論を学ぼうとしている人たちも同じような経験をしたのではないかと思います。 プログラマやエンジニアにとっては、圏論の概念を理解して、それを応用する方が重要です。下からの積み上げではなく、頂上から降りるようにトップダウンで、圏論とはこういうものと考え方を把握することが求められます。今回のプレゼンでは、そのような立場から圏論を説明しました。圏論での重要な概念をおさえて、いきなり、本丸の「随伴」に挑戦することにしました。よろしければご利用ください。
What's hot
(20)
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
PRML輪読#1
PRML輪読#1
はじパタ8章 svm
はじパタ8章 svm
深層学習の数理
深層学習の数理
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents
幾何を使った統計のはなし
幾何を使った統計のはなし
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門 10. マルコフ連鎖モンテカルロ 法
査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
圏論は、随伴が全て
圏論は、随伴が全て
はじめてのルベーグ積分
1.
はじめてのルベーグ積分 @Wakamatz
2.
内容 リーマン積分とルベーグ積分の比較 可測関数と可積分関数
3.
ルベーグ積分を使う動機 リーマン積分では計算できない関数を計算したい! 極限と積分の順序交換が可能か、簡単に判定したい! 微分と積分の順序交換、積分の順序交換が可能か、簡単 に判定したい!
4.
積分とは 関数のグラフで囲まれる領域の面積を求めること。 リーマン積分もルベーグ積分も可算個の長方形で領域を 埋めて、長方形の面積の合計で積分を求めている。
5.
リーマン積分の場合 長方形を細くしていくことで近似していくスタイル
6.
ルベーグ積分の場合 長方形で隙間を埋めていくことで近似していくスタイル ※ この計算法の根拠は「ルベーグの単調収束定理」
7.
ルベーグ積分の記法 ルベーグ積分強調したい場合は下記のような記法を用いる。 これは のときは下記に相当する は測度(measure)のギリシア語の頭文字 fdμ∫ R R =
[a, b] fdx∫ b a μ
8.
ルベーグ積分で計算 その1 xdμ∫ [0,1] = = = = + 2 +
⋯ + + ⋯( ) 1 2 2 ( ) 1 4 2 2 n−1 ( ) 1 2 n 2 ∑ n=0 ∞ 2 n−1 ( ) 1 2 2n = 1 2 ∑ n=0 ∞ ( ) 1 2 n 1 4 ∑ n=0 ∞ ( ) 1 2 n−1 = 1 4 1 1 − 1 2 1 2
9.
積分できる関数を拡張する ここまで正の関数しか扱ってこなかった。 ここからは負の値をとる関数も考える。
10.
可測関数とは の にセットできる関数のこと。 を計算できる可能性はあるが、計算できるとは限ら ない。 ∫ fdμ
f ∫ fdμ
11.
可測関数その1 可算個の長方形で埋め尽くせる関数は可測関数。
12.
可測関数その2 可測関数の可算和も可測関数。 言い換えると が可測関数のとき、 も可測関数。, ,
⋯f1 f2 ∑ ∞ n=0 fn ※ となるとは限らない。dμ = dμ∫ R ∑ ∞ n=0 fn ∑ ∞ n=0 ∫ R fn
13.
可測関数その3 可測関数の差でかける関数も可測関数。 言い換えると が可測関数のとき、 も可測関数。f, g
f − g ※ だが、計算できるとは限らない。(f − g)dμ = fdμ − gdμ∫ R ∫ R ∫ R
14.
可測関数とは 1. 可算個の長方形で埋め尽くせる関数 2. が可測関数のとき、 3.
が可測関数のとき、 , , ⋯f1 f2 ∑ ∞ n=0 fn f, g f − g ※2,3の定義は再帰的
15.
可測関数の積分値 に対して として計算します。 (x)f+ (x)f− := := { f(x) 0 (f(x) >= 0) (f(x)
< 0) { −f(x) 0 (f(x) < 0) (f(x) >= 0) ∫ fdμ := ∫ dμ − ∫ dμf+ f−
16.
ルベーグ積分で計算 その2 有理数上0、無理数上1となる関数 の積分 を考える。f
f(x)dμ∫ 1 0 このままだと計算できないので、 (有理数上1、無理数上0)を考えると、 有理数は可算集合なので 1 − f (1 − f)dμ∫ 1 0 = = = dμ∫ 1 0 ∑ a:rational 1{a} dμ∑ a:rational ∫ 1 0 1{a} 0 = 0∑ a:rational 従って fdμ∫ 1 0 = = (1 − (1 − f))dμ∫ 1 0 1
17.
は計算できない∞ − ∞ f(x)
:= { −1 1 (x < 0) (x >= 0) について を考えるfdμ∫ ∞ −∞ fdμ∫ a+b −a = = = fdμ + fdμ∫ 0 −a ∫ a+b 0 − dμ + dμ∫ 0 −a ∫ a+b 0 − a + (a + b) = b 従って fdμ∫ ∞ −∞ = fdμ = blim a→∞ ∫ a+b −a は任意の値をとれるので値が確定しない。b
18.
可積分関数 可測関数 は2つの正の可測関数 によって と書ける の積分値が有限のとき可積分関数と呼ぶ。 f
,f+ f− −f+ f− ,f+ f− dμ < ∞∫ R f+ dμ < ∞∫ R f− これをひとつの式で表すと |f|dμ < ∞∫ R ※ ルベーグ積分の主な対象はこの可積分関数がメインとなる。
19.
次回予告 可積分関数はベクトル空間 をなすL1 LEBESGUE優収束定理 FUBINIの定理 WIERSTRASSの近似定理
Download now