SlideShare a Scribd company logo
はじめてのルベーグ積分
@Wakamatz
内容
リーマン積分とルベーグ積分の比較
可測関数と可積分関数
ルベーグ積分を使う動機
リーマン積分では計算できない関数を計算したい!
極限と積分の順序交換が可能か、簡単に判定したい!
微分と積分の順序交換、積分の順序交換が可能か、簡単
に判定したい!
積分とは
関数のグラフで囲まれる領域の面積を求めること。
リーマン積分もルベーグ積分も可算個の長方形で領域を
埋めて、長方形の面積の合計で積分を求めている。
リーマン積分の場合
長方形を細くしていくことで近似していくスタイル
ルベーグ積分の場合
長方形で隙間を埋めていくことで近似していくスタイル
※ この計算法の根拠は「ルベーグの単調収束定理」
ルベーグ積分の記法
ルベーグ積分強調したい場合は下記のような記法を用いる。
これは のときは下記に相当する
は測度(measure)のギリシア語の頭文字
fdμ∫
R
R = [a, b]
fdx∫
b
a
μ
ルベーグ積分で計算 その1
xdμ∫
[0,1]
=
=
=
=
+ 2 + ⋯ + + ⋯( )
1
2
2
( )
1
4
2
2
n−1
( )
1
2
n
2
∑
n=0
∞
2
n−1
( )
1
2
2n
=
1
2
∑
n=0
∞
( )
1
2
n
1
4
∑
n=0
∞
( )
1
2
n−1
=
1
4
1
1 −
1
2
1
2
積分できる関数を拡張する
ここまで正の関数しか扱ってこなかった。
ここからは負の値をとる関数も考える。
可測関数とは
の にセットできる関数のこと。
を計算できる可能性はあるが、計算できるとは限ら
ない。
∫ fdμ f
∫ fdμ
可測関数その1
可算個の長方形で埋め尽くせる関数は可測関数。
可測関数その2
可測関数の可算和も可測関数。
言い換えると
が可測関数のとき、 も可測関数。, , ⋯f1 f2 ∑
∞
n=0
fn
※  となるとは限らない。dμ = dμ∫
R
∑
∞
n=0
fn ∑
∞
n=0
∫
R
fn
可測関数その3
可測関数の差でかける関数も可測関数。
言い換えると
が可測関数のとき、 も可測関数。f, g f − g
※  だが、計算できるとは限らない。(f − g)dμ = fdμ − gdμ∫
R
∫
R
∫
R
可測関数とは
1. 可算個の長方形で埋め尽くせる関数
2. が可測関数のとき、
3. が可測関数のとき、
, , ⋯f1 f2 ∑
∞
n=0
fn
f, g f − g
※2,3の定義は再帰的
可測関数の積分値
に対して
として計算します。
(x)f+
(x)f−
:=
:=
{
f(x)
0
(f(x) >= 0)
(f(x) < 0)
{
−f(x)
0
(f(x) < 0)
(f(x) >= 0)
∫ fdμ := ∫ dμ − ∫ dμf+ f−
ルベーグ積分で計算 その2
有理数上0、無理数上1となる関数 の積分 を考える。f f(x)dμ∫
1
0
このままだと計算できないので、 (有理数上1、無理数上0)を考えると、
有理数は可算集合なので
1 − f
(1 − f)dμ∫
1
0
=
=
=
dμ∫
1
0
∑
a:rational
1{a}
dμ∑
a:rational
∫
1
0
1{a}
0 = 0∑
a:rational
従って
fdμ∫
1
0
=
=
(1 − (1 − f))dμ∫
1
0
1
は計算できない∞ − ∞
f(x) := {
−1
1
(x < 0)
(x >= 0)
について を考えるfdμ∫
∞
−∞
fdμ∫
a+b
−a
=
=
=
fdμ + fdμ∫
0
−a
∫
a+b
0
− dμ + dμ∫
0
−a
∫
a+b
0
− a + (a + b) = b
従って
fdμ∫
∞
−∞
= fdμ = blim
a→∞
∫
a+b
−a
は任意の値をとれるので値が確定しない。b
可積分関数
可測関数 は2つの正の可測関数 によって
と書ける
の積分値が有限のとき可積分関数と呼ぶ。
f ,f+ f−
−f+ f−
,f+ f−
dμ < ∞∫
R
f+
dμ < ∞∫
R
f−
これをひとつの式で表すと
|f|dμ < ∞∫
R
※ ルベーグ積分の主な対象はこの可積分関数がメインとなる。
次回予告
可積分関数はベクトル空間 をなすL1
LEBESGUE優収束定理
FUBINIの定理
WIERSTRASSの近似定理

More Related Content

What's hot

数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013Shuyo Nakatani
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
Prunus 1350
 
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
Katsushi Yamashita
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
matsuolab
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svmtetsuro ito
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki
 
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリングノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
智文 中野
 
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
Deep Learning JP
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents
Deep Learning JP
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
Prunus 1350
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
Shuyo Nakatani
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
Nagi Teramo
 
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
Hiroshi Nakagawa
 
査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律
英文校正エディテージ
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
 
圏論は、随伴が全て
圏論は、随伴が全て圏論は、随伴が全て
圏論は、随伴が全て
ohmori
 

What's hot (20)

数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
 
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
 
はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半はじパタ 10章 クラスタリング 前半
はじパタ 10章 クラスタリング 前半
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
ノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリングノンパラメトリックベイズ4章クラスタリング
ノンパラメトリックベイズ4章クラスタリング
 
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
[DL輪読会]Deep Learning 第6章 深層順伝播型ネットワーク
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents【DL輪読会】Emergence of maps in the memories of blind navigation agents
【DL輪読会】Emergence of maps in the memories of blind navigation agents
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
 
数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ数式をnumpyに落としこむコツ
数式をnumpyに落としこむコツ
 
マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1マルコフ連鎖モンテカルロ法入門-1
マルコフ連鎖モンテカルロ法入門-1
 
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
 
査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律査読コメントに回答する時の、3つの黄金律
査読コメントに回答する時の、3つの黄金律
 
DeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめにDeepLearning 輪読会 第1章 はじめに
DeepLearning 輪読会 第1章 はじめに
 
圏論は、随伴が全て
圏論は、随伴が全て圏論は、随伴が全て
圏論は、随伴が全て
 

はじめてのルベーグ積分