SlideShare a Scribd company logo
1
Bessel関数に親しもう!
日曜数学者
Kuma
日曜数学会 vol.5
2016年3月26日
2
0
( 1)
( )
! ( 1) 2
mm
m
x
J x
m m





  
  
    

Agenda
2
1. 自己紹介
2. Bessel関数は難しくない?
3. カメラのレンズとBessel関数
4. LTEもWiMAXもBessel関数~FM変調~
3
自己紹介
HN:Kuma
経歴:工学修士卒→エンジニア→研究者
【免責事項】数学と本業の接点はなし。独学です!
好きな分野:理論物理学、解析学、工学理論
趣味:野鳥観察、日本酒、ガジェットと電波、ゆるキャラ
Bessel関数は難しくない?
4
2
0
( 1)
( )
! ( 1) 2
mm
m
x
J x
m m





  
  
    
第1種Bessel関数
( )cos( ) ( )
( ) lim
sin( )
n n
n
J x n J x
Y x
n






→
第2種Bessel関数
第1種Bessel関数(各νについて)
2 2 2
'' ' ( ) 0x y xy x y   Besselの微分方程式
なんか減衰振動っぽい??
なるほど、さっぱりわからん
Bessel関数は難しくない?
5第1種Bessel関数Jの近似
減衰振動で近似できる
次数は位相の違いだけ
2 2 1
( ) cos
4
2 2 1
( ) sin
4
v
v
J x x
x
Y x x
x






 
 
 
 
 
 
;
;
X>>1
漸近展開
Bessel関数のルーツ
6
太鼓の膜の振幅を解析→Besselの微分方程式に帰着
振幅=0
円対象な波動 がBessel関数の正体
角度の条件⇔ベッセルの次数n
振幅の条件⇔ゼロ点の次数m
𝜆0 𝜆1 𝜆 𝑚
x=L
𝜆 𝑚
,
( ) n m
nR J
L

 
 
  
 
2 2
2 2
1
0
R R n
R
   
  
    
   
7http://web.tuat.ac.jp/~katsuaki/el/EL2008/slide_hikari04.pdf
2
( sin )
( )
sin
sin
,
1.22
m
J ka
I
ka
ka
F F
w F



 





で暗点と なる 。
カメ ラ の 値を 光波長を と し て
第一暗環半径
𝜃
𝑎
𝑤
種別 記録密
度比
スポット
サイズ
F値 波長
CD 1 720 nm 0.77 780 nm
DVD 1.4倍 600 nm 0.77 650 nm
(赤)
BD 6.4倍 285 nm 0.59 405 nm
(青)
カメラのF値とBessel関数
RRH
(増幅機)
局舎
全国へ
セクタ2
セクタ1
電波の繋がる仕組み
BBU
(変調部)
SW(ルータ)
伝送装置
F[Hz]
FM FM FM
ユーザー1 ユーザー2
800 MHz帯
LTE
Ether
9
FM変調のスペクトルはBessel関数
cos( sin ) ( )cos( )n
n
m t J m n t 


 
http://www11.atwiki.jp/denpaarray/pages/40.html
http://www.circuitdesign.jp/jp/technical/modulation/modulation_FM.asp
FM変調の例:FMラジオ、通信
中心周波数
高さ=ベッセル
高次
FM
FM波形
高次
10
まとめ
Bessel関数は減衰振動と思えば良い
円対象+波動 ⇒Besselの出番?
Besselは身近で活躍している
11
太鼓の膜の振動とBessel
2 2 2
2
2 2 2
2 2 2
2
2 2 2 2
( , , )
1 1
u u t
u u u
c
t x y
u u u u
c
t
 
    

   
  
   
    
    
    
極座標
振幅
振幅=0
角度の条件⇔ベッセルの次数n
振幅の条件⇔ゼロ点の次数m
x=L
𝜆 𝑚
2
2
2
2
2
2
2 2
2 2
( ) ( ) ( )
1
0
u T t R
T
c T
t
n
R R n
R
 



   
 

 

 
  

   
     
   
を仮定
,
,
( ) cos
( ) cos( )
( )
n m
n m
n
c
T t t
L
n
R J
L

 

 
  
  
 

 

      
12
太鼓の膜の振動とBessel
http://www.natural-science.or.jp/article/20101108184753.php
(n,m)=(0,0) (n,m)=(0,1) (n,m)=(0,2)
(n,m)=(1,0) (n,m)=(1,1) (n,m)=(1,2)
叩く場所が対称性を失うと
高次ベッセル関数が出る傾向
中心を叩くと0次ベッセルのみ
13
なぜ回折像がベッセル関数になるか
回折像はレンズの開口形状のフーリエ変換となる
(フレネル-キルヒホフの公式)
円形の開口関数のフーリエ変換はJ(x)/xである
波面
sin( )kx t 
ホイヘンスの素元波
※二次元フーリエ変換を指す
フレネルーキルヒホフの積分公式
14第 4 章 フレネル・キルヒホッフの回折理論 (東海大)
'
1
( )
4
' , ( , ')
'
S
jkR jkR
S
jk
e e U
U P U
n R R n
e
R W r r


  
  
  
  

 

r r
r r
r r
が素元波
/ nは閉曲面 の法線方向の方向微分
電磁波の空間部分U(x,y,z)はHelmholtz方程式に従う。
Green関数論を用いると
R
0 0
0
' '
( ) ( ', ') ' ',
x y
jk x y
s s
S
U P A x y e dx dy A
 
  
 
 
ス ク リ ーンま で( 距離s ) が波長に比べ十分遠いと し て
は開口面上の電界振幅
A(x,y)の二次元フーリエ変換!
ホイヘンスの原理
の正当化

More Related Content

What's hot

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
LBFGSの実装
LBFGSの実装LBFGSの実装
LBFGSの実装
Kotaro Tanahashi
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
Sotetsu KOYAMADA(小山田創哲)
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38horihorio
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
sleepy_yoshi
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
matsuolab
 
[DL輪読会]In Search of Lost Domain Generalization
[DL輪読会]In Search of Lost Domain Generalization[DL輪読会]In Search of Lost Domain Generalization
[DL輪読会]In Search of Lost Domain Generalization
Deep Learning JP
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
matsuolab
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
matsuolab
 
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
第2回nips+読み会: Learning to learn by gradient decent by gradient decent第2回nips+読み会: Learning to learn by gradient decent by gradient decent
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
Taku Tsuzuki
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
Yasunori Ozaki
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
wada, kazumi
 
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
Deep Learning JP
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
Taiji Suzuki
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
shima o
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Shogo Muramatsu
 

What's hot (20)

[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
LBFGSの実装
LBFGSの実装LBFGSの実装
LBFGSの実装
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38状態空間モデルの考え方・使い方 - TokyoR #38
状態空間モデルの考え方・使い方 - TokyoR #38
 
PRML 1.6 情報理論
PRML 1.6 情報理論PRML 1.6 情報理論
PRML 1.6 情報理論
 
PRML輪読#14
PRML輪読#14PRML輪読#14
PRML輪読#14
 
[DL輪読会]In Search of Lost Domain Generalization
[DL輪読会]In Search of Lost Domain Generalization[DL輪読会]In Search of Lost Domain Generalization
[DL輪読会]In Search of Lost Domain Generalization
 
PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
PRML輪読#11
PRML輪読#11PRML輪読#11
PRML輪読#11
 
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
第2回nips+読み会: Learning to learn by gradient decent by gradient decent第2回nips+読み会: Learning to learn by gradient decent by gradient decent
第2回nips+読み会: Learning to learn by gradient decent by gradient decent
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
 
マハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違いマハラノビス距離とユークリッド距離の違い
マハラノビス距離とユークリッド距離の違い
 
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
[DL輪読会]Quantization and Training of Neural Networks for Efficient Integer-Ari...
 
深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点深層学習の数理:カーネル法, スパース推定との接点
深層学習の数理:カーネル法, スパース推定との接点
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
 

Similar to 日曜数学会Vol5 up用 bessel関数

複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解
Hiroki_Tanji
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
Tatsuki SHIMIZU
 
【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について
和人 桐ケ谷
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
Yukara Ikemiya
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
hirokazutanaka
 

Similar to 日曜数学会Vol5 up用 bessel関数 (6)

複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解複素ラプラス分布に基づく非負値行列因子分解
複素ラプラス分布に基づく非負値行列因子分解
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 

日曜数学会Vol5 up用 bessel関数