コンピュテーショナルフォトグラフィ
理解のための光学系入門
~ 4章 ~
#cvsaisentan
@mhr380
自己紹介
• 1991/11 :北海道生まれ
• ~2014/03 :某高専@北海道
• ~2016/03 :某大学院大学の修士課程@奈良
• 2016/04~ :某企業のCV系R&D見習い@東京
三原 基 (@mhr380)
※本発表は現在の所属組織とは一切関係ありません
おしながき
• 4章:応用例
• 4.1: カメラアレイによるライトフィールドの獲得
• 4.2: カメラ内部の工夫によるライトフィールドの獲得
• 4.3: 合成開口法によるリフォーカス
日浦慎作, コンピュータビジョン最先端ガイド4,
第2章 コンピュテーショナルフォトグラフィ理解のための光学系入門
ライトフィールド #とは
シーン中を飛び交う光線の集合
「普通の」カメラでシーンを撮影
u
v
x
y
Main Lens
Scene
Sensor
様々な角度からセンサに入射する光線を
角度方向に積分 4D から 2Dへ
どのように4Dのまま光線を獲得する?
Scene
何らかの
装置
おしながき
• 4章:応用例
• 4.1: カメラアレイによるライトフィールドの獲得
• 4.2: カメラ内部の工夫によるライトフィールドの獲得
• 4.3: 合成開口法によるリフォーカス
日浦慎作, コンピュータビジョン最先端ガイド4,
第2章 コンピュテーショナルフォトグラフィ理解のための光学系入門
どのように4Dのまま光線を獲得する?
Scene
https://openclipart.org/detail/168562/camera-no-filters
• たくさんカメラを並べる
(注)図は正確ではありません
カメラアレイによる
ライトフィールドの獲得
• 大変由緒正しき手法
http://graphics.stanford.edu/projects/array/
The Stanford Multi-Camera Array ViewPLUS ProFUSION25
http://www.viewplus.co.jp/product_old.html
カメラアレイによる
ライトフィールドの獲得
u
x
pp. 39, 図2.14
カメラアレイによる
ライトフィールドの獲得
x
x
x
x
u
(注)pp.33 図2.8(b)に、uは光線の傾きを表すと定義されている
u
x
カメラアレイによる
ライトフィールドの獲得
u
x
カメラアレイによる
ライトフィールドの獲得
u
x
カメラアレイによる
ライトフィールドの獲得
u
x
カメラアレイによる
ライトフィールドの獲得
u
x
u
v
カメラアレイのメリット
分解能が良好
• カメラ1台あたりの画素数 = 空間サンプル数
• カメラの台数 = 角度サンプル数
大開口の実現
• 通常のカメラでは不可能な、巨大なボケを作り出すことが可能
• 合成開口(4.3章:後述)
カメラアレイのデメリット
カメラすべての同期が必要
• つらそう
角度方向に密なサンプリングが難しい
• カメラ1台1台がある程度の大きさを持つため
装置が大型化
おしながき
• 4章:応用例
• 4.1: カメラアレイによるライトフィールドの獲得
• 4.2: カメラ内部の工夫によるライトフィールドの獲得
• 4.3: 合成開口法によるリフォーカス
日浦慎作, コンピュータビジョン最先端ガイド4,
第2章 コンピュテーショナルフォトグラフィ理解のための光学系入門
どのように4Dのまま光線を獲得する?
Scene
何らかの
装置
どのように4Dのまま光線を獲得する?
u
v
Main Lens
x
y
Scene
Sensor
レンズアレイを用いることで
1つのセンサでライトフィールドを獲得
レンズアレイによる
ライトフィールドの獲得
• Plenoptic Camera [Adelson+, TPAMI ’92]
• レンズアレイ式の元祖
• ステレオ視による物体形状取得が目的
レンズアレイによる
ライトフィールドの獲得
• Hand-held Plenoptic Camera [Ng+, ’05]
• [Adelson+, ’92]を手持ちできるよう改良
• 主にリフォーカスをアプリケーションとして据えている(後述)
http://graphics.stanford.edu/projects/lightfield/ren-ng.jpg
• Lytro
• Ren Ngが立ち上げたスタートアップ
• 1st gen. (左)は’12年発売、2nd gen.(右)は’14年発売
レンズアレイによる
ライトフィールドの獲得
https://lytro.com/
• Ren NgはLytroへのフルタイムなコミットをやめ、
UC Berkeleyでfacultyになった(’15~)
• 国際会議へ発表に行ったら
座長が彼だった
余談
レンズアレイによる
ライトフィールドの獲得
Image sensor
Lens array
Main lensObject
Sub aperture
A
B
C
(c)
(b)
(a)
(c)
(b)
(a)
(c)
(b)
(a)
• レンズアレイを通って、下部(a)に記録される光線は、
メインレンズ中のA領域を通る
• 同様に、(b)に記録される光線は、メインレンズのB領域を通る
センサに記録される画像
センサに記録される画像
x
y
(c)
(b)
(a)
(c)
(b)
(a)
(c)
(b)
(a)
(a)
(a)
(a)(a)
(a)
(a)
(a) (a) (a)
Rawデータ
前ページの領域Aを
通ってきた光線から
構成される画像
レンズアレイ方式のメリット
小型化が可能
角度方向に密なサンプリングが可能
レンズアレイ方式のデメリット
空間解像度が低下
1枚のセンサで光線の位置と傾きを計測
3000x4000画素のセンサを用いても、リフォーカス画像自体はVGAサイ
ズまで低下
キャリブレーションがつらい
Lytroは工場で1台ごとにキャリブレーションしているという噂
おしながき
• 4章:応用例
• 4.1: カメラアレイによるライトフィールドの獲得
• 4.2: カメラ内部の工夫によるライトフィールドの獲得
• 4.3: 合成開口法によるリフォーカス
日浦慎作, コンピュータビジョン最先端ガイド4,
第2章 コンピュテーショナルフォトグラフィ理解のための光学系入門
ライトフィールドを取得して
何が嬉しいのか?
• 多眼ステレオによる形状取得
• 未だにトップカンファレンスに毎回数本ずつくらい採択
• 自由視点画像生成、Image based rendering
• (最近は)HMD用コンテンツ作成
• リフォーカス
[Wanner+, CVPR ‘13]
• [Ng+, ’05]
Hand-held Plenoptic Camera
http://graphics.stanford.edu/projects/lightfield/ren-ng.jpg
光線のシミュレーションが可能
• Lytroによるリフォーカス
https://pictures.lytro.com/lytro/collections/41/pictures/1003531
ライトフィールドが取得できていると?
物体 センサ
光線が「どこから」「どこへ」向かっているかがわかる
ライトフィールドが取得できていると?
物体 センサ
光線が「どこから」「どこへ」向かっているかがわかる
ライトフィールドが取得できていると?
例えばここにセンサがあったらどう写る?→ピントバッチリ!
ライトフィールドが取得できていると?
例えばここにセンサがあったらどう写る?→ちょっとボケる
ライトフィールドが取得できていると?
例えばここにセンサがあったらどう写る?→とてもボケる
実装
• 取得した多眼画像をずらして重ねあわせるだけ
A
B
Scene
u
0
1
2
Bu
d1[px]
d2[px]
カメラアレイによる合成開口
[Vaish et al., CVPR ‘04]
[Yang et al., ECCV ‘14]
ライトフィールドを用いない
リフォーカス
• 未較正合成開口法[Kusumoto, Hiura, Sato, CVPR ‘09]
• 少ない入力から、補完によってライトフィールドを復元
入力 出力(前面にフォーカス)
まとめ
• ライトフィールドの獲得方法
• カメラアレイ
• レンズアレイ
• 応用
• 今回はリフォーカスについて説明

0611_light field_cam_for_upload

Editor's Notes

  • #5 光線空間というのは,図に示すように,シーン中をあらゆる方向に飛び交う,光線の集合のことを あらわします.
  • #6 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.
  • #7 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.
  • #9 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.
  • #10 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.
  • #21 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.
  • #22 では,なぜ光線空間カメラでは光線の情報をまるごと記録できるか,について先に簡単に説明します. 光線の向きは,u-v平面およびx-y平面それぞれどこを通過したか,xyuvの4つのパラメータで定義されます. 従来のカメラでは,レンズの様々な方向から入射した光線は,イメージセンサ上の一点に集まり,その強度のみがピクセルとして出力されます. すなわち,光線をu-v方向について積分したもののみが出力されるため,その値からは角度情報得ることはできません. この縮退情報が,いわゆる2次元の画像です. 一方光線空間カメラは,イメージセンサの前方にレンズアレイを設置することで,様々なところから入射した光線を,センサ上の別々の箇所に記録します. この工夫により,光線の方向情報を保ったまま,記録することができます. なお、この光線空間は、u-v平面上の様々な点から撮影した画像の集まりと等価になるため、 得られた光線空間はu-v平面上に2次元画像が並んでいるものと表すことができます. 本発表では,光線空間はこのような4次元配列形式で表すものとします.