6. 発表の概要
1. Stereo Magnification: Learning view synthesis using multiplane
images, 2018
– 『MPI: multi-plane image』という疑似的な3D化手法を提案
– 2画像(ステレオカメラ)間の内挿&外挿
2. DeepView: View Synthesis with Learned Gradient Descent, 2019
– 1の改善, ~12カメラ
3. Immersive Light Field Video with a Layered Mesh Representation,
2020
– 2を球面に拡張, ~48カメラ
DLなところを中心に扱います
7. (余談) 最近のDeep×VR系で凄そうな研究
• リアルアバターVTuber by Google AI
– Volumetric Performance Capture of Humans with Realistic Relighting
– https://www.youtube.com/watch?v=anBRroZWfzI
• HMD被ったまま表情トラッキング&表情生成 by Facebook
– VR Facial Animation via Multiview Image Translation
– https://www.youtube.com/watch?v=IoVP3cMIm_Q
18. • 入力:I1(H×W×3)
plane sweep(H×W×3×D)
• 出力:① 背景画像(H×W×3) (透過なしのRGB)
② くり抜き用の重み(H×W×D)
③ 各planeの透過率(H×W×D)
NN学習部分
②
①
画像1(I1)
画像2(I2)
③
結局この手法は、
うまく深度推定してくり抜
けるかがメイン