28. 関連研究
• Geometry-Aware Recurrent Neural Networks for Active Visual Recognition
• NeurIPS 2018に採択
• 同じ研究グループの論⽂
• 同様のシステムを動的に観測位置を変化させるエージェントに適⽤
• よりinformativeな⽅向を視点を動かす⽅策を学習できた
R. Cheng et al. “Geometry-Aware Recurrent Neural Networks for Active
Visual Recognition”, NeurIPS, 2018.
R. Cheng et al. Supplemental materials of “Geometry-Aware Recurrent
Neural Networks for Active Visual Recognition”, NeurIPS, 2018.
30. View Synthesis by Appearance Flow
• Novel view synthesis のタスクを, 2D画像からのフロウを推定することにより解
いた。
• フレームワーク全体は下図のようになる。これは⼀気通貫に学習することができ
る。
T. Zou et al. “View Synthesis by Appearance Flow”, in ECCV, 2016.
31. Transformation-Grounded Image Generation
Network for Novel 3D View Synthesis
• NovelViewSynthesisのタスクにおいて、新規視点でのオブジェクトのうちソー
ス画像で⾒えている部分はそれをコピーして⽤い、残りの部分はGANで⽣成する
ような枠組みを提案した。ネットワークはdisocclusion-aware appearance flow
network (DOAFN) とcompletion networkから構成される。
• 先⾏研究のAppearance Flow Network (AFN) よりもよい結果を得た。
E. Park et al. “Transformation-Grounded Image Generation Network for Novel 3D View Synthesis”, in CVPR, 2017.
32. Visual Object Networks: Image Generation with
Disentangled 3D Representations
• 3Dを考慮した画像⽣成を⾏う⼿法の提案
• 3D shapeの⽣成→ターゲット視点に対応した深度画像とマスクに変換→
テクスチャコードを与えて画像にCNNでレンダリング
J. Zhu et al. “Visual Object Networks: Image Generation with Disentangled 3D Representations”, in NeurIPS, 2018.
33. Multi-view to Novel view: Synthesizing novel views
with Self-Learned Confidence
• 複数視点の画像から、新規視点の画像を⽣成する⼿法の提案。フレームワークはFlowPredictorと
Recurrent Pixel Generatorからなり、前者はソース画像からターゲット画像へのフロウを推定し、
後者は⼊⼒から直接画像を復元することを試みる。最後にこれらを確信度で重み付けをして統合す
る。
• 3DCGのオブジェクトを⽤いて実験を⾏い当時のSOTAとなった。
S. Sun et al. “Multi-view to Novel view:
Synthesizing novel views with Self-Learned
Confidence”, in ECCV, 2018.
34. Transformable Bottleneck Networks
• 2D画像をCNNにより3Dの編集ができるようにする⼿法の提案。
• 画像から3D featureを抽出し、そこにターゲットポーズに関する変形を⼊れたのち2Dへ
の投影を⾏い、画像の再構成など後段のタスクを⾏う。
• これにより剛体変換にとどまらない3Dを考慮した画像編集を⾏うことができる。
K. Olszewski et al. “Transformable Bottleneck Networks”, 2019.
35. DeepVoxels: Learning Persistent 3D Feature
Embeddings
• 画像シーケンスを1つのボクセル表現に落とし込む⼿法の提案。
• 提案⼿法のフレームワークは以下の順で処理を⾏う。
• 画像から2D featureを抽出→2D featureを3D featureに再投影→これらを画像シーケンスについて⾏いGRUで統合
→3D featureをターゲットの視点へ投影し画像を再構成
• この再構成誤差により全体のフレームワークの学習を⾏う。
• 提案⼿法はnovel view synthesisの性能が良い。
V. Sitzmann et al. “DeepVoxels: Learning Persistent 3D Feature Embeddings”, in CVPR, 2019.
36. DeepVoxels: Learning Persistent 3D Feature
Embeddings
V. Sitzmann et al. “DeepVoxels: Learning Persistent 3D Feature Embeddings”, in CVPR, 2019.
37. 参考⽂献
• S. Eslami et al. Neural Scene Representation and Rendering, Science, 2018.
• T. Zou et al. “View Synthesis by Appearance Flow”, in ECCV, 2016.
• E. Park et al. “Transformation-Grounded Image Generation Network for Novel 3D View Synthesis”, in CVPR,
2017.
• J. Zhu et al. “Visual Object Networks: Image Generation with Disentangled 3D Representations”, in NeurIPS,
2018.
• S. Sun et al. “Multi-view to Novel view: Synthesizing novel views with Self-Learned Confidence”, in ECCV,
2018.
• K. Olszewski et al. “Transformable Bottleneck Networks”, 2019.
• V. Sitzmann et al. “DeepVoxels: Learning Persistent 3D Feature Embeddings”, in CVPR, 2019.
• R. Cheng et al. “Geometry-Aware Recurrent Neural Networks for Active Visual Recognition”, NeurIPS, 2018.
• H. Tung et al. “Learning Spatial Common Sense with Geometry-Aware Recurrent Networks”, in CVPR, 2019.