Home
Explore
Submit Search
Upload
Login
Signup
Advertisement
Check these out next
【DL輪読会】Reward Design with Language Models
Deep Learning JP
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
Deep Learning JP
【DL輪読会】One-Shot Domain Adaptive and Generalizable Semantic Segmentation with ...
Deep Learning JP
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
【DL輪読会】Segment Anything
Deep Learning JP
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
1
of
11
Top clipped slide
【DL輪読会】NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and Animation
Feb. 10, 2023
•
0 likes
0 likes
×
Be the first to like this
Show More
•
119 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Download Now
Download to read offline
Report
Technology
2023/2/10 Deep Learning JP http://deeplearning.jp/seminar-2/
Deep Learning JP
Follow
Deep Learning JP
Advertisement
Advertisement
Advertisement
Recommended
【DL輪読会】大量API・ツールの扱いに特化したLLM
Deep Learning JP
126 views
•
19 slides
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
74 views
•
15 slides
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
Deep Learning JP
132 views
•
18 slides
【DL輪読会】Egocentric Video Task Translation (CVPR 2023 Highlight)
Deep Learning JP
80 views
•
36 slides
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
787 views
•
16 slides
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
1.4K views
•
16 slides
More Related Content
More from Deep Learning JP
(20)
【DL輪読会】Reward Design with Language Models
Deep Learning JP
•
623 views
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
Deep Learning JP
•
289 views
【DL輪読会】One-Shot Domain Adaptive and Generalizable Semantic Segmentation with ...
Deep Learning JP
•
224 views
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
•
380 views
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
•
863 views
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
1.1K views
【DL輪読会】Segment Anything
Deep Learning JP
•
1.9K views
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
•
250 views
【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)
Deep Learning JP
•
425 views
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
•
248 views
【DL輪読会】Bridge-Prompt: Toward Ordinal Action Understanding in Instructional Vi...
Deep Learning JP
•
325 views
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
•
342 views
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
Deep Learning JP
•
467 views
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
623 views
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
•
1.2K views
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
Deep Learning JP
•
760 views
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
Deep Learning JP
•
294 views
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
•
409 views
【DL輪読会】HexPlaneとK-Planes
Deep Learning JP
•
1.1K views
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
•
282 views
Recently uploaded
(20)
20230523_IoTLT_vol99_kitazaki_v1.pdf
Ayachika Kitazaki
•
112 views
PCベース制御による集中制御.pdf
ssusercd9928
•
19 views
AIEXPO_CDLE名古屋紹介
KotaMiyano
•
4 views
DrupalをDockerで起動してみる
iPride Co., Ltd.
•
22 views
CDLEハッカソン2022参加報告.pdf
SHOIWA1
•
10 views
Üslup ve tercüme.pdf
1Hmmtks
•
2 views
Forguncy8 製品概要 202305.pptx
フォーガンシー
•
56 views
Forguncy製品概要.pptx
フォーガンシー
•
127 views
ChatGPT触ってみた
infinite_loop
•
62 views
SoftwareControl.pdf
ssusercd9928
•
15 views
ネットワークパケットブローカー市場.pdf
HinaMiyazu
•
8 views
社内ソフトスキルを考える
infinite_loop
•
90 views
3Dプリンタって いいね
infinite_loop
•
64 views
《杨百翰大学毕业证|学位证书校内仿真版本》
d520dasw12
•
2 views
20230602_enebular_meetup_kitazaki_v1.pdf
Ayachika Kitazaki
•
39 views
20230601_Visual_IoTLT_vol14_kitazaki_v1.pdf
Ayachika Kitazaki
•
72 views
ペンタエリスリトール市場.pdf
HinaMiyazu
•
3 views
コードレビュー改善のためにJenkinsとIntelliJ IDEAのプラグインを自作してみた話
Rakuten Group, Inc.
•
35 views
初学者のためのプロンプトエンジニアリング実践.pptx
Akifumi Niida
•
478 views
Oracle Cloud Infrastructure:2023年5月度サービス・アップデート
オラクルエンジニア通信
•
32 views
Advertisement
【DL輪読会】NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and Animation
1 NeuWigs: A Neural
Dynamic Model for Volumetric Hair Capture and Animation Naruya Kondo (Digital Nature Group M2)
書誌情報 2 ● NeuWigs: A
Neural Dynamic Model for Volumetric Hair Capture and Animation ○ Arxiv (Submitted on 2022/12/1) ○ 著者:CMU, Meta, Google, Epic (※ Work done while at Meta) ■ Ziyan Wang, Giljoo Nam, Tuur Stuyck, Stephen Lombardi, Chen Cao, Jason Saragih, Michael Zollhoefer, Jessica Hodgins, Christoph Lassner ● ひとことで言うと ○ 「Primitiveで小さなNeRF達」を逐次的に動かし、非剛体シミュレーションする ○ 髪の毛を、リアルタイムなObservation無しで、シミュレーションできる! ■ 再生/再構成ではなく、異なる時間発展に対応できる ■ (リアルタイムに動くかは不明だけど、そんなに重くなさそう) ○ (ネタっぽいけど、非剛体sim的に凄そう)
プロジェクトページ 3
問題設定 4 ● 学習: ある1つの髪(wig)
で撮った時系列データを学習 ● 評価: 新しい動きを入力にして、髪空間を生成&描画 ● データ ○ {うなずく, 首振り, 傾げる} × {速い, 遅い} を何回も ○ 100カメラ, 30fps, 恐らく1回10秒程度 大量カメラは正義 (真理)
Overview • State compression –
各時刻の点群をAutoencoderで z_t に埋め込み。 • 出力: 点群の位置, 向き, 大きさ – Volumetric Primitivesで、小さなNeRFを組み合わせて全体を描画 • Dynamic model training – z_t, 顔中心の動き, 重力から z_{t+1} を予測 5 学習① 学習② 評価 • z_t が与えられるとdecodeでき、 時間変化も生成できる
State compression 1. l-MVSで髪の点群
p_t を得る – unordered 2. PointNetでエンコード – MaxPooling等で順番に依存しない 3. MLPでデコード – 順番が揃うらしい(?) – 点群 q_t の位置、向き、スケールを得る 4. Loss: 位置、向き、Flow(変位) + N(0,1)とのKL 6 一番近い点との差
State compression 1. ⇧全部を組み合わせ、1つのNeRF
Field を作る (V^{all}) 2. Volume rendeing 3. Loss: L1 + VGG つまり、z_tが与えられると、decode&renderができる 7 sparseなNeRF とも言える? 光線上の透過率αの差分 だけ色rgbを足す
Dynamic model training 1.
enc, decを固定して、学習データ のz_tの系列について、 次の z_t を予測 h: 頭の中心, g: 重力の方向 2. Loss 8 z_tは分布で、μ, δはその平均と分散
Dynamic model testing •
テストの際、そのまま予測したz_{t+1}を使うと、ノ イズが蓄積する – ⇨ decodeしてencodeしてから使った – (ノイズがとれるらしい) 9
評価 10
感想 • primitiveの動きに注目して学習するというのが良さそう • 激しい動きにどれくらい対応できる? •
髪の毛以外に応用できる? • 髪の毛の周りのGhostが気になる (あるある?) • 先にencoder / decoderを学習して、後から潜在変数(の遷移)を学習するのと、end-to-endで学習する の、結局どちらが良いのだろう – 最近は前者をよく見る気がする – (本論文、diffusion系、transformer系しかり) – (松尾先生はend2end推しらしい) • primitiveの境界はどうしてる? by 山川先生 11
Advertisement