SlideShare a Scribd company logo
1 of 71
SIGGRAPH2019報告
宮澤 一之
AI本部 AIシステム部 AI研究開発第二グループ
株式会社ディー・エヌ・エー
• 論文紹介等における図表は、特に断りのない限り紹介対象の論文から引用したものです
• 会場の写真等は報告者が撮影したものです
自己紹介
2
• 2007〜2010年 東北大学博士課程
生体認証やステレオビジョンの研究に従事
日本学術振興会特別研究員(DC1)
• 2010〜2019年 電機メーカ研究所
映像符号化、標準化活動
車載・監視カメラ物体認識、外観検査
• 2019年〜 DeNA
@kzykmyzw
宮澤 一之
株式会社ディー・エヌ・エー
AI本部 AIシステム部 AI研究開発エンジニア
SIGGRAPH(シーグラフ)とは
• ACM SIGGRAPH(Special Interest Group on Computer
Graphics)主催のコンピュータグラフィックス(CG)に
関するトップカンファレンス
• 年に1回アメリカまたはカナダで開催され、近年の参加者
は15,000人前後(1997年のピーク時には5万人弱)
• CGに関する最新論文の発表やデモの他、企業ブースや
CG作品の上映、プロダクションによる最新映画のメイキ
ングに関する講演など、多種多様なセッションがある
• メインとなる技術論文はTechnical Papersと呼ばれ、採
択率は3割程度
• 2008年からはアジア地域で開催するSIGGRAPH Asiaが開
始(2018年の東京開催ではDeNAもスポンサーに)
3
https://www.siggraph.org/about/logos/
SIGGRAPH2019
• 7月28日〜8月1日の5日間、Los Angeles Convention Centerで開催
• 隣にMicrosoft Theaterという劇場があり、そちらでCG作品の上映会などを開催
4
会場の様子
5
エントランス 企業ブースやデモ展示のためのホール
Programs & Events
6https://s2019.siggraph.org/conference/programs-events/
Programs & Events
• 1日に80近いセッション(朝8時〜夜8時くらい)が開催され、スケジューリングに迷う
• コンピュータビジョンやディープラーニングの技術的観点から興味深いもの、および
SIGGRAPHとしてポピュラーなものをチェック
• 主にチェックしたセッション
 Technical Papers:オーラル発表にあたるセッションで技術的に世界最高峰
 Posters:ポスター発表
 Emerging Technologies:未完成だが先端的な技術のデモ発表
 ACM SIGGRAPH Frontiers:招待講演やワークショップなど
 Production Sessions:最新映画やドラマのメイキングに関する講演
 VR Theater:VR映像・ゲームの体験
 Computer Animation Festival:優れたCG作品をシアターで上映
7
Programs & Events
• 1日に80近いセッション(朝8時〜夜8時くらい)が開催され、スケジューリングに迷う
• コンピュータビジョンやディープラーニングの技術的観点から興味深いもの、および
SIGGRAPHとしてポピュラーなものをチェック
• 主にチェックしたセッション
 Technical Papers:オーラル発表にあたるセッションで技術的に世界最高峰
 Posters:ポスター発表
 Emerging Technologies:未完成だが先端的な技術のデモ発表
 ACM SIGGRAPH Frontiers:招待講演やワークショップなど
 Production Sessions:最新映画やドラマのメイキングに関する講演
 VR Theater:VR映像・ゲームの体験
 Computer Animation Festival:優れたCG作品をシアターで上映
8
Technical Papers
• 30ヶ国から385本の投稿があり、111本が採択(採択率28.8%)
• ACM Transactions on Graphicsからの招待論文31本を含め、142本が発表された
• 32カテゴリに分けて発表され、各カテゴリは4〜5本程度
9
1. Image Science
2. Shape Science
3. Light Science
4. Capture Control
5. Advanced Volume Rendering
6. Human Capture and Modeling
7. Meshing
8. High Performance Rendering
9. Photo Science
10. Textile and Fabrication
11. Neural Rendering
12. Deformation and FEM
13. Learning to Move
14. Relighting and View Synthesis
15. Fabrication
16. Scene and Object Reconstruction
17. Transport: Parallel and Optimal
18. Off the Deep End
19. Fluids I
20. VR and AR
21. Motion in Control
22. Maps and Operations
23. Video
24. Fabricated Results
25. Animation and Skinning
26. Computational Imaging
27. MPM and Collision
28. Sound Graphics
29. Machine Learning for Rendering
30. Fluids II
31. Design and Layout
32. Acquiring, Perceiving and Rendering
Material Appearance
2019年の傾向
• 初参加のため例年との比較はできないが、昨年のカテゴリタイトルと比べてみると、ディープラーニ
ングを想起させるものが増えている
 Neural Rendering、Off the Deep End、Machin Learning for Rendering
• 142本全てに目を通したところ、ディープラーニングを取り入れている論文は44本(31%)
• ディープラーニングの利用が5割以上のカテゴリ(上記3つの特化カテゴリは自明のため除く)
 Image Science:画像取得、画像処理
 Capture/Control:動きや形状の取得のためのセンサ、モーションコントロール
 Human Capture and Modeling:人間の動きや形状の取得
 Photo Science:画像の生成やスタイル変換
 Learning to Move:キャラクターの動きの生成
 Relighting and View Synthesis:任意視点、任意照明条件画像の生成
 Animation and Skinning:3Dモデルとスケルトンの関連付け
 Sound Graphics:CGへの音響付与
 Design and Layout:デザインやレイアウトの自動化
 Acquiring, Perceiving and Rendering Material Appearance:材質のアピアランスの取得、表現
10
発表の様子
• 発表は質疑応答含めて20分強
• 提案技術の欠点や対応できないケースについて最後にしっかりと説明する発表が非常に多かった
• どの発表でもほぼ必ず3、4件以上の質問が会場から出ていた
11
紹介論文
• Hyperparameter Optimization in Black-box Image Processing using Differentiable Proxies
• Handheld Multi-Frame Super-Resolution
• Local Light Field Fusion: Practical View Synthesis with Prescriptive Sampling Guidelines
• LiveCap: Real-Time Human Performance Capture from Monocular Video
• TileGAN: Synthesis of Large-Scale Non-Homogeneous Textures
• Progressive Color Transfer with Dense Semantic Correspondences
• VR Facial Animation via Multiview Image Translation
• Text-based Editing of Talking-head Video
• MeshCNN: A Network with an Edge
• Stylizing Video by Example
• Content-aware Generative Modeling of Graphic Design Layouts
12
13
Project: http://www.cs.princeton.edu/~fheide/proxyopt
概要
• デジカメにおける絵作りを担当するImage Signal Processing(ISP)ユニットには数多くの
パラメータがあり、職人によって時には数ヶ月をかけてチューニングされている
• CNNによってISPの挙動を模倣し、目的に応じた尺度に基づいてISPの最適なパラメータを
自動的に算出する手法を提案
• 手動でのパラメータ探索を主観的、客観的に上回る性能を達成
14
https://www.youtube.com/watch?v=jq0xY5hIE8o
手法
• ISPパラメータをランダムに変えた画像のDBを作り、入力画像とISPパラメータのペアから
ISP処理後の画像を推測するUNetライクなCNNを学習
• 学習完了後、目的となるタスクに沿ったロスを設定し、学習で得られたCNNの重みは固定
したうえでロスを最小化するISPパラメータをbackpropagationで求める
• 画質調整等では、真値画像と出力画像との差分をロスとして与える
• IoUをロスとして与え、ISPパラメータの調整で物体検出の精度を向上させることも可能
15
結果(上段:ノイズ除去、下段:物体検出)
16
Detection with optimized parametersDetection with expert-tuned parameters
17
arXiv: https://arxiv.org/abs/1905.03277
概要
• 1つの撮像素子でカラー画像を得るにはRGBを異なる画素に割り当てるカラーフィルタが用
いられるが、これにより解像度が低下する
• 手持ちカメラにより撮影された動画を用いれば手ブレにより微小に位置ずれした複数枚の画
像が得られることになり、位置ずれを補正して再サンプリングすることで超解像が可能
• 手ブレのランダム性や被写体の動き、オクルージョン等を考慮することで性能を向上
18
手法
• 微小な動きのある動画の各フレームを位置合わせし、各フレームがある画素に対してどの程
度寄与するかをカーネル回帰により推定
• 局所的なディテールの強調、および時系列でのデノイジングが可能な異方性のガウス型RBF
(anisotropic Gaussian Radial Basis Function)をカーネル関数として利用
• 画素値の統計量に基づいて位置合わせのミスやオクルージョンが発生しやすい領域を特定し、
そうした領域を除外して各フレームをマージすることでロバストな超解像を実現 19
結果
• ディープラーニングを使った手法(DeepJoint)と比較
して高い画質を実現
• 1秒あたりの処理画素数を比較した場合、提案手法は従
来手法よりも圧倒的に多くの画素を処理可能(12メガ
ピクセルのRAW画像に対して0.1秒)
20
21
Project: https://people.eecs.berkeley.edu/~bmild/llff/
概要
• 不規則なグリッド状の視点から撮影した複数の画像を用いて新たな視点の画像を生成
• 従来は非常に多くの撮影視点が必要であり撮影が困難だったが、撮影視点を削減し、ユーザ
に対して最適な撮影視点をガイドするアルゴリズムを開発
• ディープラーニングを用いた画像合成により、極めて自然な画像の生成を実現
22
手法
• 各視点の画像とその隣接視点の画像を3D CNNに入力し、シーンを奥行き方向に離散的に分
割した表現方法であるMPI(Multiplane Image)に変換
• ターゲットとなる視点の画像を各MPIから生成し、それらの重み付き和により最終的な画像
をレンダリング
• 単純に各MPIをブレンディングするとオクルージョン領域でアーチファクトが発生するため、
オクルージョン領域をそれぞれのMPIでカバーし合うことで自然なレンダリングを実現
23
結果
24
ref. https://people.eecs.berkeley.edu/~bmild/llff/
25
Project: https://gvv.mpi-inf.mpg.de/projects/LiveCap/
概要
• 単眼カメラの映像から時空間的に一貫性のある人物の3次元形状を服装も含めて取得
• あらかじめ複数視点から撮影した画像から3次元のテンプレートモデルを生成しておき、そ
れを現在の撮影フレームに合うように変形させる
• 2つのGPUと1つのCPUを用いたパイプライン実装により25fpsのリアルタイム処理を実現
26
手法
• 前処理として対象人物の多視点画像から3Dテンプレートを生成し、スケルトンと顔ランドマー
クを手動で設定してhuman parsingにより皮膚や衣類種別などモデル表面のタイプを分類
• 入力フレームに対し、関節と顔ランドマークの位置、シルエットのアラインメント、時間方向
の安定性および解剖学的な妥当性を考慮したエネルギー最小化によりスケルトンの姿勢を推定
• 推定したスケルトン姿勢に合わせた3Dテンプレートを初期値として、入力フレームに合うよう
にテンプレートの表面形状を非剛体レジストレーションにより変形させる
• 入力フレーム処理(CPU)、姿勢推定(GPU1)、最適化とレジストレーション(GPU2)を
パイプライン実装し、リアルタイム処理を実現 27
結果
28
ref. https://youtu.be/HCC0z1WkQGc
29
arXiv: https://arxiv.org/abs/1904.12795
YouTube: https://www.youtube.com/watch?v=ye_HZOdW7kg
概要
• GANを用いて高解像度かつ豊富なディテールを持つ非一様なテクスチャ画像を生成
• 参照画像を与えることでユーザがインタラクティブに生成画像を編集できるGUIを開発
30
手法
• 生成したいテクスチャでGANの学習を行い、中間層の特徴マップを取り出してそこから最
終的に生成される画像とペアにして特徴マップ/画像のデータベースを構築
• 画像生成時には、参照画像を与えてそれをタイルに分割し、各タイルに類似する画像をDB
から検索して対応する特徴マップを得る
• タイルごとに得られた特徴マップを並べ、これをGeneratorの中間層に挿入して画像を生成
• 画像サイズやタイル間のブレンディングの度合いは特徴マップのクロップで調整可能
31
結果
32
33
arXiv: https://arxiv.org/abs/1710.00756
概要
• 対象画像と参照画像との構図が著しく異なる状況でのcolor transferは不自然な画像となる
ことがある
• 対象画像と参照画像との間で意味的な対応づけを行い、同じ意味を持つものが同じ色になる
ようにすることで自然なcolor transferを実現
34
手法
• 対象画像と参照画像の双方からVGG特徴を抽出し、特徴マップ上での最近傍探索により画
像間の意味的な対応関係を求める
• 得られた対応関係からcolor transferのガイドとなる画像を生成し、ガイド画像と参照画像
との差異を目的関数に設定して最適化問題を解くことでcolor transferを行う
• 上記の処理をプログレッシブに繰り返すことで最終的な画像を生成
• 複数の参照画像を用いる場合にも拡張可能であり、この場合は各参照画像から得られたガイ
ド画像を1枚に統合して用いる
35
結果
36
37
Paper: https://research.fb.com/publications/vr-facial-animation-via-multiview-image-translation/
概要
• VRヘッドセットをつけた状態で実世界に近いコミュニケーションを実現するため、ヘッド
セット内のカメラで撮影した画像からその人の3D顔モデルをリアルタイムにレンダリング
• あらかじめマルチカメラシステムを用いて個人の高精度な3D顔モデルを構築しておき、
ヘッドセット内のカメラ画像から対応関係を求めてモデルを現在の表情や顔向きに合わせる
ためのパラメータを推測
• ヘッドセットのカメラ画像とモデル画像とのドメインギャップを埋めるため、GANに基づ
くimage transferを利用
38
手法
• ヘッドマウントカメラの画像を入力とするエンコーダと、エンコード結果から3Dメッシュ
とテクスチャを生成するデコーダを利用(デコーダは他論文で発表)
• 生成した3Dモデルからヘッドマウントカメラ視点の画像を生成し、これらと実際のヘッド
マウントカメラ画像とのロスを最小化することでエンコーダを学習
• 3Dモデルから生成した画像はカラーだがヘッドマウントカメラの画像はIRであるなどドメ
インギャップがあるため、image transferによりギャップを軽減してからロスを計算
39
結果
40
ref. https://www.youtube.com/watch?v=IoVP3cMIm_Q
3Dモデル取得システム(Light stage)
41
https://en.wikipedia.org/wiki/Light_stage
42
Paper: https://www.ohadf.com/projects/text-based-editing/data/text-based-editing.pdf
YouTube: https://www.youtube.com/watch?v=0ybLCfVeFL4
概要
• 映像中の人が話している内容をテキストベースで編集することで、編集後のテキストに合う
ように映像と音声の双方を生成
• 入力映像に対し、新たなワードの追加、既存ワードの変更および削除が可能
• 入力映像から話者の顔を3次元モデルとしてパラメータ化し、映像内で編集後のテキストと
発音時の見た目が類似している箇所のパラメータを利用して新たな顔をレンダリング
43
手法
• 入力映像から話者のパラメトリックな3次元顔モデルを生成
• viseme探索により、編集後のテキストの発音時の見た目に近いフレームを選び、そのフ
レームの顔パラメータを元のパラメータと自然につながるようにブレンディング
• 顔モデルに新たなパラメータを適用して表情を生成した後、顔の下半分だけを合成
• 時間方向、空間方向のそれぞれにDiscriminatorを導入したRNNを入力映像ごとに学習する
ことで合成画像を写実的な画像に変換
44
結果
45
ref. https://www.youtube.com/watch?v=0ybLCfVeFL4
46
Project: https://ranahanocka.github.io/MeshCNN/
概要
• 3D Meshに対するConvolutionとPoolingを実現するMeshCNNを提案
• エッジは常に2つの三角メッシュの1辺となるため、対象となるエッジとその周囲4本のエッ
ジに対してConvolutionとPoolingを定義
• Mesh ClassificationとSegmentationの双方に対して効果を確認
47
手法
• 各エッジから角度や長さの比など5次元のベクトルを生成し、エッジの入力順序に不変とな
るようそれらにSymmetric functionを適用したものをConvolutionへの入力とする
• Poolingでは特徴量が小さいエッジを削除して新たなエッジを生成し、元のエッジの特徴量
を平均化したものをそのエッジの特徴量とする
• Poolingの履歴を保持しておき、削除したエッジを元に戻すことでUnpoolingを実現
48
二面角
内角
エッジ長と
三角形の高さの比
結果
49
Mesh Classification
Poolingが進むにつれて、重要な領域のみが抽出されていく
Mesh Segmentation
50
Project: https://dcgi.fel.cvut.cz/home/sykorad/ebsynth.html
概要
• 映像中のキーフレームに対してアーティストがStylizeした結果を他のフレームに伝搬
• 既存のパッチベース手法に対して複数のガイドチャネルを導入することで性能を向上
• 複数のキーフレームが与えられた場合でも、キーフレーム間で不自然なStylize結果とならな
いようスムーズに補間する手法を提案
51
手法
• 従来のパッチベース手法に対して、5種類のガイドチャネルを導入して性能を向上(Color
guide:映像の見た目、Mask guide:RoI、Positional guide:キーフレームとの画素位置の
対応、Edge guide:物体のエッジや顕著な特徴、Temporal guide:時間方向の一貫性)
• 複数のキーフレームを用いる場合、それぞれのキーフレームで画像生成を行い、パッチマッ
チングのエラーを画素ごとに比較してエラーが小さい方の画素を選択
• 画素選択には時間方向の一貫性を考慮することでフリッカーを抑制
52
Positional guide
キーフレーム1で生成 キーフレーム2で生成 画素選択マスク
結果(赤枠がキーフレーム)
53
ref. https://youtu.be/SLDJab9E70g
54
Project: https://xtqiao.com/projects/content_aware_layout/
概要
• 画像とコンテンツ内容を表すキーワードなどから雑誌のレイアウトを自動生成
• 自動的に複数の候補を生成する他、ユーザの意図をラフスケッチで反映させることも可能
• レイアウトとコンテンツの条件付き分布をGANにより獲得
• GANの学習のため、雑誌レイアウトの大規模なデータセットを構築
55
手法
• 入力となる画像、キーワード、アトリビュートのそれぞれから特徴ベクトルを生成し、それ
らを統合することでマルチモーダル特徴を生成
• 潜在変数とマルチモーダル特徴からレイアウトを生成する条件付きGANを学習
• ユーザ意図の反映のため、レイアウトのスケッチから潜在変数を生成するエンコーダも学習
• Webから約4000ページの雑誌を収集してアノテーションすることで学習用データを構築
56
結果
• 一般人およびエキスパートによるユーザスタディを
実施し、ベースライン vs 提案手法、真値 vs 提案
手法でどちらが良いかを調査
• ベースラインとの比較では、全レイアウトのうち約
6〜7割において提案手法のレイアウトの方が優れ
ているとの結果(真値との比較では4割強)
57
所感
• ディープラーニングに特化したセッションの設定など、ディープラーニングが大きな潮流と
なっていることは間違いないが、実際に使っている論文は3割程度とそれほど多くない
 アーティストによるコンテンツ作成の労力や、権利問題などで膨大かつ高品質なデータ
セットを構築するのが非現実的?
• 超解像やスタイル変換などの画像生成系はディープラーニング一色かと想像していたが、以
前からある手法をインクリメンタルに改良することでディープラーニングを使った手法を上
回るような性能を達成しているものも多い
• CGでは物理現象をいかに正確にシミュレートするか、あるいはアーティストの意図にいか
に忠実にレンダリングするか、などが重視されるためか、全てをディープラーニングでブ
ラックボックス化するようなアプローチは見られない
• ディープラーニングを使った技術では、CVコミュニティ等で提案されているSoTAを既存の
CGパイプラインの一部に取り入れ、性能向上や計算の効率化を図っているものが目立つ
• とにかくCGの品質を高めることが目的である場合は、例えばユーザごとにLight stageでの
データ取得を行うなど、データ取得コストは度外視されている
58
今後の方向性(個人的な予想)
• 以下のような方向性でディープラーニングの導入、CVとの融合が進む
 データ取得の効率化
 シミュレーションの簡易化
 CG作成におけるアーティストや一般ユーザの労力削減
 スマホにおける新たな画像・映像表現
• VRやARはゲーム以外の用途で大きなものが見えていない
 デバイス側の進化は停滞
 医療での活用はありそう(医師向け、患者向け双方)
 遠隔コミュニケーションをよりリアルなものにする、という観点ではOculusを擁する
FacebookのReality Labsが超強力に技術開発を進めているが、普及するかは “?”
59
Programs & Events
• 1日に80近いセッション(朝8時〜夜8時くらい)が開催され、スケジューリングに迷う
• コンピュータビジョンやディープラーニングの技術的観点から興味深いもの、および
SIGGRAPHとしてポピュラーなものをチェック
• 主にチェックしたセッション
 Technical Papers:オーラル発表にあたるセッションで技術的に世界最高峰
 Posters:ポスター発表
 Emerging Technologies:未完成だが先端的な技術のデモ発表
 ACM SIGGRAPH Frontiers:招待講演やワークショップなど
 Production Sessions:最新映画やドラマのメイキングに関する講演
 VR Theater:VR映像・ゲームの体験
 Computer Animation Festival:優れたCG作品をシアターで上映
60
発表の様子
• Postersは一般的なポスターセッション、Emerging Technologiesはデモ展示
• Posters(74本)では1/4以上、Emerging Technologies(27本)では1/2以上が日本からの
発表であり、日本勢の存在感が強い
61
Posters Emerging Technologies
紹介論文
Posters
• Graph Matching based Anime Colorization with Multiple References
• Skinning Vector Graphics with GANs
Emerging Technologies
• A Compact Retinal Scan Near-Eye Display
• Arque: Artificial Biomimicry-Inspired Tail for Extending Innate Body Functions
62
Graph Matching based Anime Colorization with Multiple References
Akinobu Maejima, Hiroyuki Kubo, Takuya Funatomi, Tatsuo Yotsukura, Satoshi Nakamura, Yasuhiro Mukaigawa
• アニメーターの労力削減を目的とした線画への自動彩色
• 過去の彩色結果など、すでに彩色済みの複数の画像を参照画像として用いる
• 画像中に含まれる閉領域の位置関係をグラフで表現し、グラフマッチングにより複数の参照
画像の中から最適なものを探索して彩色
• 1枚の参照画像しか用いない場合に比べてグラフ構造の変化にロバストな彩色が可能
63
Skinning Vector Graphics with GANs
Ankit Phogat, Matthew Fisher, Danny M. Kaufman, Vineet
• ベクターグラフィックスのユーザによる直感的な編集を実現
• Conditional GANを用いてベクターグラッフィクスの編集のための制御点を画像から推測
• ベクターグラッフィクスからメッシュを生成し、ユーザの編集に合わせてメッシュを変形さ
せたうえでベジェ曲線をフィッティングすることで最終画像を生成
• Adobe MAX 2018のSNEAKSで発表された技術と思われる
https://www.youtube.com/watch?v=9OFtpPD8TYU
64
入力画像 入力画像から編集して生成した画像
A Compact Retinal Scan Near-Eye Display
Katsuyuki Akutsu, Susumu Seino, Yusuke Ogawa, Kenji Ohki, Atsushi Takahashi, Daisuke Ueda, Ryo Ogawa, Teppei
Imamura, Akira Yoshikaie
• レーザを使った網膜走査型ディスプレイ
• デモ機を試したが、非常に明るく、かつシャープな映像が見える反面、スイートスポットが
きわめて狭く映像が正しく見えるようにディスプレイと目の位置関係を調整するのが困難で
あった
65
Arque: Artificial Biomimicry-Inspired Tail for Extending Innate Body Functions
Junichi Nabeshima, MHD Yamen Saraiji, Kouta Minamizawa
• 空気圧でコントロールする人工筋肉で作られた
ウェアラブルデバイス(尻尾)
• ユーザの動きをトラッキングすることでバランス
を補助するように尻尾が動く(片足立ちしている
ような時に、軸足と反対側に尻尾が動く)
• デモ機を試したが、見た目から受ける印象のよう
な大きな力を感じることはなく、自然にバランス
をサポートしてくれた
66
Programs & Events
• 1日に80近いセッション(朝8時〜夜8時くらい)が開催され、スケジューリングに迷う
• コンピュータビジョンやディープラーニングの技術的観点から興味深いもの、および
SIGGRAPHとしてポピュラーなものをチェック
• 主にチェックしたセッション
 Technical Papers:オーラル発表にあたるセッションで技術的に世界最高峰
 Posters:ポスター発表
 Emerging Technologies:未完成だが先端的な技術のデモ発表
 ACM SIGGRAPH Frontiers:招待講演やワークショップなど
 Production Sessions:最新映画やドラマのメイキングに関する講演
 VR Theater:VR映像・ゲームの体験
 Computer Animation Festival:優れたCG作品をシアターで上映
67
聴講したもの
• Workshop: Computer Graphics for Autonomous Vehicles [Program]
 CGを使った自動運転シミュレータの開発や活用事例についてのワークショップ
 NVIDIA:DIRVE Constellationの紹介やシミュレータ向けに開発した技術などを紹介
 Unity:自動運転シミュレータにいかにUnityが利用できるかを紹介
 Aurora, Uber ATG:シミュレータ活用事例やシミュレータ向けに開発した技術などを紹介
• Talk: How Computer Graphics Expertise Will Further the State of the Art in Machine Learning
 CGの知識がいかに機械学習分野で活かせるかについてGoogleでTensorflowの開発に携わるエンジニアが講演
 ジオメトリーや高精度シミュレーション、複雑な計算の効率化に関する知識などが重要とのこと
• Talk: Imaging a Black Hole with the Event Horizon Telescope
 ブラックホールのイメージングに関する講演
 使われた技術や、結果の妥当性を担保するためにいかに複数のグループで連携したかなどについて紹介
• Talk: Metric Telepresence
 Facebook Reality Labsによる遠隔コミュニーケーションをいかにリアルなものにするかについての講演
 同Labは元々はOculusのR&Dセンターであり、本分野においては世界でも最高レベルの技術を有していると思われる
 講演内容は主にTechnical Papersで発表された以下論文の紹介など
• Neural Volumes: Learning Dynamic Renderable Volumes from Images
• VR Facial Animation via Multiview Image Translation
68
Programs & Events
• 1日に80近いセッション(朝8時〜夜8時くらい)が開催され、スケジューリングに迷う
• コンピュータビジョンやディープラーニングの技術的観点から興味深いもの、および
SIGGRAPHとしてポピュラーなものをチェック
• 主にチェックしたセッション
 Technical Papers:オーラル発表にあたるセッションで技術的に世界最高峰
 Posters:ポスター発表
 Emerging Technologies:未完成だが先端的な技術のデモ発表
 ACM SIGGRAPH Frontiers:招待講演やワークショップなど
 Production Sessions:最新映画やドラマのメイキングに関する講演
 VR Theater:VR映像・ゲームの体験
 Computer Animation Festival:優れたCG作品をシアターで上映
69
それぞれの様子
70
有名プロダクションが最新作品のメイキング等に
ついて講演するProduction Sessionsには毎回長
蛇の列(アベンジャーズ、トイストーリー、ゲー
ムオブスローンズなど)
最新のVRゲーム・映像が体験できるVR Theater
は全日チケットソールドアウトの状態
Computer Animation Festivalでは会場に隣接す
るMicrosoft Theaterで短編アニメ24本を上映
受賞作品: https://s2019.siggraph.org/press/press-releases/siggraph-2019-computer-
animation-festival-announces-award-winners-one-night-only-event-at-microsoft-theater/
PixarのPurlという作品が
Best in showを受賞
おまけ
71
レセプションの様子
コーヒーブレイク
ノベルティ

More Related Content

What's hot

ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術Shohei Hido
 
NIPS2015概要資料
NIPS2015概要資料NIPS2015概要資料
NIPS2015概要資料Shohei Hido
 
Dataset for Semantic Urban Scene Understanding
Dataset for Semantic Urban Scene UnderstandingDataset for Semantic Urban Scene Understanding
Dataset for Semantic Urban Scene UnderstandingYosuke Shinya
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)Takuya Minagawa
 
拡がるディープラーニングの活用
拡がるディープラーニングの活用拡がるディープラーニングの活用
拡がるディープラーニングの活用NVIDIA Japan
 
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジYusuke Uchida
 
ディープラーニングの最新動向
ディープラーニングの最新動向ディープラーニングの最新動向
ディープラーニングの最新動向Preferred Networks
 
R-tech BDGにおける自然言語処理活動
R-tech BDGにおける自然言語処理活動R-tech BDGにおける自然言語処理活動
R-tech BDGにおける自然言語処理活動Recruit Technologies
 
CV勉強会CVPR2019読み会: Video Action Transformer Network
CV勉強会CVPR2019読み会: Video Action Transformer NetworkCV勉強会CVPR2019読み会: Video Action Transformer Network
CV勉強会CVPR2019読み会: Video Action Transformer NetworkToshiki Sakai
 
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Ryosuke Okuta
 
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝Preferred Networks
 
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたか
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたかリクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたか
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたかRecruit Technologies
 
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔Preferred Networks
 
【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Modelscvpaper. challenge
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知Hideo Terada
 
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...Toshiki Sakai
 
【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識Hirokatsu Kataoka
 
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyNeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyTatsuya Shirakawa
 

What's hot (20)

ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
 
NIPS2015概要資料
NIPS2015概要資料NIPS2015概要資料
NIPS2015概要資料
 
Dataset for Semantic Urban Scene Understanding
Dataset for Semantic Urban Scene UnderstandingDataset for Semantic Urban Scene Understanding
Dataset for Semantic Urban Scene Understanding
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
拡がるディープラーニングの活用
拡がるディープラーニングの活用拡がるディープラーニングの活用
拡がるディープラーニングの活用
 
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
 
ディープラーニングの最新動向
ディープラーニングの最新動向ディープラーニングの最新動向
ディープラーニングの最新動向
 
R-tech BDGにおける自然言語処理活動
R-tech BDGにおける自然言語処理活動R-tech BDGにおける自然言語処理活動
R-tech BDGにおける自然言語処理活動
 
CV勉強会CVPR2019読み会: Video Action Transformer Network
CV勉強会CVPR2019読み会: Video Action Transformer NetworkCV勉強会CVPR2019読み会: Video Action Transformer Network
CV勉強会CVPR2019読み会: Video Action Transformer Network
 
Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御Deep Learningを用いたロボット制御
Deep Learningを用いたロボット制御
 
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
 
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたか
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたかリクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたか
リクルートはいかにして、ディープラーニング(深層学習)の導入を成功させたか
 
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
 
【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models【CVPR 2020 メタサーベイ】Neural Generative Models
【CVPR 2020 メタサーベイ】Neural Generative Models
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知
 
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...
Cv勉強会cvpr2018読み会: Im2Flow: Motion Hallucination from Static Images for Action...
 
3Dモデル類似検索
3Dモデル類似検索3Dモデル類似検索
3Dモデル類似検索
 
【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識【チュートリアル】コンピュータビジョンによる動画認識
【チュートリアル】コンピュータビジョンによる動画認識
 
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyNeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under Uncertainty
 
可視化の先にあるものとは
可視化の先にあるものとは可視化の先にあるものとは
可視化の先にあるものとは
 

Similar to SIGGRAPH 2019 Report

CVPRプレゼン動画100本サーベイ
CVPRプレゼン動画100本サーベイCVPRプレゼン動画100本サーベイ
CVPRプレゼン動画100本サーベイYuki Yamashita
 
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)Toshiki Sakai
 
Iccv2019 参加報告
Iccv2019 参加報告Iccv2019 参加報告
Iccv2019 参加報告Yuta Nakagawa
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation Takumi Ohkuma
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDeep Learning JP
 
Behind-the-Scenes and Goals of LINE Summer Internship Program
Behind-the-Scenes and Goals of LINE Summer Internship ProgramBehind-the-Scenes and Goals of LINE Summer Internship Program
Behind-the-Scenes and Goals of LINE Summer Internship ProgramLINE Corporation
 
「関心の分離」と「疎結合」 ソフトウェアアーキテクチャのひとかけら
「関心の分離」と「疎結合」   ソフトウェアアーキテクチャのひとかけら「関心の分離」と「疎結合」   ソフトウェアアーキテクチャのひとかけら
「関心の分離」と「疎結合」 ソフトウェアアーキテクチャのひとかけらAtsushi Nakamura
 
(Ja) A unified feature disentangler for multi domain image translation and ma...
(Ja) A unified feature disentangler for multi domain image translation and ma...(Ja) A unified feature disentangler for multi domain image translation and ma...
(Ja) A unified feature disentangler for multi domain image translation and ma...Yamato OKAMOTO
 
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...Toshiki Sakai
 
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装Naoki Komatsu
 
Google I/O 19 Extended in Kyushu: Design Update
Google I/O 19 Extended in Kyushu: Design UpdateGoogle I/O 19 Extended in Kyushu: Design Update
Google I/O 19 Extended in Kyushu: Design UpdateNobuya Sato
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...Yamato OKAMOTO
 
エッジヘビーコンピューティングと機械学習
エッジヘビーコンピューティングと機械学習エッジヘビーコンピューティングと機械学習
エッジヘビーコンピューティングと機械学習Preferred Networks
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Yoshitaka Ushiku
 
Copy and-paste networks for deep video inpainting
Copy and-paste networks for deep video inpaintingCopy and-paste networks for deep video inpainting
Copy and-paste networks for deep video inpainting邦洋 長谷川
 
20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasy20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasyYoichi Shirasawa
 
Towards Performant Video Recognition
Towards Performant Video RecognitionTowards Performant Video Recognition
Towards Performant Video Recognitioncvpaper. challenge
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 

Similar to SIGGRAPH 2019 Report (20)

CVPRプレゼン動画100本サーベイ
CVPRプレゼン動画100本サーベイCVPRプレゼン動画100本サーベイ
CVPRプレゼン動画100本サーベイ
 
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
論文紹介:Ambient Sound Provides Supervision for Visual Learning(CV勉強会ECCV2016読み会)
 
Iccv2019 参加報告
Iccv2019 参加報告Iccv2019 参加報告
Iccv2019 参加報告
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation 「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Behind-the-Scenes and Goals of LINE Summer Internship Program
Behind-the-Scenes and Goals of LINE Summer Internship ProgramBehind-the-Scenes and Goals of LINE Summer Internship Program
Behind-the-Scenes and Goals of LINE Summer Internship Program
 
「関心の分離」と「疎結合」 ソフトウェアアーキテクチャのひとかけら
「関心の分離」と「疎結合」   ソフトウェアアーキテクチャのひとかけら「関心の分離」と「疎結合」   ソフトウェアアーキテクチャのひとかけら
「関心の分離」と「疎結合」 ソフトウェアアーキテクチャのひとかけら
 
(Ja) A unified feature disentangler for multi domain image translation and ma...
(Ja) A unified feature disentangler for multi domain image translation and ma...(Ja) A unified feature disentangler for multi domain image translation and ma...
(Ja) A unified feature disentangler for multi domain image translation and ma...
 
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...
CNN-RNN: A Unified Framework for Multi-label Image Classification@CV勉強会35回CVP...
 
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装
アノテートによる単語情報を活用したプレゼンテーションにおけるリアルタイム相互支援システムの提案と実装
 
Google I/O 19 Extended in Kyushu: Design Update
Google I/O 19 Extended in Kyushu: Design UpdateGoogle I/O 19 Extended in Kyushu: Design Update
Google I/O 19 Extended in Kyushu: Design Update
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...
NeurIPS2018読み会@PFN a unified feature disentangler for multi domain image tran...
 
エッジヘビーコンピューティングと機械学習
エッジヘビーコンピューティングと機械学習エッジヘビーコンピューティングと機械学習
エッジヘビーコンピューティングと機械学習
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
 
Copy and-paste networks for deep video inpainting
Copy and-paste networks for deep video inpaintingCopy and-paste networks for deep video inpainting
Copy and-paste networks for deep video inpainting
 
20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasy20120623 cv勉強会 shirasy
20120623 cv勉強会 shirasy
 
Towards Performant Video Recognition
Towards Performant Video RecognitionTowards Performant Video Recognition
Towards Performant Video Recognition
 
拡散する画像生成.pdf
拡散する画像生成.pdf拡散する画像生成.pdf
拡散する画像生成.pdf
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 

More from Kazuyuki Miyazawa

VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...Kazuyuki Miyazawa
 
Teslaにおけるコンピュータビジョン技術の調査 (2)
Teslaにおけるコンピュータビジョン技術の調査 (2)Teslaにおけるコンピュータビジョン技術の調査 (2)
Teslaにおけるコンピュータビジョン技術の調査 (2)Kazuyuki Miyazawa
 
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...Kazuyuki Miyazawa
 
Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査Kazuyuki Miyazawa
 
ドラレコ + CV = 地図@Mobility Technologies
ドラレコ + CV = 地図@Mobility Technologiesドラレコ + CV = 地図@Mobility Technologies
ドラレコ + CV = 地図@Mobility TechnologiesKazuyuki Miyazawa
 
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for VisionMLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for VisionKazuyuki Miyazawa
 
CV分野での最近の脱○○系3選
CV分野での最近の脱○○系3選CV分野での最近の脱○○系3選
CV分野での最近の脱○○系3選Kazuyuki Miyazawa
 
kaggle NFL 1st and Future - Impact Detection
kaggle NFL 1st and Future - Impact Detectionkaggle NFL 1st and Future - Impact Detection
kaggle NFL 1st and Future - Impact DetectionKazuyuki Miyazawa
 
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth EstimationKazuyuki Miyazawa
 
3D Perception for Autonomous Driving - Datasets and Algorithms -
3D Perception for Autonomous Driving - Datasets and Algorithms -3D Perception for Autonomous Driving - Datasets and Algorithms -
3D Perception for Autonomous Driving - Datasets and Algorithms -Kazuyuki Miyazawa
 

More from Kazuyuki Miyazawa (11)

VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Comple...
 
Teslaにおけるコンピュータビジョン技術の調査 (2)
Teslaにおけるコンピュータビジョン技術の調査 (2)Teslaにおけるコンピュータビジョン技術の調査 (2)
Teslaにおけるコンピュータビジョン技術の調査 (2)
 
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monoc...
 
Data-Centric AIの紹介
Data-Centric AIの紹介Data-Centric AIの紹介
Data-Centric AIの紹介
 
Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査Teslaにおけるコンピュータビジョン技術の調査
Teslaにおけるコンピュータビジョン技術の調査
 
ドラレコ + CV = 地図@Mobility Technologies
ドラレコ + CV = 地図@Mobility Technologiesドラレコ + CV = 地図@Mobility Technologies
ドラレコ + CV = 地図@Mobility Technologies
 
MLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for VisionMLP-Mixer: An all-MLP Architecture for Vision
MLP-Mixer: An all-MLP Architecture for Vision
 
CV分野での最近の脱○○系3選
CV分野での最近の脱○○系3選CV分野での最近の脱○○系3選
CV分野での最近の脱○○系3選
 
kaggle NFL 1st and Future - Impact Detection
kaggle NFL 1st and Future - Impact Detectionkaggle NFL 1st and Future - Impact Detection
kaggle NFL 1st and Future - Impact Detection
 
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation
[CVPR2020読み会@CV勉強会] 3D Packing for Self-Supervised Monocular Depth Estimation
 
3D Perception for Autonomous Driving - Datasets and Algorithms -
3D Perception for Autonomous Driving - Datasets and Algorithms -3D Perception for Autonomous Driving - Datasets and Algorithms -
3D Perception for Autonomous Driving - Datasets and Algorithms -
 

Recently uploaded

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 

Recently uploaded (8)

デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 

SIGGRAPH 2019 Report

Editor's Notes

  1. CVPRの投稿論文は約5000