SlideShare a Scribd company logo
第54回CV勉強会「有名論文読み会2」
VINS-Mono解説
2019年8月25日 takmin
1
自己紹介
2
株式会社ビジョン&ITラボ 代表取締役
皆川 卓也(みながわ たくや)
「コンピュータビジョン勉強会@関東」主催
博士(工学)
略歴:
1999-2003年
日本HP(後にアジレント・テクノロジーへ分社)にて、ITエンジニアとしてシステム構築、プリ
セールス、プロジェクトマネジメント、サポート等の業務に従事
2004-2009年
コンピュータビジョンを用いたシステム/アプリ/サービス開発等に従事
2007-2010年
慶應義塾大学大学院 後期博士課程にて、コンピュータビジョンを専攻
単位取得退学後、博士号取得(2014年)
2009年-現在
フリーランスとして、コンピュータビジョンのコンサル/研究/開発等に従事(2018年法人化)
http://visitlab.jp
本日紹介する論文:VINS-Mono
8
 Qin,T., Li, P., & Shen, S. (2018).VINS-Mono:A Robust and
Versatile MonocularVisual-Inertial State Estimator. IEEE
Transactions on Robotics, 34(4), 1004–1020.
 カメラとIMUを用いたSLAM (Visual Inertial SLAM)
 コード: https://github.com/HKUST-Aerial-Robotics/VINS-Mono
 動画: https://www.youtube.com/watch?v=g_wN0Nt0VAU
 VINS-Fusionというステレオカメラに対応した拡張版
 https://github.com/HKUST-Aerial-Robotics/VINS-Fusion
Visual SLAM
9
ロボットの自律移動や、ARにおいてカメラで撮影した画像上に
3Dオブジェクトを重畳表示するためには、撮影対象の三次元形
状とそれに対するカメラの位置と姿勢を正確に求める必要があ
る
Simultaneous Localization And Mapping (SLAM)
Localization
Mapping
Visual Inertial SLAM
VI-SLAMはIMUを用いて、Visual SLAMの精度を高める手法
大きくフィルタベースの手法と最適化ベースの手法に分け
られる
 フィルタベース
 Kalman FilterやParticle Filterなどを使用して、IMU/カメラPose
の確率遷移を計算
 最適化ベース
 バンドル調整などを使用して、誤差の最小化を行うことで、カメ
ラ/IMUのPoseを推定
10
VINS-Mono
Visual Inertial SLAM
11
VINS-Monoの特徴:
 ロバストな初期化手法
 カメラとIMUを統合した最適化
 オンラインでのループ検出と補正
 4自由度のポーズグラフ全体最適化
 リアルタイム(ドローン、モバイルAR)
[基礎知識]Inertial Measurement Unit (IMU)
 ジャイロスコープ(角速度)
 ෝ𝝎 𝑡 = 𝝎 𝑡 + 𝐛 𝜔 𝑡
+ 𝐧 𝜔
 加速度計(加速度+重力)
 ො𝐚 𝑡 = 𝐚 𝑡 + 𝐛a 𝑡
+ 𝐑 𝑤
𝑡
𝐠 𝑤
+ 𝐧a
 ノイズ / バイアス
 𝐧 𝜔~𝑁 𝟎, 𝝈 𝜔
2
 𝐧a~𝑁 𝟎, 𝝈a
2
 ሶ𝐛 𝜔 𝑡
= 𝐧b 𝜔
~𝑁 𝟎, 𝝈b 𝜔
2
 ሶ𝐛a 𝑡
= 𝐧ba
~𝑁 𝟎, 𝝈ba
2
測定結果 真値 バイアス ノイズ
測定結果 真値 バイアス ノイズ重力向き
[https://jp.mathworks.com/help/fusion/
gs/model-imu-gps-and-insgps.html]より
転載
12
(1)
(1)
(2)
バイアス=ランダムウォーク
[基礎知識]バンドル調整
13
1. 三次元点群とカメラパラメータの初期値を設定する
画像から見つけた点の三
次元座標の初期値カメラの位置と焦点距離
の初期値
[基礎知識]バンドル調整
14
2. 三次元点群を各カメラの画像平面へ投影
[基礎知識]バンドル調整
15
3. 投影された点と観測した点との誤差の総和を算出
投影された点
観測点
誤差
[基礎知識]バンドル調整
16
4. 誤差が小さくなる方向へ特徴点の三次元座標とカメラ
パラメータを調整 (収束するまで2から繰り返す)
[基礎知識]Pose Graph
17
Mur-Artal, R., Montiel, J. M. M., & Tardos, J. D.
(2015). ORB-SLAM:AVersatile and Accurate
Monocular SLAM System. IEEETransactions on
Robotics, 31(5),
 共通の特徴点を持
つキーフレーム同
士をつなげて作成
するグラフ
 ノードは回転と位置
の情報を持つ
 Loop Closingに使用
参考:
18
Visual SLAM概観
 https://www.slideshare.net/takmin/20190307-
visualslam-summary
 Visual SLAM、RGBD SLAM、Visual Inertial SLAM
の代表的手法について解説した資料
VINS-Mono: Overview
19
 指定数の画像フレーム(= SlidingWindow)内から特徴点
を追跡し、IMUのデータを統合して非線形最適化を行うこ
とによりセンサーの姿勢を推定
 Loop Closureによって推定結果を補正
処理の流れ
20
処理の流れ
21
画像およびIMUか
らデータを取得し、
前処理
画像特徴点の
検出と追跡
初期Poseとパ
ラメータ推定
画像の再投影誤差
とIMUの予測誤差を
元にPose最適化
IMUの結果
を積分
Pose Graphを最適化
Measurement Preprocessing
 カメラとIMUからデータを取得し、前処理。
22
Measurement Preprocessing
 カメラとIMUからデータを取得し、前処理。
23
Measurement Preprocessing (Camera)
24
カメラで取得したデータに対する前処理
 KLTでキーポイント追跡
 Good Feature to Trackで新規キーポイントを追加し、100-
300程度となり、かつ画像全体で一様となるように
 基礎行列およびRANSACを用いて幾何学的に整合性の
ない点を除去
 以下の条件を満たす画像をキーフレームとする
 ジャイロスコープを使用し、画像を平行化
 前キーフレームとの平均視差が閾値以上
Measurement Preprocessing
 カメラとIMUからデータを取得し、前処理。
25
Measurement Preprocessing (IMU)
26
IMUで取得したデータに対する前処理
 IMUはカメラよりも周波数が高いため、フレームとフレームの
間に取得したセンサーデータを事前に積分
 位置、速度、回転について算出
 𝑏 𝑘における初期姿勢が変化しても 𝑏 𝑘+1の姿勢へ容易に反映
𝑏 𝑘 𝑏 𝑘+1
k番目のフレームを
取得した時刻
k+1番目のフレーム
を取得した時刻
この間のIMUデータを積分
𝑖番目のIMU
データ
𝛿𝑡
Measurement Preprocessing (IMU)
27
IMUで取得したデータに対する前処理
 IMUはカメラよりも周波数が高いため、フレームとフレームの
間に取得したセンサーデータを事前に積分
 位置、速度、回転について算出
 𝑏 𝑘における初期姿勢が変化しても 𝑏 𝑘+1の姿勢へ容易に反映
ෝ𝜶𝑖+1
𝑏 𝑘
= ෝ𝜶𝑖
𝑏 𝑘
+ ෡𝜷𝒊
𝑏 𝑘
𝛿𝑡 +
1
2
𝐑 ෝ𝜸𝒊
𝑏 𝑘
ො𝐚𝑖 − 𝐛a 𝑖
𝛿𝑡2
位置に関する積分項(ෝ𝜶0
𝑏 𝑘
= 𝟎)
速度に関する積分項(෡𝜷0
𝑏 𝑘
= 𝟎)
回転に関する積分項(ෝ𝜸0
𝑏 𝑘
= 単位クォータニオン)
෡𝜷𝑖+1
𝑏 𝑘
= ෡𝜷𝒊
𝑏 𝑘
+ 𝐑 ෝ𝜸𝒊
𝑏 𝑘
ො𝐚𝑖 − 𝐛a 𝑖
𝛿𝑡
ෝ𝜸𝑖+1
𝑏 𝑘
= ෝ𝜸𝒊
𝑏 𝑘
⨂
1
1
2
ෝ𝝎𝑖 − 𝐛 𝜔 𝑖
𝛿𝑡
(7)
Initialization
 IMUのデータと画像のデータを整合させることで、スケー
ルやバイアスなどの値を初期化
28
Initialization
29
Structure-from-MotionのスケールやIMUのバイアスの初期
値を算出
 Pre-IntegrationされたIMUの軌跡とSfMで取得したカメラ
の軌跡を一致させることで各パラメータを初期化
Initialization
30
Structure-from-MotionのスケールやIMUのバイアスの初期
値を算出
 SfMで求めた画像間の回転変化とIMUで求めた回転との
差が最小となるようにジャイロスコープのバイアス𝐛 𝜔を
算出
Initialization
31
Structure-from-MotionのスケールやIMUのバイアスの初期
値を算出
 SfMで求めた画像間の回転変化とIMUで求めた回転との
差が最小となるようにジャイロスコープのバイアス𝐛 𝜔を
算出
 SfMで求めたカメラ位置とIMUから求めた位置と速度の
積分値が整合するようにパラメータ𝝌𝐼(速度、重力、ス
ケール)を算出
Initialization
32
Structure-from-MotionのスケールやIMUのバイアスの初期
値を算出
 SfMで求めた画像間の回転変化とIMUで求めた回転との
差が最小となるようにジャイロスコープのバイアス𝐛 𝜔を
算出
 SfMで求めたカメラ位置とIMUから求めた位置と速度の
積分値が整合するようにパラメータ𝝌𝐼(速度、重力、ス
ケール)を算出
 重力ベクトル𝐠 𝑐0を重力加速度を既知として再算出し、z
軸と重力ベクトルが一致するように世界座標系を定義
Local Visual-inertial Odometry with
Relocalization
 画像とIMUの情報を元に、バンドル調整によってフレーム
ごとのカメラ姿勢を算出
 過去に取得したキーフレームとのマッチングを行うことで
ループを検出し、Window内のキーフレームの姿勢を補
正
33
Local Visual-inertial Odometry with
Relocalization
34
 SLAMで求めるパラメータを以下のように定義
𝝌 = 𝐱0, 𝐱1, ⋯ , 𝐱 𝑛, 𝐱 𝑐
𝑏, 𝜆0, 𝜆1, ⋯ , 𝜆 𝑚
 Window内のk番目のキーフレームにおけるIMUの
状態
𝐱 𝑘 = 𝐩 𝑏 𝑘
𝑤
, 𝐯 𝑏 𝑘
𝑤
, 𝐪 𝑏 𝑘
𝑤
, 𝐛a, 𝐛ω
 body(IMU)座標でのカメラ姿勢
𝐱 𝑐
𝑏 = 𝐩 𝑐
𝑏, 𝐪 𝑐
𝑏
(22)
位置 速度 向き
(クォータニオン)
加速度
バイアス
角速度
バイアス
各特徴点の深度の逆数
Tightly-Coupled Monocular VIO
 画像とIMUの情報を元に、バンドル調整によってフレーム
ごとのカメラ姿勢を算出
35
Tightly-Coupled Monocular VIO
36
 以下の式によりパラメータ𝝌を最適化(バンドル
調整)
min
𝝌 ൝
ൡ
𝒓 𝑝 − 𝐇 𝒑 𝝌
2
+ ෍
𝑘∈ℬ
𝒓ℬ ො𝐳 𝑏 𝑘+1
𝑏 𝑘
, 𝝌
𝐏 𝑏 𝑘+1
𝑏 𝑘
2
+ ෍
𝑙,𝑗 ∈𝐶
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑐 𝑗
, 𝝌
𝐏𝑙
𝑐 𝑗
2
ℬ:IMU測定の集合
𝐶:SlidingWindow内で2つ以上観測される特徴点
(22)
IMUに関する残差
画像に関する残差
事前情報に対する残差
Tightly-Coupled Monocular VIO (IMU
Measurement Residual)
37
 以下の式によりパラメータ𝝌を最適化(バンドル
調整)
min
𝝌 ൝
ൡ
𝒓 𝑝 − 𝐇 𝒑 𝝌
2
+ ෍
𝑘∈ℬ
𝒓ℬ ො𝐳 𝑏 𝑘+1
𝑏 𝑘
, 𝝌
𝐏 𝑏 𝑘+1
𝑏 𝑘
2
+ ෍
𝑙,𝑗 ∈𝐶
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑐 𝑗
, 𝝌
𝐏𝑙
𝑐 𝑗
2
ℬ:IMU測定の集合
𝐶:SlidingWindow内で2つ以上観測される特徴点
(22)
IMUに関する残差
Tightly-Coupled Monocular VIO (IMU
Measurement Residual)
38
 フレームkとk+1の間で積分したIMU
の測定結果と、2枚の姿勢変化に対
し、その残差𝒓ℬを算出。
𝑏 𝑘 𝑏 𝑘+1
k番目のフレームを
取得した時刻
k+1番目のフレーム
を取得した時刻
この間のIMUデータを積分
𝑖番目のIMU
データ
𝛿𝑡
Tightly-Coupled Monocular VIO (Visual
Measurement Residual)
39
 以下の式によりパラメータ𝝌を最適化(バンドル
調整)
min
𝝌 ൝
ൡ
𝒓 𝑝 − 𝐇 𝒑 𝝌
2
+ ෍
𝑘∈ℬ
𝒓ℬ ො𝐳 𝑏 𝑘+1
𝑏 𝑘
, 𝝌
𝐏 𝑏 𝑘+1
𝑏 𝑘
2
+ ෍
𝑙,𝑗 ∈𝐶
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑐 𝑗
, 𝝌
𝐏𝑙
𝑐 𝑗
2
ℬ:IMU測定の集合
𝐶:SlidingWindow内で2つ以上観測される特徴点
(22)
画像に関する残差
Tightly-Coupled Monocular VIO (Visual
Measurement Residual)
40
 VINS-Monoでは魚眼カメラ等でも使用できるよう再投影
誤差𝒓 𝐶をカメラ座標系の原点を中心とした単位球上で計
算
𝒋番目の画像𝑐𝑗上の特徴点𝒍への光線
𝒊番目の画像𝑐𝑖上の特
徴点𝒍 を画像𝑐𝑗へパラ
メータ𝝌を用いて変換し、
接平面上へ投影
Tightly-Coupled Monocular VIO
(Marginalization)
41
 以下の式によりパラメータ𝝌を最適化(バンドル
調整)
min
𝝌 ൝
ൡ
𝒓 𝑝 − 𝐇 𝒑 𝝌
2
+ ෍
𝑘∈ℬ
𝒓ℬ ො𝐳 𝑏 𝑘+1
𝑏 𝑘
, 𝝌
𝐏 𝑏 𝑘+1
𝑏 𝑘
2
+ ෍
𝑙,𝑗 ∈𝐶
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑐 𝑗
, 𝝌
𝐏𝑙
𝑐 𝑗
2
ℬ:IMU測定の集合
𝐶:SlidingWindow内で2つ以上観測される特徴点
(22)
事前情報に対する残差
Tightly-Coupled Monocular VIO
(Marginalization)
42
新しくフレームが加わった際、以下の処理を行う
 1つ前のフレームがキーフレームの時、Window内の最も古いフレーム
のパラメータを周辺化(Schur Complement)して事前分布とする
 1つ前のフレームがキーフレームではない場合、そのフレームを破棄
Tightly-Coupled Monocular VIO (Motion-only
BA)
43
 モバイルデバイスなど、計算能力の低い機器の場合、
Window内のフレームのうち、新しい数フレーム分の姿勢
と速度に対してのみ最適化
Relocalization
 VIOのずれを補正するために、過去に取得したキーフ
レームとのマッチングを行うことでループを検出し、
Window内のキーフレームの姿勢を補正
44
Relocalization (Loop Detection)
45
Relocalization (Loop Detection)
46
VIOのみで位置/
姿勢推定(青)
Relocalization (Loop Detection)
47
最新キーフレームをクエ
リーとしてPose Graph内
を検索し、ループを検出
(赤いライン)
Relocalization (Loop Detection)
48
マッチしたキーフ
レームを元に位
置姿勢を更新
(青い個所のみ)
Relocalization (Loop Detection)
49
特徴点がマッチした複数の過去フレームを制約に加えて姿
勢を補正
Relocalization (Tightly-Coupled
Relocalization)
50
 Loopが検出された場合、Window内のキーフレームとマッチン
グした特徴点を用いて最適化(バンドル調整)
min
𝝌 ൝
ൡ
𝒓 𝑝 − 𝐇 𝒑 𝝌
2
+ ෍
𝑘∈ℬ
𝒓ℬ ො𝐳 𝑏 𝑘+1
𝑏 𝑘
, 𝝌
𝐏 𝑏 𝑘+1
𝑏 𝑘
2
+ ෍
𝑙,𝑗 ∈𝐶
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑐 𝑗
, 𝝌
𝐏𝑙
𝑐 𝑗
2
+ ෍
𝑙,𝑣 ∈ℒ
𝜌 𝒓 𝐶 ො𝐳𝑙
𝑣
, 𝝌, ෝ𝒒 𝑣
𝑤
, ෝ𝒑 𝑣
𝑤
𝐏𝑙
𝑐 𝑣
2
ℒ:Loop DetectionでマッチしたPose Graph内の特徴点セット
(25)
IMUに関する残差
画像に関する残差
事前情報に対する残差
VIOのコスト関数(22)に新たに追加した項
Pose Graph内キーフレームにマッチした特徴点の再投影誤差
Relocalization (Loop Detection)
51
Relocalization (Loop Detection)
52
Window内の古い
キーフレームが周
辺化される時に
Pose Graphへキー
フレーム追加
Relocalization (Loop Detection)
53
Pose Graphへ追
加したキーフレー
ムと過去のキーフ
レーム間にループ
が存在する場合、
ループ内の位置
姿勢を別スレッド
上で4DoFで最適
化(Global Pose
Optimization)
Relocalization (Loop Detection)
54
以後のRelocalization
は最適化されたPose
Graphに対して行う
Relocalization (Feature Retrieval)
55
ループが検出されると、Sliding
Window内の画像とマッチした
キーフレーム間で特徴点マッチ
ングが行われ、Window内の
キーフレームの位置姿勢が更
新されます
a. BRIEF特徴量でマッチングし
た結果
b. RANSACでF行列を求め、
その過程で出てきたOutlier
を除去
c. 既知の3D点と特徴点との
マッチングをRANSACとPnP
で行い、Outlierを除去
Global Pose Graph Optimization
 Pose Graph全体が整合するように独立したスレッドで最
適化。
 Pose Graphのノード数には上限を設け、増えすぎたとき
はダウンサンプル。
56
Global Pose Graph Optimization
57
Sliding Window内の古いキーフレームが周辺化され、
Pose Graphに追加されるとき、2種類のエッジを割り当
て
1. Sequential Edge
 連続したキーフレームの場合
2. Loop Closure Edge
 RelocalizationにおいてLoopが見つかった場合
 エッジには、2つのキーフレームの相対位置ෝ𝐩𝑖𝑗
𝑖
/角
度 ෠𝜓𝑖𝑗を割り当て
 重力方向は既知なので4自由度
Global Pose Graph Optimization
58
各キーフレームの位置 𝐩𝑖
𝑤
およびYaw角 𝜓𝑖 を、
エッジにおける遷移ෝ𝐩𝑖𝑗
𝑖
、 ෠𝜓𝑖𝑗とのグラフ全体
での残差が最小となるように最適化
min
𝐩,𝜓
෍
𝑖,𝑗 ∈𝑆
𝐫𝑖,𝑗
2
+ ෍
𝑖,𝑗 ∈ℒ
𝜌 𝐫𝑖,𝑗
2
(29)
Sequential Edges
Loop Closure Edges
Huber norm
Experimental Results (EuRoC)
 Intel i7-4790 CPU (3.60GHz)でリアルタイム
 EuRoC MAVVisual Inertial Datasetで評価
59
Experimental Results (Indoor)
60
 20Hzのカメラ、100HzのIMUでラボ内を歩いた結果
Experimental Results (Large Scale)
61
 ラボの席から、屋内を一周後会談を降りて、屋外をさらに
一周し、また屋内の同じ席に戻ってきたケース
Experimental Results (Drone)
62
まとめ
63
VINS-Mono
 単眼Visual Inertial SLAM
 カメラとIMUを統合した非線形最適化を解くことでキーフ
レームの位置と姿勢を推定
 IMUの持つ加速度と角速度の情報を元に、位置と速度、
および角度をあらかじめ積分しておくことで、各キーフ
レームにおける最適化を高速化
 オンラインでのループ検出と補正
 4自由度のポーズグラフ全体最適化
Local Visual-inertial Odometry with
Relocalization (Marginalization)
65
周辺化(Marginalization)
 一般に同時分布のパラメータを積分によって減らすことを指す
 この論文ではSliding Window内の最も古いキーフレームのパ
ラメータ𝐱 𝑘、 𝜆𝑙をSchur complementという手法で周辺化するこ
とで、それに紐づく測定結果を事前分布とするとあるが、詳細
の記載なし
 Schur complementはガウス分布を周辺化した際の平均/共分散行
列を簡単に計算する方法
 (22)式の𝒓 𝑝、 𝐇 𝒑は周辺化によって求まるとあるが、詳細の記
載なし
 二乗誤差最小化はガウス分布に対する最尤推定とみなせるので、
(22)式の第2,3項から今までの古いキーフレームの情報を分離し
たものが第1項ではないかと予想

More Related Content

What's hot

Visual slam
Visual slamVisual slam
Visual slam
Takuya Minagawa
 
オープンソース SLAM の分類
オープンソース SLAM の分類オープンソース SLAM の分類
オープンソース SLAM の分類
Yoshitaka HARA
 
ORB-SLAMの手法解説
ORB-SLAMの手法解説ORB-SLAMの手法解説
ORB-SLAMの手法解説
Masaya Kaneko
 
SLAM勉強会(PTAM)
SLAM勉強会(PTAM)SLAM勉強会(PTAM)
SLAM勉強会(PTAM)
Masaya Kaneko
 
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列
Toru Tamaki
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
miyanegi
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
TaroSuzuki15
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
nonane
 
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
Yoshitaka HARA
 
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAMSLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
Iwami Kazuya
 
Structure from Motion
Structure from MotionStructure from Motion
Structure from Motion
Ryutaro Yamauchi
 
ORB-SLAMを動かしてみた
ORB-SLAMを動かしてみたORB-SLAMを動かしてみた
ORB-SLAMを動かしてみた
Takuya Minagawa
 
20180527 ORB SLAM Code Reading
20180527 ORB SLAM Code Reading20180527 ORB SLAM Code Reading
20180527 ORB SLAM Code Reading
Takuya Minagawa
 
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
yohei okawa
 
SSII2020 [O3-01] Extreme 3D センシング
SSII2020 [O3-01]  Extreme 3D センシングSSII2020 [O3-01]  Extreme 3D センシング
SSII2020 [O3-01] Extreme 3D センシング
SSII
 
LiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせLiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせ
Takuya Minagawa
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII
 
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
Toru Tamaki
 

What's hot (20)

Visual slam
Visual slamVisual slam
Visual slam
 
オープンソース SLAM の分類
オープンソース SLAM の分類オープンソース SLAM の分類
オープンソース SLAM の分類
 
ORB-SLAMの手法解説
ORB-SLAMの手法解説ORB-SLAMの手法解説
ORB-SLAMの手法解説
 
SLAM勉強会(PTAM)
SLAM勉強会(PTAM)SLAM勉強会(PTAM)
SLAM勉強会(PTAM)
 
20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列20090924 姿勢推定と回転行列
20090924 姿勢推定と回転行列
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
 
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
 
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
 
SLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAMSLAM勉強会(3) LSD-SLAM
SLAM勉強会(3) LSD-SLAM
 
Structure from Motion
Structure from MotionStructure from Motion
Structure from Motion
 
ORB-SLAMを動かしてみた
ORB-SLAMを動かしてみたORB-SLAMを動かしてみた
ORB-SLAMを動かしてみた
 
20180527 ORB SLAM Code Reading
20180527 ORB SLAM Code Reading20180527 ORB SLAM Code Reading
20180527 ORB SLAM Code Reading
 
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
 
SSII2020 [O3-01] Extreme 3D センシング
SSII2020 [O3-01]  Extreme 3D センシングSSII2020 [O3-01]  Extreme 3D センシング
SSII2020 [O3-01] Extreme 3D センシング
 
LiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせLiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせ
 
SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用SSII2018TS: 3D物体検出とロボットビジョンへの応用
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
 

Similar to 20190825 vins mono

CVPR2018のPointCloudのCNN論文とSPLATNet
CVPR2018のPointCloudのCNN論文とSPLATNetCVPR2018のPointCloudのCNN論文とSPLATNet
CVPR2018のPointCloudのCNN論文とSPLATNet
Takuya Minagawa
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
Ryuichi Ueda
 
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
Takuya Minagawa
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
Takuya Minagawa
 
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
Norishige Fukushima
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
Takuya Minagawa
 
Curiosity driven exploration
Curiosity driven explorationCuriosity driven exploration
Curiosity driven exploration
Takuya Minagawa
 
静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料
keima_12
 
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Hironobu Fujiyoshi
 
object detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: surveyobject detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: survey
Takuya Minagawa
 
3DFeat-Net
3DFeat-Net3DFeat-Net
3DFeat-Net
Takuya Minagawa
 
SSII2014 チュートリアル資料
SSII2014 チュートリアル資料SSII2014 チュートリアル資料
SSII2014 チュートリアル資料Masayuki Tanaka
 
28th CV勉強会@関東 #3
28th CV勉強会@関東 #328th CV勉強会@関東 #3
28th CV勉強会@関東 #3
Hiroki Mizuno
 
Semantic segmentation2
Semantic segmentation2Semantic segmentation2
Semantic segmentation2
Takuya Minagawa
 
東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術SOINN Inc.
 
Contest 02 presentation (RT-Middleware Contest of SI2017)
Contest 02 presentation (RT-Middleware Contest of SI2017) Contest 02 presentation (RT-Middleware Contest of SI2017)
Contest 02 presentation (RT-Middleware Contest of SI2017)
Tomoyuki Nakai
 
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
oku_zawa
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTURE Project
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
 
チュートリアルのススメ -チュートリアルのためのチュートリアル-
チュートリアルのススメ -チュートリアルのためのチュートリアル-チュートリアルのススメ -チュートリアルのためのチュートリアル-
チュートリアルのススメ -チュートリアルのためのチュートリアル-
Hironobu Fujiyoshi
 

Similar to 20190825 vins mono (20)

CVPR2018のPointCloudのCNN論文とSPLATNet
CVPR2018のPointCloudのCNN論文とSPLATNetCVPR2018のPointCloudのCNN論文とSPLATNet
CVPR2018のPointCloudのCNN論文とSPLATNet
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
 
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
 
点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ点群SegmentationのためのTransformerサーベイ
点群SegmentationのためのTransformerサーベイ
 
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと画像処理ライブラリ OpenCV で 出来ること・出来ないこと
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
 
MobileNeRF
MobileNeRFMobileNeRF
MobileNeRF
 
Curiosity driven exploration
Curiosity driven explorationCuriosity driven exploration
Curiosity driven exploration
 
静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料静岡Developers勉強会コンピュータビジョンvol4発表用資料
静岡Developers勉強会コンピュータビジョンvol4発表用資料
 
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
Inside-Outカメラからの3次元Scan Pathとシーン構造の復元
 
object detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: surveyobject detection with lidar-camera fusion: survey
object detection with lidar-camera fusion: survey
 
3DFeat-Net
3DFeat-Net3DFeat-Net
3DFeat-Net
 
SSII2014 チュートリアル資料
SSII2014 チュートリアル資料SSII2014 チュートリアル資料
SSII2014 チュートリアル資料
 
28th CV勉強会@関東 #3
28th CV勉強会@関東 #328th CV勉強会@関東 #3
28th CV勉強会@関東 #3
 
Semantic segmentation2
Semantic segmentation2Semantic segmentation2
Semantic segmentation2
 
東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術
 
Contest 02 presentation (RT-Middleware Contest of SI2017)
Contest 02 presentation (RT-Middleware Contest of SI2017) Contest 02 presentation (RT-Middleware Contest of SI2017)
Contest 02 presentation (RT-Middleware Contest of SI2017)
 
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
『宇宙エレベーター技術競技会報告』JpSEC2010(20101212) @oku_zawa
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
 
チュートリアルのススメ -チュートリアルのためのチュートリアル-
チュートリアルのススメ -チュートリアルのためのチュートリアル-チュートリアルのススメ -チュートリアルのためのチュートリアル-
チュートリアルのススメ -チュートリアルのためのチュートリアル-
 

More from Takuya Minagawa

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Takuya Minagawa
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
Takuya Minagawa
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
Takuya Minagawa
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
Takuya Minagawa
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
Takuya Minagawa
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
Takuya Minagawa
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
Takuya Minagawa
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
Takuya Minagawa
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
Takuya Minagawa
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
Takuya Minagawa
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
Takuya Minagawa
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
Takuya Minagawa
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
Takuya Minagawa
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
Takuya Minagawa
 
20180424 orb slam
20180424 orb slam20180424 orb slam
20180424 orb slam
Takuya Minagawa
 
「コンピュータビジョン勉強会@関東」紹介資料
「コンピュータビジョン勉強会@関東」紹介資料「コンピュータビジョン勉強会@関東」紹介資料
「コンピュータビジョン勉強会@関東」紹介資料
Takuya Minagawa
 
車載カメラの映像から歩行者に関わる危険を予測する技術
車載カメラの映像から歩行者に関わる危険を予測する技術車載カメラの映像から歩行者に関わる危険を予測する技術
車載カメラの映像から歩行者に関わる危険を予測する技術
Takuya Minagawa
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative Optimization
Takuya Minagawa
 
Cvpr2017事前読み会
Cvpr2017事前読み会Cvpr2017事前読み会
Cvpr2017事前読み会
Takuya Minagawa
 

More from Takuya Minagawa (19)

Machine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and ArchitectureMachine Learning Operations (MLOps): Overview, Definition, and Architecture
Machine Learning Operations (MLOps): Overview, Definition, and Architecture
 
Learning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal ProblemsLearning to Solve Hard Minimal Problems
Learning to Solve Hard Minimal Problems
 
楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事楽しいコンピュータビジョンの受託仕事
楽しいコンピュータビジョンの受託仕事
 
20210711 deepI2P
20210711 deepI2P20210711 deepI2P
20210711 deepI2P
 
20201010 personreid
20201010 personreid20201010 personreid
20201010 personreid
 
20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)20200910コンピュータビジョン今昔物語(JPTA講演資料)
20200910コンピュータビジョン今昔物語(JPTA講演資料)
 
2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)2020/07/04 BSP-Net (CVPR2020)
2020/07/04 BSP-Net (CVPR2020)
 
20200704 bsp net
20200704 bsp net20200704 bsp net
20200704 bsp net
 
20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation20190706cvpr2019_3d_shape_representation
20190706cvpr2019_3d_shape_representation
 
20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey20190131 lidar-camera fusion semantic segmentation survey
20190131 lidar-camera fusion semantic segmentation survey
 
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
2018/12/28 LiDARで取得した道路上点群に対するsemantic segmentation
 
run Keras model on opencv
run Keras model on opencvrun Keras model on opencv
run Keras model on opencv
 
20181130 lidar object detection survey
20181130 lidar object detection survey20181130 lidar object detection survey
20181130 lidar object detection survey
 
object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)object detection with lidar-camera fusion: survey (updated)
object detection with lidar-camera fusion: survey (updated)
 
20180424 orb slam
20180424 orb slam20180424 orb slam
20180424 orb slam
 
「コンピュータビジョン勉強会@関東」紹介資料
「コンピュータビジョン勉強会@関東」紹介資料「コンピュータビジョン勉強会@関東」紹介資料
「コンピュータビジョン勉強会@関東」紹介資料
 
車載カメラの映像から歩行者に関わる危険を予測する技術
車載カメラの映像から歩行者に関わる危険を予測する技術車載カメラの映像から歩行者に関わる危険を予測する技術
車載カメラの映像から歩行者に関わる危険を予測する技術
 
20170806 Discriminative Optimization
20170806 Discriminative Optimization20170806 Discriminative Optimization
20170806 Discriminative Optimization
 
Cvpr2017事前読み会
Cvpr2017事前読み会Cvpr2017事前読み会
Cvpr2017事前読み会
 

Recently uploaded

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 

Recently uploaded (15)

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 

20190825 vins mono