SlideShare a Scribd company logo
対応点探索のための特徴量表現
安倍 満 (デンソーアイティーラボラトリ)
長谷川 昂宏, 藤吉 弘亘 (中部大学)
2015/12/21
PRMU研究会 ~サーベイ論文発表~
対応点探索とは?
物理的に同一の個所(対応点)見つける処理
今日の話のポイントは?
過去に提案されてきた手法を,
(1) 実数ベクトルで局所特徴量を表現する方法
(2) 二値ベクトルで局所特徴量を表現する方法
(3) 深層学習による方法
以上3つの分類に整理してご紹介します.
• 対応点探索の基本概念と動向
• 実数ベクトルで局所特徴量を表現する方法
• 二値ベクトルで局所特徴量を表現する方法
• 深層学習による方法
• まとめ
基本的なアプローチ
特徴量記述 マッチング
Scale invariance Orientation invariance
Illumination invariance
D次元の
特徴量
『局所特徴量』による対応点探索
視点移動(回転) 視点移動(スケール)
照明条件 オクルージョン
対応点探索の難しさ
研究の動向
実数ベクトル表現
二値ベクトル表現
深層学習
1999 2010 2015
基本原理の確立
キーポイント検出+特徴記述
高速・省メモリ処理の達成
特徴量の
自動設計
• 対応点探索の基本概念と動向
• 実数ベクトルで局所特徴量を表現する方法
• 二値ベクトルで局所特徴量を表現する方法
• 深層学習による方法
• まとめ
実数ベクトルによる特徴量表現
• SIFT
• SURF
• PCA-SIFT
• GLOH
• RIFF
• ASIFT
SIFT (1999)
SURF (2006)
– スケール&方向正規化
– 勾配方向ヒストグラム抽出
– Integral imageの活用による高速化
実数ベクトルによる特徴量表現
• SIFT
• SURF
• PCA-SIFT
• GLOH
• RIFF
• ASIFT
GLOH (2005)
– 勾配方向ヒストグラムのbin配置を変更
– PCAによる次元削減
PCA-SIFT (2004)
– 勾配画像+PCAによる次元削減
実数ベクトルによる特徴量表現
• SIFT
• SURF
• PCA-SIFT
• GLOH
• RIFF
• ASIFT
RIFF (2010)
– 局所特徴量自体に回転不変性を導入
回転不変な輝度勾配 パッチのセル分割
実数ベクトルによる特徴量表現
• SIFT
• SURF
• PCA-SIFT
• GLOH
• RIFF
• ASIFT
ASIFT (2009)
– パッチを無数にAffine変形
低スペックなハードウェアでの実装が難しい
• 実行速度
• メモリ消費量
実用における課題
• 対応点探索の基本概念と動向
• 実数ベクトルで局所特徴量を表現する方法
• 二値ベクトルで局所特徴量を表現する方法
• 深層学習による方法
• まとめ
0と1の列からなる二値特徴量で記述
類似度をハミング距離で算出
0111001011010111
0110001010010110
ハミング距離:3
二値特徴量による記述
XOR
Bit Count
0001000001000001
・テーブルによる算出
・分割統治法
・SSE4.2 popcnt命令
ユークリッド距離の二乗 v.s. ハミング距離
128 dim.
512 bits
128 bits
64 bits
32 bits
256 bits
0 0.05 0.1 0.15 0.2 0.25
CPU: Intel Core2 Duo 2.66GHz
(nsec)
バイナリコード
ベクトル
(単精度実数)
類似度計算速度の比較
※ルックアップテーブルによる計算
直接的に二値特徴量を生成する方法
間接的に二値特徴量を生成する方法
二種類のアプローチ
局所特徴抽出
(SIFT etc.)
二値特徴量
抽出
実数→二値
変換
0101 …1101
0101…1101
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
2点間の輝度差からビットを生成
0 101 1101…
> ならば 0
< ならば 1
BRIEF: Binary Robust Independent Elementary Features
BRIEF: Binary Robust Independent Elementary Features
正規分布に基づく乱数でサンプリング位置を決定
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
手法 BRISK ORB
パッチ方向
推定
Local gradientの
平均ベクトル
Intensity Centroid
ペアの
選び方
規則的に決定 教師なし学習
BRIEFに Scale/Rotation Invariance を導入
Fast Corner Detector + BRIEF
BRISK: Binary Robust Invariant Scalable Keypoints. [ICCV2011]より図を引用
ORB: An Efficient Alternative to SIFT and SURF. [ICCV2011]より図を引用
BRISKとORB
2種類のペアの定義
BRISK: Binary Robust Invariant Scalable Keypoints
長距離ペア
→方向推定に使用
短距離ペア
→特徴量記述に
使用
ガウスフィルタ
の分散
パッチ方向推定
BRISK: Binary Robust Invariant Scalable Keypoints
長距離ペアの
Local gradientを定義
方向:暗→明
長さ:輝度差
Local gradientの
平均をパッチ方向
として使用
BRISK: Binary Robust Invariant Scalable Keypoints
バイナリコード生成
Step 1.
パッチ方向に
従ってサンプリング
パターンを回転
(Lookup tableを使用)
Step 2.
短距離ペアを用いて
512bitのバイナリ
コードを生成
ORB: Oriented FAST and Rotated BRIEF
パッチ方向推定 (Intensity centroid)
Intensity centroid
(パッチの重心)
C
𝑚 𝑝𝑞 =
𝑥,𝑦
𝑥 𝑝 𝑦 𝑞 𝐼(𝑥, 𝑦)
𝐶 =
𝑚10
𝑚00
,
𝑚01
𝑚00
良いバイナリコードとは?
ORB: Oriented FAST and Rotated BRIEF
条件1:各ビットの分散が大きい
0 1 0 1 1 0 1 1 1 1
0 0 0 1 1 1 1 1 1 0
1 0 1 1 0 0 0 1 1 1
0 1 0 0 1 0 0 0 1 0
1 1 0 1 0 1 1 0 1 1
0 1 0 1 1 1 0 1 0 1
0 1 0 1 0 1 0 0 0 0
0 0 0 0 0 0 1 0 1 0
a
b
c
d
e
f
g
h
a
b
c
d
e
f
g
h
×分散が小さい ○分散が大きい
良いバイナリコードとは?
ORB: Oriented FAST and Rotated BRIEF
条件2:ビット間の相関が小さい
0 1 0 1 1 0 1 1 1 1
0 0 0 1 1 1 1 1 1 0
1 0 1 1 0 0 0 1 1 1
0 1 0 0 1 0 0 0 1 0
1 1 0 1 0 1 1 0 1 1
0 1 0 1 1 1 0 1 0 1
0 1 0 1 0 1 0 0 0 0
0 0 0 0 0 0 1 0 1 0
a
b
c
d
e
f
g
h
a
b
c
d
e
f
g
h
○相関が小さい×相関が大きい
Greedy Algorithmによるサンプリング位置の決定
ORB: Oriented FAST and Rotated BRIEF
[ 戦略 ]
パッチ内の考えられうる全てのペア(205590通り)について、
ビットの分散最大&ビット間の相関最小な256個のペアを選出
Step 1.
学習用画像を処理し、全ペアの
分散を求め、分散最大のペアを採用
Step 2.
残りのペアの中で、採用済みペア
と相関が低くかつ分散最大なもの
を採用
Step 3.
256個決まるまで、Step2を繰り返す
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
FREAK: Fast Retina Keypoint
生物の視覚の構造に基づいてサンプリング位置
を定義
FREAK: Fast Retina Keypoint
ORBの教師なし学習により512ペアを選定
1~128 129~256 257~384 385~512
coarse fine
最初に選定されたペアほど、パッチの大局的な構造をとらえて
いることに着目し、マッチングするときは128ビット単位で
早期棄却を行う。→ 90%が上位の128ビットで棄却
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
教師あり学習に基づく手法
教示データ
Positive ペア
Negative ペア
,
,
D-BRIEF: Discriminative BRIEF
輝度 𝐱 に対する線形の Binary Hashing
Hashのパラメータ 𝐰𝑖, 𝜏𝑖 を教師あり学習で求める
𝐱 =
𝑦𝑖 = sgn(𝐰𝑖
⊤
𝐱 + 𝜏𝑖)𝑖 番目のビット:
𝐰𝑖 =
? ―
+
D-BRIEF: Discriminative BRIEF
輝度 𝐱 に対する線形の Binary Hashing
Hashのパラメータ 𝐰𝑖, 𝜏𝑖 を教師あり学習で求める
𝐱 =
𝑦𝑖 = sgn(𝐰𝑖
⊤
𝐱 + 𝜏𝑖)𝑖 番目のビット:
𝐰𝑖 =
―
+
BRIEF, BRISK,
ORB, FREAKの場合
(𝜏𝑖=0)
サンプリング
ペア
D-BRIEF: Discriminative BRIEF
輝度 𝐱 に対する線形の Binary Hashing
Hashのパラメータ 𝐰𝑖, 𝜏𝑖 を教師あり学習で求める
𝐱 =
𝑦𝑖 = sgn(𝐰𝑖
⊤
𝐱 + 𝜏𝑖)𝑖 番目のビット:
𝐰𝑖 =
―
+
D-BRIEFの場合
D-BRIEF: Discriminative BRIEF
もう一つの工夫:𝐰𝑖を単純なフィルタの線形和で表現
𝐰𝑖 = 𝐃𝐬𝑖
フィルタの辞書
スパースな重み係数
矩形やガウシアンフィルタなど、高速に演算可能なフィルタの
組み合わせで 𝐰𝑖 を表現することで、二値特徴量の生成を高速化している。
D-BRIEF: Discriminative BRIEF
定式化まとめ
Negative ペア間のHamming 距離
Positive ペア間のHamming 距離 係数を疎に誘導
ビット間の相関を取り除く
コスト関数の定義
𝑦𝑖 = sgn(𝐰𝑖
⊤
𝐱 + 𝜏𝑖)𝑖 番目のビット:
𝐰𝑖 = 𝐃𝐬𝑖𝑖 番目の重み係数:
コスト関数最小化の方針
D-BRIEF: Discriminative BRIEF
まともに解くのは不可能なので、𝐰𝑖 → 𝐬𝑖 → 𝜏𝑖の順番に解く
𝐰𝑖の解き方
𝐬𝑖に関するL1正則化を無視/sgn関数を取り除いて緩和
𝐬𝑖の解き方
𝜏𝑖の解き方
一次元サーチで網羅的に探索 (𝜏𝑖はビット毎に独立)
D-BRIEF: Discriminative BRIEF
BinBoost
D-BRIEFとの違い
非線形の弱識別器の出力 + 線形のBinary Hashing
弱識別器の選択方法としてBoostingの考え方を応用
𝑖 番目のビット
𝐡𝑖 𝐱 : K個の弱識別器の出力(K次元のベクトル)
𝐰𝑖: 重みベクトル
定式化
求めたいパラメータ
BinBoost
弱識別器の設計
勾配方向ヒストグラム
h 𝐱; 𝑅, 𝑒, 𝑇
𝑅
𝑒
𝑇
h 𝐱; 𝑅, 𝑒, 𝑇 = −1
しきい値𝑇 より大きい場合
BinBoost
弱識別器の設計
勾配方向ヒストグラム
h 𝐱; 𝑅, 𝑒, 𝑇
𝑅
𝑒
𝑇
h 𝐱; 𝑅, 𝑒, 𝑇 = +1
しきい値𝑇 より小さい場合
BinBoost
弱識別器の設計 h 𝐱; 𝑅, 𝑒, 𝑇
K個の弱識別器の重み付き和の符号で𝑖番目のビットを定義
BinBoost
Positive
Positive
Negative
Negative
重み 𝐱 𝐱’
Step 1. 𝐡1 𝐱 ,𝐰1を学習
学習サンプル
BinBoost
Positive
Positive
Negative
Negative
重み 𝐱 𝐱’
Step 2. 重みの更新
+1 +1 OK
NG
OK
NG
𝑦1(𝐱) 𝑦1(𝐱′)
+1 +1
+1 -1
-1 +1
学習サンプル
BinBoost
Positive
Positive
Negative
Negative
重み 𝐱 𝐱’
Step 3. 𝐡2 𝐱 ,𝐰2を学習 (以下、繰り返し)
学習サンプル
BinBoost
選択された弱識別器の可視化 (上位1~8ビット)
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
BOLD: Binary Online Learned Descriptor
パッチにaffine変形を適用し、変化しにくい
ビットだけを使用
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
= ×
B×1 B×D D×1
変換行列
局所
特徴量
二値
特徴量
間接的に二値特徴量を生成する手法
局所特徴抽出 + 線形のBinary Hashing
+𝐲 sgn 𝐏 𝐱 𝐭
D×1
しきい値
(SIFT, SURFなど)
線形のBinary Hashingの幾何学的なイメージ
𝐩𝑖
⊤
𝐱 + 𝑡𝑖 = 0
𝑖 番目のビット𝑦𝑖は、特徴量 𝐱 が
超平面𝐩𝑖
⊤
𝐱 + 𝑡𝑖 = 0のどちら側にあるかで決まる
超平面
𝑥 𝑢
𝑥 𝑣
+1
−1
線形のBinary Hashingの式: 𝐲 = 𝐬𝐠𝐧(𝐏𝐱 + 𝐭)
Random Projections
𝐏を乱数で生成してHashing: 𝐲 = 𝐬𝐠𝐧(𝐏𝐱)
ビット数が十分長ければ、
ハミング距離をビット長で
正規化した値に一致
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections
CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
キーポイント検出
(DoG)
勾配方向ヒストグラム
特徴量の抽出
LUTによる
勾配方向ヒストグラム
特徴量の抽出
キーポイント検出
(ピラミッド画像)
二値特徴量 変換
マッチング
(ベクトル間角度)
マッチング
(ハミング距離)
128 dim.
SIFT CARD
128 bits
136 dim.
CARD: Compact And Real-time Descriptors
計算のボトルネック
B×D D×1
回数 D=136次元, B=128bits の場合
乗算 B×D 17408
加算 (D-1)×B 17280
𝐲 = 𝐬𝐠𝐧( 𝐏𝐱 )
CARD: 二値特徴量変換
高速化のための制約条件
回数 D=136次元, B=128bits の場合
乗算 0 0
加算 𝐏の
非ゼロ数
約1740 (※90%がゼロのとき)
変換行列𝐏が疎
𝐏の要素は{-1,0,1}いずれかの値のみ
CARD: 二値特徴量変換
最適化による変換行列𝐏 の算出
2
),(
)),(),(()( 

vu
vuhvu DDC bbddP 
Minimize
Subject to the following conditions:
}1,0,1{ijp   Spij
変換前の類似度(正規化ベクトル間角度)
変換後の類似度(正規化ハミング距離)学習用のペア
— 変換前後で、類似度(距離)が保存される
ように𝐏を最適化
CARD: 二値特徴量変換
変換行列のゼロ要素数と性能の関係
変換行列𝐏の要素が90%ゼロになっても、
性能はほとんど損なわれない。
CARD: 二値特徴量変換
対応点探索のための二値特徴量
2010 2011 2012 2013
間接
直接
BRIEF
BinBoost
BRISK
FREAKORB D-BRIEF
LDAHash
Random
Projections
CARD
教師なし
学習
教師あり
学習
機械学習に基づかない
方法
BOLD
2015
LDAHash
間のHamming距離 → 最大化
間のHamming距離 → 最小化
Negativeペア
Positiveペア
基本的な考え方はD-BRIEFと同じ (定式化も似ている)
Positiveペア間の
Hamming距離
Negativeペア間の
Hamming距離
minimize
𝐲 = 𝐬𝐠𝐧(𝐏𝐱 + 𝐭)
LDAHash
𝐏の求め方
コスト関数からsgn関数を除去して整理
𝐭の求め方
一次元サーチで網羅的に探索
小さい方からB個の固有値に対応する固有ベクトルを求めればよい
各手法のまとめ
分類 特徴量 学習の
有無
記述能力 特徴抽出
の速度
特徴量の
サイズ
直接 BRIEF 不要 ☆ ☆☆☆ ☆
直接 BRISK 不要 ☆☆ ☆☆☆ ☆
直接 ORB 教師なし ☆☆ ☆☆☆ ☆☆
直接 FREAK 教師なし ☆☆ ☆☆☆ ☆
直接 D-BRIEF 教師あり ☆☆☆ ☆☆ ☆☆☆
直接 BinBoost 教師あり ☆☆☆☆ ☆ ☆☆☆
直接 BOLD 教師なし ☆☆☆☆ ☆☆☆ ☆
間接 Random
Projections
不要 ☆ ☆ ☆
間接 CARD 教師なし ☆☆ ☆☆☆ ☆☆
間接 LDAHash 教師あり ☆☆☆ ☆ ☆☆☆
二値特徴量抽出アルゴリズムの一般化
全ての手法は、(特徴抽出 + 線形のBinary Hashing)
という形式に帰着できる
𝐲 = 𝐬𝐠𝐧(𝐏𝑓(𝐱) + 𝐭)
特徴抽出 変換行列
パッチの輝度
しきい値
𝐱 𝑓(𝐱) 𝐏 𝐭
出
力
二値特徴量抽出アルゴリズムの一般化
全ての手法は、(特徴抽出 + 線形のBinary Hashing)
という形式に帰着できる
𝐲 = 𝐬𝐠𝐧(𝐏𝑓(𝐱) + 𝐭)
特徴抽出 変換行列
パッチの輝度
しきい値
𝐱 𝑓 𝐱 = 𝐱 𝐏 𝐭 = 0
出
力
BRIEF, BRISK, ORB, FREAK, BOLDの場合
平滑化したサンプリング点のペア
・・・
二値特徴量抽出アルゴリズムの一般化
全ての手法は、(特徴抽出 + 線形のBinary Hashing)
という形式に帰着できる
𝐲 = 𝐬𝐠𝐧(𝐏𝑓(𝐱) + 𝐭)
特徴抽出 変換行列
パッチの輝度
しきい値
𝐱 𝑓 𝐱 = 𝐱 𝐏 𝐭
出
力
D-BRIEFの場合
Pの各行は単純なフィルタの線形和
一次元探索で
計算
二値特徴量抽出アルゴリズムの一般化
全ての手法は、(特徴抽出 + 線形のBinary Hashing)
という形式に帰着できる
𝐲 = 𝐬𝐠𝐧(𝐏𝑓(𝐱) + 𝐭)
特徴抽出 変換行列
パッチの輝度
しきい値
𝐱 𝑓 𝐱 𝐏 𝐭 = 0
出
力
BinBoostの場合
非線形の
弱識別器
弱識別器の
重み
二値特徴量抽出アルゴリズムの一般化
全ての手法は、(特徴抽出 + 線形のBinary Hashing)
という形式に帰着できる
𝐲 = 𝐬𝐠𝐧(𝐏𝑓(𝐱) + 𝐭)
特徴抽出 変換行列
パッチの輝度
しきい値
𝐱 𝑓 𝐱 𝐏 𝐭
出
力
Random Projections, CARD, LDAHashの場合
SIFT, SURF
などの局所特徴量
一次元探索、
Mean centering
など
RP:
CARD:
LDAHash:
ランダム
疎行列
の固有ベクトル
特徴量 変換行列 𝐏 しきい値 𝐭 特徴抽出 𝑓(𝐱)
BRIEF サンプリング点の輝度差 𝐭 = 0 𝑓(𝐱) = 𝐱
BRISK サンプリング点の輝度差 𝐭 = 0 𝑓(𝐱) = 𝐱
ORB サンプリング点の輝度差 𝐭 = 0 𝑓(𝐱) = 𝐱
FREAK サンプリング点の輝度差 𝐭 = 0 𝑓(𝐱) = 𝐱
D-BRIEF フィルタの線形和 一次元探索 𝑓(𝐱) = 𝐱
BinBoost 弱識別器の重み 𝐭 = 0 非線形の弱識別器
BOLD サンプリング点の輝度差 𝐭 = 0 𝑓(𝐱) = 𝐱
Random
Projections
ランダム 𝐭 = 0 従来手法(SIFT, SURFな
ど)+mean centering
CARD {-1,0,+1}のいずれかの要素の
みを取る疎行列
𝐭 = 0 LUTによる勾配ヒスト
グラム特徴量抽出
+mean centering
LDAHash 固有ベクトル 一次元探索 従来手法
(SIFT, SURFなど)
二値特徴量抽出アルゴリズムの一般化
• 対応点探索の基本概念と動向
• 実数ベクトルで局所特徴量を表現する方法
• 二値ベクトルで局所特徴量を表現する方法
• 深層学習による方法
• まとめ
深層学習を用いた手法
Discriminative Learning of Deep Convolutional
Feature Point Descriptors (CNN Descriptor)
[Simo-serra, ICCV2015]
Learning to Compare Image Patches via
Convolutional Neural Networks (CNN Similarity)
[Zagoruyko, CVPR2015]
Convolutional Neural Network (CNN)
CV分野の多岐にわたるタスクで飛躍的に発展
一般物体認識,文字認識,顔認識,歩行者検出等
畳み込み層(特徴抽出)と全結合層(識別)で
構成されるニューラルネットワーク
教師信号との誤差を最小にする重みwを学習
→ 順伝播と逆伝播を繰り返して重みwを更新
畳み込み層 (特徴抽出部) 全結合層 (識別部)
重みw
重みw
出力値 教師信号
CNN Descriptor [Simo-serra, ICCV2015]
CNNを利用したパッチ画像の特徴量抽出
畳み込み層のみを使用し,全結合層は使用しない
CNNの構成
入力:パッチ画像,出力:特徴量(128次元)
活性化関数:hyperbolic tangent
プーリング:L2プーリング
畳み込み層 (特徴抽出部)
特徴量
CNN Descriptorの構成
重みフィルタwを共有した2つの畳み込み層から
特徴量xを出力
各畳み込み層から出力された特徴量のL2ノルムで
特徴量間の距離計算
CNN Descriptorの学習
学習画像:MVSデータセット
対応点パッチ:positiveペア,非対応点パッチ:negativeペア
特徴量のL2ノルムとヒンジ関数を組み合わせた
ロス関数を使用
誤差逆伝播法により CNNを学習
ロス関数が最小となる重みフィルタwを更新
:ロス関数
:入力パッチ画像
:特徴量
:任意の定数
→ PositiveペアはL2ノルムが小さく,
NegativeペアはL2ノルムが大きくなるように学習
Hard negative and positive mining
マッチングが困難なペアに対するCNNの更新
順伝播によりhard negative, positiveのペアを求める
hard negativeとhard positiveに対して再度逆伝播
Simo-serra, et al., “Discriminative Learning of Deep Convolutional Feature Point Descriptors”,
ICCV, 2015. ポスターより、図の一部を引用
• Consistent improvements over the state of the art.
• Trained in one dataset, but generalizes very well to scaling, rota-
tion, deformation and illumination changes.
• Computational efficiency (on GPU: 0.76 ms; dense SIFT: 0.14 ms).
Code is available: https:/ / github.com/ etrulls/ deepdesc-release
Key observation
1. We train a Siamese architecture with pairs of patches. We want
to bringmatching pairstogether and otherwise pull them apart.
2. Problem? Randomly sampled pairs are already easy to separate.
3. Solution: To train discriminative networks we use hard negative
and positive mining. This proves essential for performance.
(a) 12 points/ 132 patches with t-SNE [8]
(b) All pairs: pos/ neg
(c) “ Hard” pairs: pos/ neg
We take samples from [1], for illustration. Cor-
responding patchesareshown with samecolor:
(a) Representation from t-SNE [8]. Distance
encodessimilarity.
(b) Random sampling: similar (close) posi-
tivesand different (distant) negatives.
(c) We mine the samples to obtain dissimilar
positives (+, long blue segments) and sim-
ilar negatives (× , short red segments):
(d) Random sampling results in easy pairs.
(e) Mined pairs with harder correspondences.
(d) Random pairs
(e) Mined pairs
This allows us to train discriminative models with a small number
of parameters (∼45k), which also alleviates overfitting concerns.
Stride 2 3 4
Train on the M VS Dataset [1]. 64 × 64 grayscale pat
Statue of Liberty (LY, top), NotreDame (ND, center)
bottom). ∼150k points and ∼450k patches each ⇒ 10
and 1012
negative pairs⇒ Efficient exploration wit
Weminimizethehingeembedding loss. With 3D po
l(x1, x2)=
∥D(x1) − D(x2)∥2,
max(0, C − ∥D(x1) − D(x2)∥2),
This penalizes corresponding pairs that are placed
non-corresponding pairs that are less than C units a
M ethodology: Train over two setsand test over third
with cross-validation. Metric: precision-recall (PR
haystack’ setting: pick 10k unique points and gen
tive pair and 1k negative pairs for each, i.e. 10k po
negatives. Results summarized by ‘Area Under the
Effect of mining
(a) Forward-propagate positives sp ≥ 128 and negat
(b) Pick the 128 with the largest loss (for each) and b
Recall
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Precision
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
PR curve, training LY+YO, test ND
SIFT
CNN3, mined 1/2
CNN3, mined 2/2
CNN3, mined 4/4
CNN3, mined 8/8
Recall
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Precision
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
PR curve, training LY+ND, test YO
SIFT
CNN3, mined 1/2
CNN3, mined 2/2
CNN3, mined 4/4
CNN3, mined 8/8
0 0.1 0.2 0.3
Precision
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
PR curve, tr
sp sn PR AUC
128 128 0.366
256 256 0.374
512 512 0.369
1024 1024 0.325
Table 1: (a) No mining.
Larger batches do not help.
sp sn rp rn Cos
128 256 1 2 20%
256 256 2 2 35%
512 512 4 4 48%
1024 1024 8 8 67%
Table 2: (b) Mining with rp =
The mining cost is incurred d
available: https:/ / github.com/ etrulls/ deepdesc-release
bservation
ain a Siamese architecture with pairs of patches. We want
ngmatching pairstogether and otherwisepull them apart.
em? Randomly sampled pairs are already easy to separate.
ion: To train discriminative networks we use hard negative
positive mining. This proves essential for performance.
points/ 132 patches with t-SNE [8]
(b) All pairs: pos/ neg
(c) “ Hard” pairs: pos/ neg
samples from [1], for illustration. Cor-
ing patchesareshown with samecolor:
bottom). ∼150k points
and 1012
negative pa
Weminimizethehing
l(x1, x2)=
m
This penalizes corres
non-corresponding p
M ethodology: Train o
with cross-validation
haystack’ setting: pic
tive pair and 1k nega
negatives. Results sum
Effect of mining
(a) Forward-propaga
(b) Pick the 128 with
(a) 12 points/ 132 patches with t-SNE [8]
(b) All pairs: pos/ neg
(c) “ Hard” pairs: pos/ neg
We take samples from [1], for illustration. Cor-
responding patchesareshown with samecolor:
(a) Representation from t-SNE [8]. Distance
encodessimilarity.
(b) Random sampling: similar (close) posi-
tivesand different (distant) negatives.
(c) We mine the samples to obtain dissimilar
(d) Random pairs
各パッチ画像の特徴量の距離空間
同じ色のパッチ
↓
対応点
赤:negativeペア
青:positiveペア
hard positive
hard negative
hard negativeとhard positiveに適したネットワークに更新
Recall-Precisionカーブによる性能評価
特徴量記述の性能:SIFT << VGG < CNN Descriptor
→ CNN Descriptorは3層の畳み込みで最も高い性能
対応点探索における処理の変化
Hand-crafted Feature Descriptor
CNN Descriptor
CNN Similarity
キーポイント検出 特徴量記述 距離計算
キーポイント検出 特徴量記述 距離計算
キーポイント検出 特徴量記述 類似度計算
DoG, MSER …
DoG, MSER …
DoG, MSER …
SIFT, ORB … ユークリッド距離
ユークリッド距離
CNN
CNN
CNN Similarity [Zagoruyko, CVPR2015]
CNNによりパッチ画像間の類似度を算出
畳み込み層で特徴抽出,全結合層で2枚のパッチ画像の
類似度を算出
CNNの構成
入力:パッチ画像,出力:パッチ画像間の類似度
活性化関数:Rectified Linear Unit (ReLU)
プーリング:Maxプーリング
5種類のCNNモデルを提案
2-channelモデル
Siameseモデル
Pseudo-siameseモデル
Central-surround two-stream networkモデル
Spatial Pyramid Pooling networkモデル
2-channelモデル
類似度を算出する2枚のパッチ画像を2チャンネル
からなる1枚の画像とみなしてCNNへ入力
学習速度が速い
比較するペアが変わっても2チャンネル分計算が必要
全結合層
プーリング
畳み込み
Siameseモデル
重みフィルタを共有した2つのCNNモデル
2つの畳み込み層の出力を連結して全結合層に入力
比較するペアが変わった場合は片側のみ込み層のみ実行
全結合層
プーリング
畳み込み
重み共有
Pseudo-siameseモデル
重みフィルタを共有しない2つのCNNモデル
Siameseモデルに比べ学習パラメータは増加
パッチ間の変化に適応した重みフィルタを学習可能
全結合層
プーリング
畳み込み
重み非共有
Central-surround two-stream networkモデル
1枚のパッチ画像を中心パッチ画像と
周辺パッチ画像に分離させてCNNを学習
パッチ全体と中心領域の両方を表現する特徴量を抽出
→ マッチング性能向上
全結合層
プーリング
畳み込み
Spatial Pyramid Pooling networkモデル
任意のサイズのパッチ画像をCNNに入力可能
畳み込み層の出力にSpatial Pyramid Poolingを適用
→ 特徴マップを固定次元の特徴量に変換
パッチ画像の解像度を落とすことなく特徴抽出が可能
全結合層
プーリング
畳み込み
CNNモデルの学習
学習画像:MVSデータセット
Data Augmentationにより学習画像を増加
ヒンジ関数とL2正則化を用いた目的関数を使用
誤差逆伝播法により全結合と畳み込み層の重みを学習
ヒンジ関数により類似度が低いpositiveペアの出力を
高くするように重みを更新
正則化項により重みの過剰適合を防ぐ
:重み
:教師信号(ラベル)
:CNNの出力(類似度)
:学習画像枚数
:定数
ヒンジ関数
正則化項
Mean Average Precisionによる性能評価
性能:畳み込み層のみ < 畳み込み層+全結合層(CNN Similarity)
→ 全結合層による類似度計算を導入することでマッチング性能が向上
深層学習による特徴量表現 まとめ
学習でマイニング等の工夫を加えることで
特徴量記述の性能向上
特徴抽出と類似度をend-to-endで学習
特徴量記述の処理速度が課題
1つの特徴量記述に要する時間
CNN Descriptor (CPU) 4.81 [ms]
CNN Descriptor (GPU) 0.76 [ms]
SIFT 0.14 [ms]
今後の予想される展開
キーポイント検出も含めてend-to-endで学習
可視光カメラと赤外光カメラ間での対応点探索
ICCV 2015 (12/13~16)
CV分野のトップカンファレンス
開催国:Santiago, Chile
参加者:1460人
採択率:Oral 3.30%, Poster 27.62%
オーラル会場 ポスター会場 リセプション会場
ICCV2015での関連論文
Local Convolutional Features with Unsupervised
Training for Image Retrieval
2層のConvolutional Kernel Networkによる特徴量記述
入力パッチ画像にホワイトニングや勾配抽出等の
前処理を加えることで性能向上
Aggregating Deep Convolutional Features for
Image Retrieval
畳み込み層で出力された各2次元特徴マップの線形和を
特徴量として表現
特徴量にPCAを適用してコンパクト化,過剰適合の防止
RIDE: Reversal Invariant Descriptor
Enhancement
画像反転に不変なSIFT特徴量を提案
Bag-of-Featuresの問題に対して性能向上
CNNをベースとした手法
ICCV2015での関連論文
アフィン変換に不変なキーポイント検出
無数の異方性LoGフィルタの畳み込みを効率化
キーポイントに対して複数のアフィン領域を推定
Multiple-hypothesis affine region estimation
with anisotropic LoG filters
T. Hasegawa, Y. Yamauchi, T. Yamashita, H. Fujiyoshi (Chubu Univ.)
M. Ambai, K. Ishikawa (Denso IT Laboratory, Inc.)
G. Koutaki (Kumamoto Univ.)
従来のキーポイント検出
Rotation invariant
Scale invariant
Affine invariant
アフィン不変なキーポイント検出が
提案されていない
提案手法
[Hasegawa2015]
アフィン領域推定
Input pattern
Keypoint offset
(x+1px, y+2 px)
Affine region
Affine region
Distance: large
SIFT feature
SIFT feature
Distance: smallInput pattern
Keypoint offset
(x+1px, y+2 px)
Affine regions
Affine regions
SIFT feature
SIFT feature
Hessian-Affine
提案手法
フィルタの畳み込みの効率化
複数のアフィン領域を推定するための無数の
異方性LoGフィルタをコンパクト化
SVDを適用することで14種類の固有フィルタで近似
異方性LoGフィルタ
特異値分解
異方性LoGフィルタ
複数のアフィン領域推定
固有フィルタと係数の線形和で応答値を計算
複数のフィルタ応答値の極値を探索
キーポイントに対して複数のアフィン領域を推定
アフィン領域推定結果
画像1 画像2
2画像間のアフィン領域推定精度:16.0% 向上 (Hessian-Affineとの比較)
• 対応点探索の基本概念と動向
• 実数ベクトルで局所特徴量を表現する方法
• 二値ベクトルで局所特徴量を表現する方法
• 深層学習による方法
• まとめ
まとめ
過去に提案されてきた手法を,
(1) 実数ベクトルで局所特徴量を表現する方法
(2) 二値ベクトルで局所特徴量を表現する方法
(3) 深層学習による方法
以上3つの分類に整理してご紹介しました.
目的に応じて賢く使い分けましょう!
関連文献
— [SIFT]
David G. Lowe, "Distinctive image features from scale-Invariant
keypoints," IJCV2004
— [SURF]
Herbert Bay, Andreas Ess, Tinne Tuytelaars, and Luc Van Gool, “Speeded-
up robust features (SURF),” CVIU2008.
— [PCA-SIFT]
Yan Ke and Rahul Sukthankar, “PCA-SIFT: A more distinctive
representation for local image descriptors,” CVPR2004
— [GLOH]
Krystian Mikolajczyk and Cordelia Schmid, “A performance evaluation of
local descriptors,“ TPAMI2005
— [RIFF]
Gabriel Takacs, Vijay Chandrasekhar, Sam Tsai, David Chen, Radek
Grzeszczuk, and Bernd Girod, "Unified real-time tracking and recognition
with rotation-invariant fast features," CVPR2010
— [ASIFT]
Jean-Michel Morel and Guoshen Yu, "ASIFT: A new framework for fully
affine invariant image comparison" SIAM Journal on Imaging Sciences,
Vol. 2, No. 2, pp. 438-469, April 2009.
本資料では、下記に記載の論文から図を一部引用した。
関連文献
— [BRIEF]
M.Calonder, V.Lepetit, and P.Fua, “BRIEF: Binary Robust Independent
Elementary Features,” ECCV2010
— [BRISK]
S.Leutenegger, M.Chli and R.Siegwart, "BRISK: Binary Robust Invariant
Scalable Keypoints,“ ICCV2011
— [ORB]
E.Rublee, V.Rabaud, K.Konolige and G.Bradsk, "ORB: an efficient
alternative to SIFT or SURF,“ ICCV2011
— [FREAK]
Alexandre Alahi, Raphael Ortiz, and Pierre Vandergheynst, “FREAK: Fast
retina keypoint," CVPR2012
— [D-BRIEF]
Tomasz Trzcinski and Vincent Lepetit, "Efficient discriminative projections
for compact binary descriptors," ECCV2012
— [BinBoost]
T. Trzcinski, M. Christoudias, V. Lepetit, and P. Fua, "Boosting binary
keypoint descriptors," CVPR2013
— [BOLD]
V. Balntas, L. Tang, and K. Mikolajczyk. BOLD - binary online learned
descriptor for efficient image matching. CVPR2015
本資料では、下記に記載の論文から図を一部引用した。
関連文献
— [CARD]
M.Ambai and Y.Yoshida, “Compact And Real-time Descriptors, ” in Proc.
ICCV2011
— [LDA Hash]
C. Strecha, A.M. Bronstein, M.M. Bronstein, and Pee. Fua, "LDAHash:
Improved matching with smaller descriptors," TPAMI2012
— [CNN Descriptor]
E. Simo-Serra, E. Trulls, L. Ferraz, I. Kokkinos, P. Fua, and F. Moreno-
Noguer, "Discriminative learning of deep convolutional feature point
descriptors," ICCV2015
— [CNN Similarity]
S. Zagoruyko and N. Komodakis. Learning to compare image patches via
convolutional neural networks," CVPR2015
— [Spectral Affine SIFT]
Takahiro Hasegawa, Mitsuru Ambai, Kohta Ishikawa, Gou Koutaki, Yuji
Yamauchi, Takayoshi Yamashita, Hironobu Fujiyoshi, "Multiple-Hypothesis
Affine Region Estimation With Anisotropic LoG Filters," ICCV2015
本資料では、下記に記載の論文から図を一部引用した。
Denso IT Laboratory, Inc. Chubu University
@ambee_whisper
manbai@d-itlab.co.jp
アイコン入手先:http://www.fancyicons.com/

More Related Content

What's hot

MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
Hironobu Fujiyoshi
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
TaroSuzuki15
 
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
Yoshitaka HARA
 
Cartographer を用いた 3D SLAM
Cartographer を用いた 3D SLAMCartographer を用いた 3D SLAM
Cartographer を用いた 3D SLAM
Yoshitaka HARA
 
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
Deep Learning JP
 
LiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせLiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせ
Takuya Minagawa
 
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Masaya Kaneko
 
リンク機構を有するロボットをGazeboで動かす
リンク機構を有するロボットをGazeboで動かすリンク機構を有するロボットをGazeboで動かす
リンク機構を有するロボットをGazeboで動かす
tomohiro kuwano
 
CNN-SLAMざっくり
CNN-SLAMざっくりCNN-SLAMざっくり
CNN-SLAMざっくり
EndoYuuki
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
SSII
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
Takuya Minagawa
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
Deep Learning JP
 
30th コンピュータビジョン勉強会@関東 DynamicFusion
30th コンピュータビジョン勉強会@関東 DynamicFusion30th コンピュータビジョン勉強会@関東 DynamicFusion
30th コンピュータビジョン勉強会@関東 DynamicFusion
Hiroki Mizuno
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -MPRG_Chubu_University
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解
Koji Terada
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
miyanegi
 
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
Tomohiro Motoda
 
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
Hironobu Fujiyoshi
 
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
Yoshitaka HARA
 

What's hot (20)

MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
 
ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例ロボティクスにおける SLAM 手法と実用化例
ロボティクスにおける SLAM 手法と実用化例
 
Cartographer を用いた 3D SLAM
Cartographer を用いた 3D SLAMCartographer を用いた 3D SLAM
Cartographer を用いた 3D SLAM
 
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
 
LiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせLiDAR点群とSfM点群との位置合わせ
LiDAR点群とSfM点群との位置合わせ
 
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
Visual SLAM: Why Bundle Adjust?の解説(第4回3D勉強会@関東)
 
リンク機構を有するロボットをGazeboで動かす
リンク機構を有するロボットをGazeboで動かすリンク機構を有するロボットをGazeboで動かす
リンク機構を有するロボットをGazeboで動かす
 
CNN-SLAMざっくり
CNN-SLAMざっくりCNN-SLAMざっくり
CNN-SLAMざっくり
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
20190307 visualslam summary
20190307 visualslam summary20190307 visualslam summary
20190307 visualslam summary
 
[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況[DL輪読会]画像を使ったSim2Realの現況
[DL輪読会]画像を使ったSim2Realの現況
 
30th コンピュータビジョン勉強会@関東 DynamicFusion
30th コンピュータビジョン勉強会@関東 DynamicFusion30th コンピュータビジョン勉強会@関東 DynamicFusion
30th コンピュータビジョン勉強会@関東 DynamicFusion
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解
 
SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介SLAM開発における課題と対策の一例の紹介
SLAM開発における課題と対策の一例の紹介
 
三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)三次元表現まとめ(深層学習を中心に)
三次元表現まとめ(深層学習を中心に)
 
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
-SSIIの技術マップ- 過去•現在, そして未来 [領域]認識
 
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
ROS の活用による屋外の歩行者空間に適応した自律移動ロボットの開発
 

Recently uploaded

【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 

Recently uploaded (16)

【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 

2015年12月PRMU研究会 対応点探索のための特徴量表現