SlideShare a Scribd company logo
1 of 37
画像検索今昔物語
株式会社ディー・エヌ・エー
内田 祐介
特定物体認識
1
• 類似画像検索
• 一般物体認識
(クラス分類)
• 特定物体認識
同じ物体(インスタンス)が写っている画像を検出
ResultQuery
Query
空、雲
ResultQuery
大規模特定物体認識の最新動向
https://sites.google.com/site/yu4uchida/uchida_ieice2013.pdf
大域特徴ベース vs 局所特徴ベース
2
• 大域特徴 (global feature) ベース
– 画像から1つの特徴を抽出(e.g. カラーヒストグラム)
– 類似画像検索ではうまくいくが
特定物体認識ではうまくいかない
• 局所特徴 (local feature) ベース
– 画像から多数の局所特徴を抽出(e.g. SIFT)
– それらのマッチング結果により類似度を定義
– SIFT等の強力な特徴量により
deep learningに最後まで抵抗(最近やられた模様)
大域特徴ベース vs 局所特徴ベース
3
• 大域特徴で検索
• 局所特徴で検索
• 局所特徴をaggregateして大域特徴にして検索
– FV, VLAD
局所特徴ベース特定物体認識
4
• Detection:局所特徴領域の検出
• Description:局所特徴領域の記述
• Indexing&Search:(近似)最近傍探索
• Post process
– Geometric verification
– Query expansion
セットになることが多いが
本来は独立して選択できる
局所特徴を用いた特定物体認識
4/16/2018 5
①Extract local regions
(patches) from images
②Describe the patches
by d-dimensional vectors
③Make correspondences
between similar patches
④Calculate similarity
between the images
Similarity: 3
Position (x, y)
Orientation θ
Scale σ
Feature vector f
(e.g., 128-dim SIFT)
Local feature
局所特徴領域の検出手法
6
• Blobタイプとコーナータイプ
• 回転不変、スケール不変、アフィン不変
とタイプ分けされる
• 基本的なアイディア=
畳み込みフィルタの応答の極大値により検出
マルチスケール検出の直感的理解
7
• Blobの中心とカーネルの中心が一致するときが
一番responseが大きくなる
信号
(画像)
畳み込みカーネル
(e.g. LoG)
マルチスケール検出の直感的理解
8
• カーネルサイズとblobのスケールが一致する
ときが一番responseが大きくなる
• スケールスペースでのフィルタ応答が極大となる
=局所特徴
局所特徴領域の検出手法
9
Hessian
Beaudet’78
Harris
Harris’88
LoG
Lindeberg’98
DoG
Lowe’99
SURF
Bay’06
Harris-Laplace
Mikolajczyk’01
Hessian-Affine
Mikolajczyk’04
Harris-Affine
Mikolajczyk’02
FAST
Rosten’05
Affine-invariant
Scale-invariant
Rotation-invariant
LoG scale seletion
Affine adaptation
Multi-scale +
Box filter acceleration
LoG approximation
Hessian-Laplace
Mikolajczyk’01
Oriented FAST
Rublee’11
SUSAN
Smith’97 Simplification
+ tree acceleration
Orientation
Corner-like
Blob-like
(SIFT)
(ORB)
局所特徴領域の記述手法
10
• 実数値タイプとバイナリタイプがある
SIFT
Lowe’99
SURF
Bay’06
BRIEF
Calonder’10
ORB
Rublee’11
GLOH
Mikolajczyk’05
FREAK
Alahi’12
A-KAZE
Alcantarilla’13
LDB
Yang’12
LATCH
Levi’16
BRISK
Leutenegger’11
Real-valued
Binary
(0.56, 0.22, -0.10, …, 0.96)
(1, 0, 0, …, 1)
RootSIFT
Arandjelovic’12
どれを使えば良いの?
11
• 精度重視
– SIFT or Hessian Affine detector
+ RootSIFT descriptor
• 速度重視
– ORB detector + ORB descriptor
• Local Feature Detectors, Descriptors, and Image Representations: A Survey
https://arxiv.org/abs/1607.08368
RootSIFT [Arandjelovic+, CVPR’12]
4/16/2018 12
• Hellinger kernel works better than Euclidean distance
in comparing histograms such as SIFT
• Hellinger kernel (Bhattacharyya’s coefficient) for L1
normalized histograms x and y:
• Explicit feature map of x into x’ :
– L1 normalize x
– element-wise square root x to give x’
– then x’ is L2 normalized
• Computing Euclidean distance in the feature map
space is equivalent to Hellinger distance in the
original space:
RootSIFT
RootSIFT
Large-scale Object Recognition
4/16/2018 13
・
・
・
Distance
calculation
Query
image
Reference
images
Explicit feature matching
requires high computational cost
and memory footprint
Match
Bag-of-visual words!
Bag-of-Visual Words [Sivic+, ICCV’03]
4/16/2018 14
• Offline
– Collect a large number of training vectors
– Perform clustering algorithm (e.g., k-means)
– Centroids of clusters = visual words (VWs)
• Online:
– All features are assigned to their nearest visual words
– An image is represented by the frequency histogram of VWs
– (Dis)similarity is defined by the distance between histograms
Visual words (VW)
VW1
VWn
VW2
…
Visual words
-
-
・
・・
-
-
-
・・
・-
-
-
・・
・-
-
-
・
・・
-
-
-
・・
・
-
Frequency
}1|{ Nii  vV
Bag-of-Visual Words [Sivic+, ICCV’03]
4/16/2018 1515
VW1
VW2
VWk
VWn
・
・
・
・
・
・
Indexing step
(quantization)
Search step
(quantization)
Match
Match
Matching can be performed in O(1)
with an inverted index
Query
image
Reference
images
Nearest VW
1
2
w
N
Inverted index
Image ID
1 2 3 4 5 6 7 8 9 10 11 12 ...
Image ID
Accumulated scores
VW ID
Obtain image IDs
Query image Reference image
Image ID ...(x, y) σ θ
(1) Feature detection
(2) Feature description
(3) Quantization
(1) Feature detection
(2) Feature description
(3) Quantization
(4) Voting
...
... ...
...
Visual word v1
...
Visual word vw
...
Visual word vN
Visual words
1 4 5 7 10 16 19
Offline step
Visual word v1
...
Visual word vw
...
Visual word vN
Visual words
Get images with the top-K scores
Results
inlier
outlier
(5) Geometric verification
全体処理
Geometric
verification
Geometric (Spatial) Verification
17
• マッチングした結果には誤検出が含まれる
– 正解のマッチング(inlier)はある幾何的な変換モデルに対して
整合性が取れているはずなので、
モデルの推定とinlierの同定を同時に行う→RANSAC
– inlierのみを用いて画像間の
類似度とすると精度が向上
outlier
inlier
モデル; p’ = Mp
18
rotation
scalingtranslation
similarity trans.
affine trans.
perspective trans.
1DoF
2DoF 1DoF
4DoF
5DoF
6DoF
7DoF
Fundamental Matrix
RANSAC
19
1. モデルパラメータを計算できる対応点をランダム
サンプリング
2. モデルパラメータを算出
3. 全ての点対応で、上記のモデルパラメータと整合
する点対応をinlierとみなす
4. 上記を一定回数繰り返し、一番inlierが多かった
モデルパラメータを採用
Weak Geometric Consistency [Jegou+, ECCV’08]
4/16/2018 20
• スケール比、角度差はconsistentなので
角度差、スケール比空間にハフ変換的に投票する
– 正解はスコアが下がらないが不正解ペアのスコアが大
きく下がる
どのモデルを使えばよいの?
21
• とりあえず相似変換かアファイン変換
←対象から離れていれば大体相似変換で近似可能
• スケールと角度がある特徴領域だと
1つの対応点から相似変換が求まる!
→全ペアに対してモデル推定+inlier算出をする
• その後、より自由度の大きいモデルをフィッティ
ングしても良い
J. Philbin et al., “Object retrieval with large vocabularies and fast spatial matching,” CVPR’17.
Query Expansion
22
• 最初の検索結果を元に、新たな検索クエリを人工
的に作成し、「芋づる式」に検索結果を改善する
ことを狙う
クエリ 検索結果 拡張クエリ 新たな検索結果
Average Query Expansion [Chum+, ICCV’07]
4/16/2018 23
• Obtain top (m < 50) verified results of original query
• Construct new query using average of these results
Without geometric verification,
QE degrades accuracy!
Query image
Verified results
New query
Multiple Image Resolution Expansion [Chum+, ICCV’07]
4/16/2018 24
ROI
Query image
ROI
ROIROI
ROI
ROI
ROI
First verified results
ROI
ROI
ROI
ROI
ROI
ROI
• Calculate relative change in resolution
• Construct average query for each resolution
New query1 New query2 New query3
Query Expansion Results
4/16/2018 25
• ori = original query
• qeb = query expansion baseline
• trc = transitive closure expansion
• avg = average query expansion
• rec = recursive average query expansion
• sca = multiple image resolution expansion
Discriminative Query Expansion [Arandjelovic+, CVPR’12]
4/16/2018 26
• Train a linear SVM classifier
– Use verified results as positive training data
– Use low ranked images as negative training data
– Rank images on their signed distance from the decision
boundary
– Reranking can be efficient with an inverted index!
Aggregation Methods
27
• 局所特徴は1画像から1000前後抽出される
• 画像が多いとインデックスが肥大化
• 特に画像認識では1つのベクトルとして扱いたい
– Fisher Vector (FV)
– VLAD
• 精度を求める場合は使わない
最近傍探索 (Nearest Neighbor Search, NNS)
28
• 距離空間 M における点の集合 S とクエリ点 q∈M が
与えられた際に S の中で q に最も近い点を探す
– k近傍 / range search
• ユークリッド空間での最近傍探索を扱うことがほとんど
• kd-tree, SR-tree等のindexingにより高速化
(高次元(数十?)で次元の呪いにかかる)
+
+
+
++
+
+
+
+
+
+
+
o
q
Input
+
+
+
++
+
+
+
+
+
+
+
o
q
Output
S
近似最近傍探索
29
• エラーを許す代わりに高速化、エラー率とトレードオフ
– 速度、精度、メモリ使用量がトレードオフになる
• 木構造+priority search
– kd-tree, randomized kd-trees, hierarchical kd-tree
– メモリを気にしなければ無難で良い
• Locality Sensitive Hashing (LSH) 系
– ***LSHがいっぱい。個人的には嫌い
• 直積量子化系
– サーベイ → https://www.jstage.jst.go.jp/article/mta/6/1/6_2/_article/-char/ja/
– データを圧縮し、圧縮したまま検索
• バイナリ圧縮系
– いっぱいある https://www.slideshare.net/ren4yu/k-means-hashing-up (Heさんだよ)
– バイナリ符号にするのでpopcnt命令で距離計算できる
(がそのままだとlinear search)
え?でもCNNのほうが良いんでしょ?
30
CNN系 (global feature)
31
• CNN Features off-the-shelf: an Astounding Baseline for
Recognition https://arxiv.org/abs/1403.6382
– クラス分類用のCNN (OverFeat) のFCをそのまま使っても結構良い
• Neural Codes for Image Retrieval
https://arxiv.org/pdf/1404.1777.pdf
– 最終層前のFCを使ったほうが良いとか、検索対象のドメインで
finetuneしたほうが良いとか
• CNN Image Retrieval Learns from BoW: Unsupervised Fine-
Tuning with Hard Examples https://arxiv.org/abs/1604.02426
– Siamese Networkで学習
• Global featureでもかなり良い(vs. FV/VLAD)
• 基本的に回転・スケール不変ではないことに注意
CNN系 (local feature)
32
• LIFT: Learned Invariant Feature Transform
https://arxiv.org/abs/1603.09114
– 検出、角度推定、記述をend-to-endで学習
– 遅いし検索では精度出ていない
• Large-Scale Image Retrieval with Attentive Deep
Local Features https://arxiv.org/abs/1612.06321
– FCN+アテンション(マルチスケールでやる)で局所特徴を定義
– 良さげ
https://github.com/tensorflow/models/tree/master/researc
h/delf
– 回転不変性は担保されない
DELF
33
Comparative Study
34
• Revisiting Oxford and Paris: Large-Scale Image
Retrieval Benchmarking https://arxiv.org/abs/1803.11285
– Local, global, CNN/非CNNが網羅的に比較されている
(が、著者らのチームにバイアスがかかっているかも)
Local
Global
非CNN
CNN
ベストプラクティス①
35
• Global → https://arxiv.org/abs/1711.02512
– 性能の良いベースネットワークを利用(ResNet以上)
し、finetune(Siamere?)する
– generalized mean-pooling (Lp, p=3) を利用
– 複数スケール (region) を利用
– RegionレベルでDiffusionベースのquery expansion
https://arxiv.org/abs/1611.05113
ベストプラクティス②
36
• Local → https://hal.inria.fr/hal-01131898/document
– 特徴量としてはDELFを利用
– Indexing, matching, scoringがややこしい(ASMK
– Geometric verificationは必須
– Query expansionもやる

More Related Content

What's hot

初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
MPRG_Chubu_University
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
 

What's hot (20)

Point net
Point netPoint net
Point net
 
StyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNAStyleGAN解説 CVPR2019読み会@DeNA
StyleGAN解説 CVPR2019読み会@DeNA
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision[DL輪読会]MetaFormer is Actually What You Need for Vision
[DL輪読会]MetaFormer is Actually What You Need for Vision
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
 
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
画像局所特徴量と特定物体認識 - SIFTと最近のアプローチ -
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
Depth Estimation論文紹介
Depth Estimation論文紹介Depth Estimation論文紹介
Depth Estimation論文紹介
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)Skip Connection まとめ(Neural Network)
Skip Connection まとめ(Neural Network)
 
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 

Similar to Image Retrieval Overview (from Traditional Local Features to Recent Deep Learning Approaches)

大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺
n_hidekey
 
CVPR2011 Festival PDF
CVPR2011 Festival PDFCVPR2011 Festival PDF
CVPR2011 Festival PDF
Masafumi Noda
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
Yusuke Uchida
 
Online moving camera_background_subtraction
Online moving camera_background_subtractionOnline moving camera_background_subtraction
Online moving camera_background_subtraction
Daichi Suzuo
 
20110904cvsaisentan(shirasy) 3 4_3
20110904cvsaisentan(shirasy) 3 4_320110904cvsaisentan(shirasy) 3 4_3
20110904cvsaisentan(shirasy) 3 4_3
Yoichi Shirasawa
 

Similar to Image Retrieval Overview (from Traditional Local Features to Recent Deep Learning Approaches) (13)

大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺
 
物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)物体検知(Meta Study Group 発表資料)
物体検知(Meta Study Group 発表資料)
 
CVPR2011 Festival PDF
CVPR2011 Festival PDFCVPR2011 Festival PDF
CVPR2011 Festival PDF
 
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
【チュートリアル】動的な人物・物体認識技術 -Dense Trajectories-
 
CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現CV勉強会@関東 3巻3章4節 画像表現
CV勉強会@関東 3巻3章4節 画像表現
 
論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)論文読み会(DeMoN;CVPR2017)
論文読み会(DeMoN;CVPR2017)
 
Opencv object detection_takmin
Opencv object detection_takminOpencv object detection_takmin
Opencv object detection_takmin
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent NetworksLearning Spatial Common Sense with Geometry-Aware Recurrent Networks
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
 
Online moving camera_background_subtraction
Online moving camera_background_subtractionOnline moving camera_background_subtraction
Online moving camera_background_subtraction
 
LexADV_WOVis Ver.0.1bの概要
LexADV_WOVis Ver.0.1bの概要LexADV_WOVis Ver.0.1bの概要
LexADV_WOVis Ver.0.1bの概要
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
[DL輪読会]Collective dynamics of repeated inference in variational autoencoder r...
[DL輪読会]Collective dynamics of repeated inference in variational autoencoder r...[DL輪読会]Collective dynamics of repeated inference in variational autoencoder r...
[DL輪読会]Collective dynamics of repeated inference in variational autoencoder r...
 
20110904cvsaisentan(shirasy) 3 4_3
20110904cvsaisentan(shirasy) 3 4_320110904cvsaisentan(shirasy) 3 4_3
20110904cvsaisentan(shirasy) 3 4_3
 

More from Yusuke Uchida

More from Yusuke Uchida (20)

近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place SolutionSIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
SIGNATE オフロードコンペ 精度認識部門 3rd Place Solution
 
SIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place SolutionSIGNATE 鰹節コンペ2nd Place Solution
SIGNATE 鰹節コンペ2nd Place Solution
 
DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術DRIVE CHARTを支えるAI技術
DRIVE CHARTを支えるAI技術
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
Deep Fakes Detection
Deep Fakes DetectionDeep Fakes Detection
Deep Fakes Detection
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
Humpback whale identification challenge反省会
Humpback whale identification challenge反省会Humpback whale identification challenge反省会
Humpback whale identification challenge反省会
 
DeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジDeNAにおける先端AI技術活用のチャレンジ
DeNAにおける先端AI技術活用のチャレンジ
 
コンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネスコンピュータビジョン技術の実応用とビジネス
コンピュータビジョン技術の実応用とビジネス
 
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
深層学習を用いたコンピュータビジョン技術と運転行動モニタリングへの応用
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
PRMU研究会の今後のあり方について(NLP分野での取り組み紹介)
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
 

Recently uploaded

Recently uploaded (8)

Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
 
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアルLoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
 
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
 
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイルLoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
 
情報を表現するときのポイント
情報を表現するときのポイント情報を表現するときのポイント
情報を表現するときのポイント
 
Keywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltdKeywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltd
 
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
 
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdfネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
 

Image Retrieval Overview (from Traditional Local Features to Recent Deep Learning Approaches)

Editor's Notes

  1. Arandjelovic