SlideShare a Scribd company logo
1 of 26
Download to read offline
http://deeplearning.jp/
Self-Supervised Learning from Images with a
Joint-Embedding Predictive Architecture
小林 範久 Present Square Co.,Ltd.
DEEP LEARNING JP
[DL Papers]
1
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
書誌情報
Self-Supervised Learning from Images with a Joint-Embedding Predictive
Architecture
https://arxiv.org/abs/2301.08243
タイトル:
著者: Mahmoud Assran, Quentin Duval, Ishan Misra, Piotr Bojanowski, Pascal Vincent,
Michael Rabbat, Yann LeCun, Nicolas Ballas
• 画像からの自己教師あり学習のための非生成的アプローチであるI-JEPAを提案。
• I-JEPAは、一つのコンテキストブロックから、同じ画像内の様々なターゲットブロックの表現を予測する。
• (a)十分に大きなスケールでターゲットブロックをサンプリングし、(b)十分に情報量の多い(空間的に分散し
た)コンテキストブロックを使用することが重要。
• スケール性があり、線形分類からオブジェクトカウント、深度予測までの幅広いタスクで高い精度を達成。
概要:
2
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
書誌情報
3
JEPAを画像分野に適用
出典:A Path Towards Autonomous Machine Intelligence, Yann LeCun
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
アジェンダ
4
1. イントロダクション
2. 関連研究
3. 手法
4. 実験
5. 結論
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. イントロダクション
5
• 自己教師あり学習には一般的に2つのアプローチが存在する:不変性ベースと生成的な方法。
イントロダクション
不変性ベースの方法(invariance-based methods)
生成的な手法(generative methods)
• 画像の同一性を維持することを目指し、一方生成的な方法はマスクされた部分を予測することにより学習を進める。高
い意味レベルの表現を生成できるが、異なるタスクや異なるモダリティ(例えば音声)への一般化が困難である。
• 特にマスクノイズアプローチと呼ばれるもので、ピクセルレベルまたはトークンレベルでの予測を行う。この手法は、画像モダリ
ティを超えて容易に一般化できるが、得られる表現の意味レベルが低いという課題がある。
これらの手法の利点を最大限に活用するためには、より複雑な適応メカニズム(例えばエンドツーエンドの微調整)が必要と
なり、そのためにはさらなる研究と技術開発が求められる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. イントロダクション
6
• 本研究では、画像変換によるエンコードの過度な事前知識を避け、自己教師あり学習での表現の意味レベルを向上
させる方法を提案。その具体的な手法として「共同埋め込み予測アーキテクチャ(I-JEPA)」を提案。
イントロダクション
I-JEPAの基本的なアプローチ
• 抽象的な表現空間における欠落情報を予測すること。具体的には、特定のコンテキストブロックが与えられた場合に、
同じ画像内の様々なターゲットブロックの表現を予測する。
• 既存のピクセル/トークン空間での予測による生成的手法と比べ、I-JEPAは抽象的な予測ターゲットを利用する。これ
により、不必要なピクセルレベルの詳細を排除し、モデルがより多くの意味的特徴を学習する可能性を提供している。
• マルチブロックマスキング戦略を提案。情報量の多い(空間的に分布した)コンテキストブロックを用いて、画像中の
十分に大きなターゲットブロックを予測することの重要性を強調している。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
7
アーキテクチャの比較
• 互換性のある信号x、yに対して
は、同様の埋め込みを出力する
よう学習し、一方、互換性のない
入力に対しては異なる埋め込み
を生成するように学習する。
• 互換性のある信号xから、信号yを
直接再構成するように学習する。
• この再構成をより容易にするため、
追加の(潜在的な)変数zを基
にデコーダネットワークを使用する。
• 互換性のある信号xから信号yの埋
め込みを予測するように学習する。
• 予測をより容易にするために、追加
の(潜在的な)変数zを基に予測
ネットワークを使用する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
8
関連研究
• 長年にわたり視覚表現学習は、欠損または破損した感覚入力の値を予測することによって探求されてきた。ノイズ
除去オートエンコーダー、コンテキストエンコーダー、画像の着色をノイズ除去タスクとして扱う手法などがある。
• 最近では、ViTを使用して欠損した入力パッチを再構成するマスクされた画像モデリングの文脈で、画像のノイズ除去
のアイデアが再評価されている。MAEは、エンコーダーが可視画像パッチのみを処理することを必要とする効率的なア
ーキテクチャを提案している。また、BEiTはトークン化された空間で欠損パッチの値を予測する。
• 他の研究では、SimMIMは古典的なHistogram of Gradients特徴空間に基づく再構成目標を探求し、ピクセ
ル空間の再構成よりもいくつかの優位性を示している。
⇒ JEPAは、ダウンストリームタスクでの広範なファインチューニングを必要としない意味的な表現を学習することを目指している。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. 関連研究
9
関連研究
• 結合埋め込みアーキテクチャに基づく手法は、事前学習時に意味的な画像表現を学習するために、手動によるデータ拡
張に依存している。特に、MSNは事前学習時にマスキングを追加的なデータ拡張として使用し、一方iBOTは
data2vecスタイルのパッチレベル再構成損失とview-invariance lossを組み合わせている。
• これらの手法は各入力画像の複数のユーザ生成ビューを処理する必要があるため、スケーラビリティが阻害されるという共
通の問題を抱えている。
⇒ I-JEPAは各画像の単一のビューを処理するだけでよく、I-JEPAで学習したViT-Huge/14は、iBOTで学習したViT-
Small/16よりも計算量が少なくて済む利点がある。
• 本研究に最も近い手法である。共に欠損パッチの表現の予測に焦点を当てた手法である。
• data2vecはオンラインターゲットエンコーダを通じて表現を学び、CAEは再構成損失とアライメント制約の和を最適化して
表現を学ぶ。
⇒これらの手法と比較して、I-JEPAは計算効率の大幅な改善を示し、より意味的な既成表現を学習することができる。
data2vec 、Context Autoencoders(CAE)
DINO、MSN、iBOT
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
10
I-JEPA(Image-based Joint-Embedding Predictive Architecture)
• 与えられたコンテキストブロックを用いて、同一画像内の複数
(デフォルトは4つ)のターゲットブロックの表現を予測する。
• コンテキストエンコーダ、ターゲットエンコーダ、予測器には、
ViTを使用。MAEに類似しているが、I-JEPA法は非生成
的であり、予測は表現空間内で行われる。
• 予測器は、コンテキストエンコーダの出力を受け取り、位置ト
ークン(色で示される)を条件にして、特定の位置のターゲ
ットブロックの表現を予測する。ターゲットの表現はターゲット
エンコーダの出力に対応し、その重みはコンテキストエンコーダ
の重みの指数移動平均によって更新。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
11
JEPA と I-JEPA
JEPA I-JEPA
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
12
Context
• I-JEPAは、(0.85, 1.0)の範囲のランダムなスケールと単位ア
スペクト比を用いて、画像から1つのブロック 𝑥 をサンプリングする。
これにより、コンテキストを得るための初期情報が生成される。
• コンテキストブロックから重複する領域を除去することで、自明で
ない予測タスクが保証される。
• その後、マスクされたコンテキストブロック 𝑥 はコンテキストエンコ
ーダ 𝑓𝜃 により処理され、対応するパッチレベル表現 𝑠𝑥 =
{𝑠𝑥𝑗}𝑗∈𝐵𝑖
が得られる。
𝑥
𝑠𝑦
𝑠𝑥
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
13
Targets
• I-JEPAは、ターゲットを画像ブロックの表現として対応さ
せる。入力画像はN個の非重複パッチのシーケンスに変
換され、それらはターゲット・エンコーダ𝑓ഥ
𝜃によってパッチレ
ベル表現𝑠𝑦に変換される。
• この変換により、各パッチは自身の一意の表現𝑠𝑦𝑘を得る。
• ターゲットの表現𝑠𝑦から 𝑀 個のブロック(重複可能)を
ランダムにサンプリングし、損失のターゲットを確立する。
通常、𝑀は4と設定され、アスペクト比(0.75〜1.5)
とスケール(0.15〜0.2)の範囲でブロックをサンプリン
グする。特徴は、ターゲット・ブロックが入力をマスクするの
ではなく、ターゲット・エンコーダの出力をマスクすることで
生成されること。
𝑦
𝑠𝑦
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
14
コンテキストとターゲット・マスキング戦略の例
• 与えられた画像に対して、特定のスケールとアスペク
ト比の範囲内でターゲットブロックをランダムに4つサン
プリングし、さらに異なるスケール範囲でコンテキストブ
ロックをサンプリングする。
• この戦略により、ターゲットブロックは意味的な情報を
持ち、一方、コンテキストブロックは豊富な情報を提
供し、効率的に処理可能な疎な表現を保証する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 手法
15
Prediction
Loss
• 損失は、予測されたパッチレベル表現 ො
s𝑦 𝑖 とターゲットパッチレベル表現 𝑠𝑦(𝑖) の間の平均L2距離。
• コンテキスト・エンコーダの出力 𝑠𝑥 から𝑀個のターゲット・ブロック表現 𝑠𝑦(1), ... ,
𝑠𝑦(𝑀) を予測する。これは予測器 𝑔Φ(・, ・) を用いて行われ、各パッチのマスク
トークンとコンテキスト・エンコーダ 𝑠𝑥 の出力を入力として、パッチレベルの予測を生
成する。
• マスクトークンは、位置埋め込みが追加された共有学習可能なベクトルによってパラ
メータ化される。これにより、ターゲットブロックの予測は𝑀回行われ、それぞれの予測
は対応するマスク・トークンを条件として行われる。これにより、ターゲットブロックの予
測 Ƹ
𝑠𝑦(1), … , Ƹ
𝑠𝑦(𝑀)が得られる。
• 予測器 ϕ とコンテキストエンコーダ 𝜃 のパラメータは、勾配ベースの最適化によって学習される。
• ターゲットエンコーダ ത
θ のパラメータは、コンテキストエンコーダパラメータの指数移動平均によって更新される。
𝑠𝑦(1) 𝑠𝑦(2)
𝑠𝑦(3)
Ƹ
𝑠𝑦(1)
Ƹ
𝑠𝑦(2)
Ƹ
𝑠𝑦(3)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:画像分類
16
ImageNet を用いた評価
• I-JEPAは、手動でのビューデータの拡張に頼らない他の
手法と比較して、ImageNet-1k(ViT H/16448は
448×448の解像度で事前学習済み)における線形
評価の性能を向上させた。
• また、この手法は優れたスケーラビリティを持つため、より
大規模なI-JEPAモデルはビューデータの拡張を必要とせ
ずに、ビュー不変性のアプローチと性能が一致する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:画像分類
17
ImageNet-1K 1% を用いた評価
• ViT H/14アーキテクチャを用いたI-JEPAは、data2vecで事前
学習されたViT-L/16と同等の性能を示す。その計算量は大幅に
少ない。
• I-JEPAは解像度を上げることで、MSN、DINO、iBOTなど、
事前学習中に手動でデータ拡張を追加する結合埋め込み手法
を上回る結果を示した。
• 利用可能なラベルの1%だけを使用したImageNet-1Kの半教
師あり評価では、I-JEPAの事前学習は手動で作成したデータ拡
張に頼らないMAEを上回る性能を示し、さらにスケールの恩恵を
受ける。
• 具体的には、解像度448で訓練されたViT H/16は、手動による
データ拡張を使用する従来の手法を凌駕した。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:画像分類
18
Linear-probe transfer
• 線形プローブを使用した各種のダウンストリーム画像分類タ
スクでの性能を示す。その結果、I-JEPAはデータ拡張を用
いない従来手法(MAE と data2vec)を大幅に上回
る性能を示した。
• さらに、I-JEPAはデータ拡張を活用する最良のビュー不変
性ベースの手法との差を縮めた。線形プローブを使用する
CIFAR100とPlace205では、DINOを上回る結果を得た。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Local Prediction Task
19
Local Prediction task
• I-JEPAの性能が、低レベルのタスクであるClevrデータセットの
物体カウントと奥行き予測において、ビュー不変性ベースの手
法(DINOやiBOT等)を上回っていることが示されている。
• これはI-JEPAが事前学習中に低レベルの画像特徴を効果的
に捉え、その結果として低レベルで高密度な予測タスクに優れ
た性能を発揮することを確認するものである。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Scalability
20
モデルの効率性
• I-JEPAは以前の手法よりも少ない計算量で、データ拡張に頼
らずに高い性能を達成している。具体的には、再構成に基づく
手法(例:MAE)と比較して、I-JEPAは表現空間でターゲッ
トを計算することにより余分なオーバーヘッドを導入するものの、
約5倍少ない反復で収束し、大幅に計算量を削減できる。
• さらに、データ拡張に依存し、各画像の複数のビューを作成・処
理するビュー不変性に基づく手法(例:iBOT)と比較すると、
I-JEPAは著しく高速に実行される。特に、大きなI-JEPAモデル
(ViT-H/14)は、小さなiBOTモデル(ViT-S/16)よりも少
ない計算量で済む。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Scalability
21
データサイズによるスケーリング
• 事前学習データセットのサイズを増やすと、意味的なタスクと低レベルのタスクの両方で転移学習の性能が向上することが
示されている。これは、より大きく多様なデータセットでの事前学習が、様々なタスクの学習において有益であることを示してい
る。
• IN22Kでのプレトレーニング時に、大きなモデルサイズ(具体的には、ViT-G/16)が有効であることを示している。
• ViT-G/16をプレトレーニングすると、ViT-H/14モデルに比べて画像分類タスク(例えば、Place205やINat18)の下
流性能が大幅に向上する。しかし、この大きなモデルサイズは低レベルのタスクの性能を向上させない。これは、ViT-
G/16がより大きな入力パッチを使用するため、局所的な予測タスクに対しては不利である可能性があるため。
モデルサイズによるスケーリング
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Predictor Visualizations
22
予測器の学習効果を評価
• 予測器がターゲットの位置の不確実性を正確に捉えるかどうかを調査するために、事前学習後に、予測器とコンテキスト・エ
ンコーダの重みを固定し、予測器の出力の平均プーリングをピクセル空間にマップバックするために、RCDM
(Representation Conditional Diffusion Model)フレームワークに基づいてデコーダを訓練する。
• 予測器の出力の視覚化は、予測器が位置の不確実性を正確に捕捉し、高レベルのオブジェクト部分(例えば、鳥の背
中や車の上部)を正確に生成できることを示している。しかし、正確な低レベルの詳細と背景情報を破棄する傾向がある。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Ablations
23
マスキング戦略の比較
• マルチブロックマスキングを、画像を4つの大きな象限に分割し、1つの象限をコンテキストとして他の3つの象限を予測すること
を目的とするラスタライズドマスキングや、再構成ベースの手法で一般的に用いられる従来のブロックマスキングやランダムマスキ
ングなどの他のマスキング戦略と比較。
• ViT-B/16を300エポック学習した後、利用可能なラベルの1%のみを使用したImageNet-1KでのLinear evaluationに
おいて、このマルチブロックマスキング戦略の効果を評価。
ブロックマスキングでは、ターゲットは1つの画像ブロックであり、コンテキストは画像の補集合である。
ランダムマスキングでは、ターゲットはランダムなパッチの集合であり、コンテキストは画像の補集合である。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. 実験:Ablations
24
表現空間での予測
• ImageNet-1Kの1%のデータで行われた線形プローブを使用した評価により、I-JEPAのローショット性能は、損失がピク
セル空間ではなく表現空間で計算されることにより向上することが明らかになった。
• これはターゲットエンコーダが抽象的な予測ターゲットを生成する能力を強化するためと推測される。ピクセル空間での予測
は線形プロービング性能を著しく低下させることが示されており、これは事前学習中のターゲットエンコーダの重要性を強調
している。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. まとめ
25
① I-JEPAは、手動によるデータ拡張を必要とせずに、高性能な表現を学習する。具体的には、ImageNet-1Kの線形プ
ローブ、半教師ありの1% ImageNet-1K、及び意味転移タスクにおいて、ピクセル再構成手法(例:MAE)を上回る
結果を示す。
② I-JEPAは、意味的なタスクにおいてビュー不変の事前学習アプローチと同等、さらには低レベルの視覚タスク(例:オ
ブジェクトのカウントや深度の予測)においても優れたパフォーマンスを達成する。この結果は、より単純で、誘導バイア
スの少ないモデルを用いることで、より幅広いタスクに対応可能であることを示している。
③ I-JEPAはスケーラブルで効率的である。具体的には、ViT-H/14をImageNetで事前学習するのに必要な時間は、
iBOTで事前学習したViT-S/16より2.5倍以上速く、MAEで事前学習したViT-H/14よりも10倍以上効率的である。
予測を表現空間で行うことで、自己教師あり事前学習に必要な総計算量を大幅に削減することができる。
実証内容
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
Appendix
参考文献
[4] Mahmoud Assran, Mathilde Caron, Ishan Misra, Piotr Bojanowski, Florian Bordes, Pascal Vincent, Armand Joulin, Michael
Rabbat, and Nicolas Ballas. Masked siamese networks for label-efficient learning. European Conference on Computer Vision,
2022.
[7] Alexei Baevski, Arun Babu, Wei-Ning Hsu, and Michael Auli. Efficient self-supervised learning with contextualized target
representations for vision, speech and language. arXiv preprint arXiv:2212.07525, 2022.
[8] Alexei Baevski,Wei-Ning Hsu, Qiantong Xu, Arun Babu, Jiatao Gu, and Michael Auli. Data2vec: A general framework for
self-supervised learning in speech, vision and language. arXiv preprint arXiv:2202.03555, 2022
[17] Mathilde Caron, Ishan Misra, Julien Mairal, Priya Goyal, Piotr Bojanowski, and Armand Joulin. Unsupervised learning of
visual features by contrasting cluster assignments. arXiv preprint arXiv:2006.09882, 2020.
[36] Kaiming He, Xinlei Chen, Saining Xie, Yanghao Li, Piotr Doll´ar, and Ross Girshick. Masked autoencoders are scalable
vision learners. IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022.
[49] Yann LeCun, Sumit Chopra, Raia Hadsell, M Ranzato, and Fujie Huang. A tutorial on energy-based learning. Predicting
structured data, 1(0), 2006.
[79] Jinghao Zhou, Chen Wei, Huiyu Wang, Wei Shen, Cihang Xie, Alan Yuille, and Tao Kong. Ibot: Image bert pretraining
with online tokenizer. International Conference on Learning Representations, 2022.
26

More Related Content

What's hot

What's hot (20)

[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
 
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning【DL輪読会】Scaling laws for single-agent reinforcement learning
【DL輪読会】Scaling laws for single-agent reinforcement learning
 
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models【DL輪読会】Mastering Diverse Domains through World Models
【DL輪読会】Mastering Diverse Domains through World Models
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 

Similar to 【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

暗号化ベクトルデータベースのための索引構造
暗号化ベクトルデータベースのための索引構造暗号化ベクトルデータベースのための索引構造
暗号化ベクトルデータベースのための索引構造
Junpei Kawamoto
 

Similar to 【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture (6)

[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
【DL輪読会】ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
 
暗号化ベクトルデータベースのための索引構造
暗号化ベクトルデータベースのための索引構造暗号化ベクトルデータベースのための索引構造
暗号化ベクトルデータベースのための索引構造
 
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
CVPR2016読み会 "Inside-Outside Net: Detecting Objects in Context with Skip Pooli...
 
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
 
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
 

More from Deep Learning JP

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
 

Recently uploaded

Recently uploaded (10)

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 

【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture

  • 1. http://deeplearning.jp/ Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture 小林 範久 Present Square Co.,Ltd. DEEP LEARNING JP [DL Papers] 1
  • 2. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 書誌情報 Self-Supervised Learning from Images with a Joint-Embedding Predictive Architecture https://arxiv.org/abs/2301.08243 タイトル: 著者: Mahmoud Assran, Quentin Duval, Ishan Misra, Piotr Bojanowski, Pascal Vincent, Michael Rabbat, Yann LeCun, Nicolas Ballas • 画像からの自己教師あり学習のための非生成的アプローチであるI-JEPAを提案。 • I-JEPAは、一つのコンテキストブロックから、同じ画像内の様々なターゲットブロックの表現を予測する。 • (a)十分に大きなスケールでターゲットブロックをサンプリングし、(b)十分に情報量の多い(空間的に分散し た)コンテキストブロックを使用することが重要。 • スケール性があり、線形分類からオブジェクトカウント、深度予測までの幅広いタスクで高い精度を達成。 概要: 2
  • 3. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 書誌情報 3 JEPAを画像分野に適用 出典:A Path Towards Autonomous Machine Intelligence, Yann LeCun
  • 4. Copyright (C) Present Square Co., Ltd. All Rights Reserved. アジェンダ 4 1. イントロダクション 2. 関連研究 3. 手法 4. 実験 5. 結論
  • 5. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. イントロダクション 5 • 自己教師あり学習には一般的に2つのアプローチが存在する:不変性ベースと生成的な方法。 イントロダクション 不変性ベースの方法(invariance-based methods) 生成的な手法(generative methods) • 画像の同一性を維持することを目指し、一方生成的な方法はマスクされた部分を予測することにより学習を進める。高 い意味レベルの表現を生成できるが、異なるタスクや異なるモダリティ(例えば音声)への一般化が困難である。 • 特にマスクノイズアプローチと呼ばれるもので、ピクセルレベルまたはトークンレベルでの予測を行う。この手法は、画像モダリ ティを超えて容易に一般化できるが、得られる表現の意味レベルが低いという課題がある。 これらの手法の利点を最大限に活用するためには、より複雑な適応メカニズム(例えばエンドツーエンドの微調整)が必要と なり、そのためにはさらなる研究と技術開発が求められる。
  • 6. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. イントロダクション 6 • 本研究では、画像変換によるエンコードの過度な事前知識を避け、自己教師あり学習での表現の意味レベルを向上 させる方法を提案。その具体的な手法として「共同埋め込み予測アーキテクチャ(I-JEPA)」を提案。 イントロダクション I-JEPAの基本的なアプローチ • 抽象的な表現空間における欠落情報を予測すること。具体的には、特定のコンテキストブロックが与えられた場合に、 同じ画像内の様々なターゲットブロックの表現を予測する。 • 既存のピクセル/トークン空間での予測による生成的手法と比べ、I-JEPAは抽象的な予測ターゲットを利用する。これ により、不必要なピクセルレベルの詳細を排除し、モデルがより多くの意味的特徴を学習する可能性を提供している。 • マルチブロックマスキング戦略を提案。情報量の多い(空間的に分布した)コンテキストブロックを用いて、画像中の 十分に大きなターゲットブロックを予測することの重要性を強調している。
  • 7. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 7 アーキテクチャの比較 • 互換性のある信号x、yに対して は、同様の埋め込みを出力する よう学習し、一方、互換性のない 入力に対しては異なる埋め込み を生成するように学習する。 • 互換性のある信号xから、信号yを 直接再構成するように学習する。 • この再構成をより容易にするため、 追加の(潜在的な)変数zを基 にデコーダネットワークを使用する。 • 互換性のある信号xから信号yの埋 め込みを予測するように学習する。 • 予測をより容易にするために、追加 の(潜在的な)変数zを基に予測 ネットワークを使用する。
  • 8. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 8 関連研究 • 長年にわたり視覚表現学習は、欠損または破損した感覚入力の値を予測することによって探求されてきた。ノイズ 除去オートエンコーダー、コンテキストエンコーダー、画像の着色をノイズ除去タスクとして扱う手法などがある。 • 最近では、ViTを使用して欠損した入力パッチを再構成するマスクされた画像モデリングの文脈で、画像のノイズ除去 のアイデアが再評価されている。MAEは、エンコーダーが可視画像パッチのみを処理することを必要とする効率的なア ーキテクチャを提案している。また、BEiTはトークン化された空間で欠損パッチの値を予測する。 • 他の研究では、SimMIMは古典的なHistogram of Gradients特徴空間に基づく再構成目標を探求し、ピクセ ル空間の再構成よりもいくつかの優位性を示している。 ⇒ JEPAは、ダウンストリームタスクでの広範なファインチューニングを必要としない意味的な表現を学習することを目指している。
  • 9. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. 関連研究 9 関連研究 • 結合埋め込みアーキテクチャに基づく手法は、事前学習時に意味的な画像表現を学習するために、手動によるデータ拡 張に依存している。特に、MSNは事前学習時にマスキングを追加的なデータ拡張として使用し、一方iBOTは data2vecスタイルのパッチレベル再構成損失とview-invariance lossを組み合わせている。 • これらの手法は各入力画像の複数のユーザ生成ビューを処理する必要があるため、スケーラビリティが阻害されるという共 通の問題を抱えている。 ⇒ I-JEPAは各画像の単一のビューを処理するだけでよく、I-JEPAで学習したViT-Huge/14は、iBOTで学習したViT- Small/16よりも計算量が少なくて済む利点がある。 • 本研究に最も近い手法である。共に欠損パッチの表現の予測に焦点を当てた手法である。 • data2vecはオンラインターゲットエンコーダを通じて表現を学び、CAEは再構成損失とアライメント制約の和を最適化して 表現を学ぶ。 ⇒これらの手法と比較して、I-JEPAは計算効率の大幅な改善を示し、より意味的な既成表現を学習することができる。 data2vec 、Context Autoencoders(CAE) DINO、MSN、iBOT
  • 10. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 10 I-JEPA(Image-based Joint-Embedding Predictive Architecture) • 与えられたコンテキストブロックを用いて、同一画像内の複数 (デフォルトは4つ)のターゲットブロックの表現を予測する。 • コンテキストエンコーダ、ターゲットエンコーダ、予測器には、 ViTを使用。MAEに類似しているが、I-JEPA法は非生成 的であり、予測は表現空間内で行われる。 • 予測器は、コンテキストエンコーダの出力を受け取り、位置ト ークン(色で示される)を条件にして、特定の位置のターゲ ットブロックの表現を予測する。ターゲットの表現はターゲット エンコーダの出力に対応し、その重みはコンテキストエンコーダ の重みの指数移動平均によって更新。
  • 11. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 11 JEPA と I-JEPA JEPA I-JEPA
  • 12. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 12 Context • I-JEPAは、(0.85, 1.0)の範囲のランダムなスケールと単位ア スペクト比を用いて、画像から1つのブロック 𝑥 をサンプリングする。 これにより、コンテキストを得るための初期情報が生成される。 • コンテキストブロックから重複する領域を除去することで、自明で ない予測タスクが保証される。 • その後、マスクされたコンテキストブロック 𝑥 はコンテキストエンコ ーダ 𝑓𝜃 により処理され、対応するパッチレベル表現 𝑠𝑥 = {𝑠𝑥𝑗}𝑗∈𝐵𝑖 が得られる。 𝑥 𝑠𝑦 𝑠𝑥
  • 13. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 13 Targets • I-JEPAは、ターゲットを画像ブロックの表現として対応さ せる。入力画像はN個の非重複パッチのシーケンスに変 換され、それらはターゲット・エンコーダ𝑓ഥ 𝜃によってパッチレ ベル表現𝑠𝑦に変換される。 • この変換により、各パッチは自身の一意の表現𝑠𝑦𝑘を得る。 • ターゲットの表現𝑠𝑦から 𝑀 個のブロック(重複可能)を ランダムにサンプリングし、損失のターゲットを確立する。 通常、𝑀は4と設定され、アスペクト比(0.75〜1.5) とスケール(0.15〜0.2)の範囲でブロックをサンプリン グする。特徴は、ターゲット・ブロックが入力をマスクするの ではなく、ターゲット・エンコーダの出力をマスクすることで 生成されること。 𝑦 𝑠𝑦
  • 14. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 14 コンテキストとターゲット・マスキング戦略の例 • 与えられた画像に対して、特定のスケールとアスペク ト比の範囲内でターゲットブロックをランダムに4つサン プリングし、さらに異なるスケール範囲でコンテキストブ ロックをサンプリングする。 • この戦略により、ターゲットブロックは意味的な情報を 持ち、一方、コンテキストブロックは豊富な情報を提 供し、効率的に処理可能な疎な表現を保証する。
  • 15. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 手法 15 Prediction Loss • 損失は、予測されたパッチレベル表現 ො s𝑦 𝑖 とターゲットパッチレベル表現 𝑠𝑦(𝑖) の間の平均L2距離。 • コンテキスト・エンコーダの出力 𝑠𝑥 から𝑀個のターゲット・ブロック表現 𝑠𝑦(1), ... , 𝑠𝑦(𝑀) を予測する。これは予測器 𝑔Φ(・, ・) を用いて行われ、各パッチのマスク トークンとコンテキスト・エンコーダ 𝑠𝑥 の出力を入力として、パッチレベルの予測を生 成する。 • マスクトークンは、位置埋め込みが追加された共有学習可能なベクトルによってパラ メータ化される。これにより、ターゲットブロックの予測は𝑀回行われ、それぞれの予測 は対応するマスク・トークンを条件として行われる。これにより、ターゲットブロックの予 測 Ƹ 𝑠𝑦(1), … , Ƹ 𝑠𝑦(𝑀)が得られる。 • 予測器 ϕ とコンテキストエンコーダ 𝜃 のパラメータは、勾配ベースの最適化によって学習される。 • ターゲットエンコーダ ത θ のパラメータは、コンテキストエンコーダパラメータの指数移動平均によって更新される。 𝑠𝑦(1) 𝑠𝑦(2) 𝑠𝑦(3) Ƹ 𝑠𝑦(1) Ƹ 𝑠𝑦(2) Ƹ 𝑠𝑦(3)
  • 16. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:画像分類 16 ImageNet を用いた評価 • I-JEPAは、手動でのビューデータの拡張に頼らない他の 手法と比較して、ImageNet-1k(ViT H/16448は 448×448の解像度で事前学習済み)における線形 評価の性能を向上させた。 • また、この手法は優れたスケーラビリティを持つため、より 大規模なI-JEPAモデルはビューデータの拡張を必要とせ ずに、ビュー不変性のアプローチと性能が一致する。
  • 17. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:画像分類 17 ImageNet-1K 1% を用いた評価 • ViT H/14アーキテクチャを用いたI-JEPAは、data2vecで事前 学習されたViT-L/16と同等の性能を示す。その計算量は大幅に 少ない。 • I-JEPAは解像度を上げることで、MSN、DINO、iBOTなど、 事前学習中に手動でデータ拡張を追加する結合埋め込み手法 を上回る結果を示した。 • 利用可能なラベルの1%だけを使用したImageNet-1Kの半教 師あり評価では、I-JEPAの事前学習は手動で作成したデータ拡 張に頼らないMAEを上回る性能を示し、さらにスケールの恩恵を 受ける。 • 具体的には、解像度448で訓練されたViT H/16は、手動による データ拡張を使用する従来の手法を凌駕した。
  • 18. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:画像分類 18 Linear-probe transfer • 線形プローブを使用した各種のダウンストリーム画像分類タ スクでの性能を示す。その結果、I-JEPAはデータ拡張を用 いない従来手法(MAE と data2vec)を大幅に上回 る性能を示した。 • さらに、I-JEPAはデータ拡張を活用する最良のビュー不変 性ベースの手法との差を縮めた。線形プローブを使用する CIFAR100とPlace205では、DINOを上回る結果を得た。
  • 19. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Local Prediction Task 19 Local Prediction task • I-JEPAの性能が、低レベルのタスクであるClevrデータセットの 物体カウントと奥行き予測において、ビュー不変性ベースの手 法(DINOやiBOT等)を上回っていることが示されている。 • これはI-JEPAが事前学習中に低レベルの画像特徴を効果的 に捉え、その結果として低レベルで高密度な予測タスクに優れ た性能を発揮することを確認するものである。
  • 20. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Scalability 20 モデルの効率性 • I-JEPAは以前の手法よりも少ない計算量で、データ拡張に頼 らずに高い性能を達成している。具体的には、再構成に基づく 手法(例:MAE)と比較して、I-JEPAは表現空間でターゲッ トを計算することにより余分なオーバーヘッドを導入するものの、 約5倍少ない反復で収束し、大幅に計算量を削減できる。 • さらに、データ拡張に依存し、各画像の複数のビューを作成・処 理するビュー不変性に基づく手法(例:iBOT)と比較すると、 I-JEPAは著しく高速に実行される。特に、大きなI-JEPAモデル (ViT-H/14)は、小さなiBOTモデル(ViT-S/16)よりも少 ない計算量で済む。
  • 21. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Scalability 21 データサイズによるスケーリング • 事前学習データセットのサイズを増やすと、意味的なタスクと低レベルのタスクの両方で転移学習の性能が向上することが 示されている。これは、より大きく多様なデータセットでの事前学習が、様々なタスクの学習において有益であることを示してい る。 • IN22Kでのプレトレーニング時に、大きなモデルサイズ(具体的には、ViT-G/16)が有効であることを示している。 • ViT-G/16をプレトレーニングすると、ViT-H/14モデルに比べて画像分類タスク(例えば、Place205やINat18)の下 流性能が大幅に向上する。しかし、この大きなモデルサイズは低レベルのタスクの性能を向上させない。これは、ViT- G/16がより大きな入力パッチを使用するため、局所的な予測タスクに対しては不利である可能性があるため。 モデルサイズによるスケーリング
  • 22. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Predictor Visualizations 22 予測器の学習効果を評価 • 予測器がターゲットの位置の不確実性を正確に捉えるかどうかを調査するために、事前学習後に、予測器とコンテキスト・エ ンコーダの重みを固定し、予測器の出力の平均プーリングをピクセル空間にマップバックするために、RCDM (Representation Conditional Diffusion Model)フレームワークに基づいてデコーダを訓練する。 • 予測器の出力の視覚化は、予測器が位置の不確実性を正確に捕捉し、高レベルのオブジェクト部分(例えば、鳥の背 中や車の上部)を正確に生成できることを示している。しかし、正確な低レベルの詳細と背景情報を破棄する傾向がある。
  • 23. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Ablations 23 マスキング戦略の比較 • マルチブロックマスキングを、画像を4つの大きな象限に分割し、1つの象限をコンテキストとして他の3つの象限を予測すること を目的とするラスタライズドマスキングや、再構成ベースの手法で一般的に用いられる従来のブロックマスキングやランダムマスキ ングなどの他のマスキング戦略と比較。 • ViT-B/16を300エポック学習した後、利用可能なラベルの1%のみを使用したImageNet-1KでのLinear evaluationに おいて、このマルチブロックマスキング戦略の効果を評価。 ブロックマスキングでは、ターゲットは1つの画像ブロックであり、コンテキストは画像の補集合である。 ランダムマスキングでは、ターゲットはランダムなパッチの集合であり、コンテキストは画像の補集合である。
  • 24. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. 実験:Ablations 24 表現空間での予測 • ImageNet-1Kの1%のデータで行われた線形プローブを使用した評価により、I-JEPAのローショット性能は、損失がピク セル空間ではなく表現空間で計算されることにより向上することが明らかになった。 • これはターゲットエンコーダが抽象的な予測ターゲットを生成する能力を強化するためと推測される。ピクセル空間での予測 は線形プロービング性能を著しく低下させることが示されており、これは事前学習中のターゲットエンコーダの重要性を強調 している。
  • 25. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. まとめ 25 ① I-JEPAは、手動によるデータ拡張を必要とせずに、高性能な表現を学習する。具体的には、ImageNet-1Kの線形プ ローブ、半教師ありの1% ImageNet-1K、及び意味転移タスクにおいて、ピクセル再構成手法(例:MAE)を上回る 結果を示す。 ② I-JEPAは、意味的なタスクにおいてビュー不変の事前学習アプローチと同等、さらには低レベルの視覚タスク(例:オ ブジェクトのカウントや深度の予測)においても優れたパフォーマンスを達成する。この結果は、より単純で、誘導バイア スの少ないモデルを用いることで、より幅広いタスクに対応可能であることを示している。 ③ I-JEPAはスケーラブルで効率的である。具体的には、ViT-H/14をImageNetで事前学習するのに必要な時間は、 iBOTで事前学習したViT-S/16より2.5倍以上速く、MAEで事前学習したViT-H/14よりも10倍以上効率的である。 予測を表現空間で行うことで、自己教師あり事前学習に必要な総計算量を大幅に削減することができる。 実証内容
  • 26. Copyright (C) Present Square Co., Ltd. All Rights Reserved. Appendix 参考文献 [4] Mahmoud Assran, Mathilde Caron, Ishan Misra, Piotr Bojanowski, Florian Bordes, Pascal Vincent, Armand Joulin, Michael Rabbat, and Nicolas Ballas. Masked siamese networks for label-efficient learning. European Conference on Computer Vision, 2022. [7] Alexei Baevski, Arun Babu, Wei-Ning Hsu, and Michael Auli. Efficient self-supervised learning with contextualized target representations for vision, speech and language. arXiv preprint arXiv:2212.07525, 2022. [8] Alexei Baevski,Wei-Ning Hsu, Qiantong Xu, Arun Babu, Jiatao Gu, and Michael Auli. Data2vec: A general framework for self-supervised learning in speech, vision and language. arXiv preprint arXiv:2202.03555, 2022 [17] Mathilde Caron, Ishan Misra, Julien Mairal, Priya Goyal, Piotr Bojanowski, and Armand Joulin. Unsupervised learning of visual features by contrasting cluster assignments. arXiv preprint arXiv:2006.09882, 2020. [36] Kaiming He, Xinlei Chen, Saining Xie, Yanghao Li, Piotr Doll´ar, and Ross Girshick. Masked autoencoders are scalable vision learners. IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022. [49] Yann LeCun, Sumit Chopra, Raia Hadsell, M Ranzato, and Fujie Huang. A tutorial on energy-based learning. Predicting structured data, 1(0), 2006. [79] Jinghao Zhou, Chen Wei, Huiyu Wang, Wei Shen, Cihang Xie, Alan Yuille, and Tao Kong. Ibot: Image bert pretraining with online tokenizer. International Conference on Learning Representations, 2022. 26