Home
Explore
Submit Search
Upload
Login
Signup
Advertisement
Check these out next
【DL輪読会】Reward Design with Language Models
Deep Learning JP
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
Deep Learning JP
【DL輪読会】One-Shot Domain Adaptive and Generalizable Semantic Segmentation with ...
Deep Learning JP
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
【DL輪読会】Segment Anything
Deep Learning JP
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
1
of
15
Top clipped slide
【DL輪読会】RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
Jan. 6, 2023
•
0 likes
0 likes
×
Be the first to like this
Show More
•
280 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Download Now
Download to read offline
Report
Technology
2023/1/6 Deep Learning JP http://deeplearning.jp/seminar-2/
Deep Learning JP
Follow
Deep Learning JP
Advertisement
Advertisement
Advertisement
Recommended
【DL輪読会】大量API・ツールの扱いに特化したLLM
Deep Learning JP
126 views
•
19 slides
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
74 views
•
15 slides
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
Deep Learning JP
132 views
•
18 slides
【DL輪読会】Egocentric Video Task Translation (CVPR 2023 Highlight)
Deep Learning JP
80 views
•
36 slides
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
787 views
•
16 slides
【DL輪読会】Visual Classification via Description from Large Language Models (ICLR...
Deep Learning JP
1.4K views
•
16 slides
More Related Content
More from Deep Learning JP
(20)
【DL輪読会】Reward Design with Language Models
Deep Learning JP
•
623 views
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
Deep Learning JP
•
289 views
【DL輪読会】One-Shot Domain Adaptive and Generalizable Semantic Segmentation with ...
Deep Learning JP
•
224 views
【DL輪読会】DiffRF: Rendering-guided 3D Radiance Field Diffusion [N. Muller+ CVPR2...
Deep Learning JP
•
380 views
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
Deep Learning JP
•
863 views
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
1.1K views
【DL輪読会】Segment Anything
Deep Learning JP
•
1.9K views
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
Deep Learning JP
•
250 views
【DL輪読会】Decoupling Human and Camera Motion from Videos in the Wild (CVPR2023)
Deep Learning JP
•
425 views
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
•
248 views
【DL輪読会】Bridge-Prompt: Toward Ordinal Action Understanding in Instructional Vi...
Deep Learning JP
•
325 views
【DL輪読会】SDEdit: Guided Image Synthesis and Editing with Stochastic Differentia...
Deep Learning JP
•
342 views
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
Deep Learning JP
•
467 views
【DL輪読会】Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Mo...
Deep Learning JP
•
623 views
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
•
1.2K views
【DL輪読会】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Dri...
Deep Learning JP
•
760 views
【DL輪読会】HyperTree Proof Search for Neural Theorem Proving
Deep Learning JP
•
294 views
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
•
409 views
【DL輪読会】HexPlaneとK-Planes
Deep Learning JP
•
1.1K views
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
•
282 views
Recently uploaded
(20)
開発環境向けEKSのコスト最適
ducphan87
•
0 views
触感に関わる共感覚的表現と基本6感情の対応関係の検証
Matsushita Laboratory
•
22 views
SoftwareControl.pdf
ssusercd9928
•
15 views
ヘッドレス化したbaserCMS5とその機能
Ryuji Egashira
•
10 views
Wandb LLM Webinar May 30 2023 (配布用).pdf
Yuya Yamamoto
•
65 views
点群SegmentationのためのTransformerサーベイ
Takuya Minagawa
•
13 views
MC-800DMT intrusion detector manual
Vedard Security Alarm System Store
•
3 views
統計学の攻略_推測統計学の考え方.pdf
akipii Oga
•
264 views
コードレビュー改善のためにJenkinsとIntelliJ IDEAのプラグインを自作してみた話
Rakuten Group, Inc.
•
35 views
モバイル・クラウド・コンピューティング-データを如何に格納し、組み合わせ、情報として引き出すか
Masahiko Funaki
•
2 views
Voyager: An Open-Ended Embodied Agent with Large Language Models
harmonylab
•
16 views
通信プロトコルについて
iPride Co., Ltd.
•
7 views
Windows ChatGPT Bing AI.pptx
Atomu Hidaka
•
7 views
社内ソフトスキルを考える
infinite_loop
•
90 views
ペンタエリスリトール市場.pdf
HinaMiyazu
•
3 views
量子論.pdf
hiro150493
•
9 views
GitHub と Azure でアプリケーションとインフラストラクチャの守りを固めるDevSecOps
Kazumi IWANAGA
•
6 views
初学者のためのプロンプトエンジニアリング実践.pptx
Akifumi Niida
•
478 views
Kubernetes超入門
Takashi Suzuki
•
5 views
DrupalをDockerで起動してみる
iPride Co., Ltd.
•
22 views
Advertisement
【DL輪読会】RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
1 Atsuya Kitada, Matsuo
Lab, M1 RSA: Reducing Semantic Shift from Aggressive Augmentations for Self-supervised Learning (NeurIPS 2022)
2 書誌情報 RSA: Reducing Semantic
Shift from Aggressive Augmentations for Self- supervised Learning • NeurIPS 2022 • 著者:Yingbin Bai, Erkun Yang, Zhaoqing Wang, Yuxuan Du, Bo Han, Cheng Deng, Dadong Wang, Tongliang Liu,
3 概要 背景 • 自己教師あり学習ではデータ拡張を強くかけすぎるとデータの意味合いが変化してしまう • DNNでは、学習序盤にcleanなサンプルを記憶し、終盤にnoisyなデータに対して過学習す る、”記憶効果”と呼ばれる現象が知られている。 提案手法 •
強弱によってデータ拡張を2段階に分割 • 強弱の異なるデータ拡張による特徴表現間のバランスを取るハイパラβを導入し、序盤は 強いデータ拡張、終盤は弱いデータ拡張の影響を強める。 有効性 • 多段階のデータ拡張、ハイパラβの両方が後続タスク(線形分類)の精度向上に寄与 • データセットのサイズに関わらず、RSAでの表現学習により後続タスク(線形分類)の精 度向上 • バックボーンの事前学習にRSAを導入し、物体検出やセグメンテーションタスクに転移さ せ、ファインチューニングさせると、性能が向上
4 前提知識 自己教師あり学習で鍵となるデータ拡張 自己教師あり学習 • 一般的な手法である教師あり学習では教師ラベルの作成に多大な労力がかかる一方、教師ラベルなしで普 遍的な表現を学習する手法として近年注目を浴びている。 • 特に対照学習(Contrastive
Learning)と呼ばれる、データ拡張方法の異なるペア画像を対比する手法に よって獲得された表現は後続タスクでの精度が高い。 データ拡張による表現の向上 • データ拡張によって対比する学習画像ペアを多様にすることが表現向上の鍵。 例) SimCLR
5 背景 課題: 強いデータ拡張は画像を大きく歪めるため、元画像と意味合いが変わってしまう 上段は元画像、下段は元画像に対して強いデータ拡張かけて生じたNoisyなサンプル • 強いデータ拡張によって生成されるサンプルの大多数は表現学習に有益である。 •
一方、強いデータ拡張によって意味的な変化を起こしてしまうサンプルが少数発生し、学習に有害である。
6 背景 記憶効果: DNNは学習序盤にcleanなサンプルを記憶、その後noisyなデータを過学習する 学習初期 学習終盤 •
意味的変化が生じるnoisyなデータに対して 過学習する。 • 意味合いを保ったcleanなデータをまず記憶 する。
7 提案手法 学習序盤は強いデータ拡張の利点を活かし、終盤は意味的変化の影響を抑える 学習初期 学習終盤 • 意味的変化が生じるnoisyなデータに対して 過学習する。 →
noisyデータの影響が大きいため、過学習に よる悪影響を抑える。 • 意味合いを保ったcleanなデータをまず記憶 する。 → noisyデータの影響が少ないため、強いデー タ拡張による利点をそのまま活かす。
8 提案手法 強弱に応じた多段階データ拡張を導入、強弱の異なるデータ拡張による特徴表現間のバランスを取る 工夫1 強弱に応じた 多段階データ拡張 工夫2 wとaのバランスを取るハイパラの導入 ※ Jean-Bastien Grill,
Florian Strub, Florent Altché, Corentin Tallec, Pierre H. Richemond, Elena Buchatskaya, Carl Doersch, Bernardo Ávila Pires, Zhaohan Guo, Mohammad Gheshlaghi Azar, Bilal Piot, Koray Kavukcuoglu, Rémi Munos, and Michal Valko. Bootstrap your own latent - A new approach to selfsupervised learning. In NeurIPS, pages 21271– 21284, 2020. ※ 基本的な構造はBYOLと同じ
提案手法 工夫1: 強弱によってデータ拡張の過程を2段階に分割 画像xに対して異なるデータ拡張t, t’をかけることで 得られる画像ペアの特徴表現を近づけるように学習 BYOL データ拡張t,
t’それぞれを、弱いデータ拡張tw, tw’、強いデータ拡張ta, ta’ という2つの過程に分割。 通常の対照学習 提案手法 RSA … 9
• 強いデータ拡張による表現と弱いデータ拡張による表現の2つから 計算される損失項の大きさを調整するパラメータβを導入 • 強いデータ拡張と弱いデータ拡張の重みのバランスを調整する •
βを学習エポックkに応じて減衰させ、終盤のnoisyデータの過学習 による悪影響を抑える。 10 提案手法 工夫2: データ拡張の強弱が違う2つの特徴表現間のバランスを取るハイパラβの導入 ※ BYOLと同様 ※
11 提案手法 全体のアルゴリズム
12 実験 実験1: 多段階のデータ拡張とハイパラβが共に線形分類精度の向上に寄与 • 設定 •
特徴表現の線形分類性能によって精度評価。 • データセットとしてImageNet-100を使用。 • ベースライン手法としてBYOLを採用。 • 提案手法については、①多段階データ拡張を使用しハイパラβを固定した場合、②ハイパラβ を学習エポックに応じて減衰させた場合の2種類を用意し、多段階データ拡張、ハイパラβそれ ぞれの影響を測定。 • 結果:多段階データ拡張とハイパラβの両方が精度向上に寄与。
13 実験結果 実験2: 小中規模データセットに対して提案手法が有効 • 設定 •
特徴表現の線形分類性能によって精度評価。 • 小中規模なデータセットとして、CIFAR10, CIFAR100, STL-10, Tiny ImageNetを使用。 • 比較対象手法としてSimCLR, MoCo, SimSiam, BYOLを採用。 • 学習エポック数を200と800の2パターン用意 • 結果:学習エポック数によらず、いずれの既存手法よりも線形分類精度が高い。
14 実験結果 実験3: 大規模データセットに対しても提案手法が有効 • 設定 •
特徴表現の線形分類性能によって精度評価。 • 大規模なデータセットとして、ImageNet-100, ImageNet-1Kを使用。 • 比較対象手法としてSimCLR, MoCo, SimSiam, BYOLを採用。 • 学習エポック数を200と800の2パターン用意 • 結果:いずれの既存手法よりも線形分類精度が高い。 ImageNet-100 ImageNet-1K
15 実験結果 実験3: 転移性能による評価 • 設定 •
提案手法RSAを用いてImageNet-1Kで200エポック事前学習したモデルを、MS COCO データセットの物体検出/セグメンテーションタスクでファインチューニング。 • 結果:物体検出、セグメンテーションどちらについても、既存手法より高精度。
Advertisement