Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Takahiro Kubo
8,717 views
モデルではなく、データセットを蒸留する
Dataset Distillationの解説
Data & Analytics
◦
Read more
15
Save
Share
Embed
Embed presentation
Download
Downloaded 41 times
1
/ 16
2
/ 16
3
/ 16
4
/ 16
5
/ 16
6
/ 16
7
/ 16
Most read
8
/ 16
9
/ 16
10
/ 16
Most read
11
/ 16
12
/ 16
13
/ 16
14
/ 16
15
/ 16
16
/ 16
Most read
More Related Content
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PDF
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
PDF
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
PPTX
マルチモーダル深層学習の研究動向
by
Koichiro Mori
PDF
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
by
Deep Learning JP
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
機械学習モデルの判断根拠の説明(Ver.2)
by
Satoshi Hara
【メタサーベイ】数式ドリブン教師あり学習
by
cvpaper. challenge
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
by
Deep Learning JP
マルチモーダル深層学習の研究動向
by
Koichiro Mori
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
by
Deep Learning JP
【DL輪読会】時系列予測 Transfomers の精度向上手法
by
Deep Learning JP
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
by
Deep Learning JP
What's hot
PPTX
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
by
Deep Learning JP
PDF
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
PDF
“機械学習の説明”の信頼性
by
Satoshi Hara
PDF
【メタサーベイ】Video Transformer
by
cvpaper. challenge
PDF
データに内在する構造をみるための埋め込み手法
by
Tatsuya Shirakawa
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PPTX
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
by
Deep Learning JP
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PPTX
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
by
Deep Learning JP
PPTX
画像キャプションの自動生成
by
Yoshitaka Ushiku
PDF
Transformerを多層にする際の勾配消失問題と解決法について
by
Sho Takase
PDF
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
PPTX
[DL輪読会]Focal Loss for Dense Object Detection
by
Deep Learning JP
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
by
SSII
PDF
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
by
ARISE analytics
PDF
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
by
Deep Learning JP
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
PDF
最適輸送の解き方
by
joisino
PPTX
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
by
Deep Learning JP
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
“機械学習の説明”の信頼性
by
Satoshi Hara
【メタサーベイ】Video Transformer
by
cvpaper. challenge
データに内在する構造をみるための埋め込み手法
by
Tatsuya Shirakawa
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
by
Deep Learning JP
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
by
Deep Learning JP
画像キャプションの自動生成
by
Yoshitaka Ushiku
Transformerを多層にする際の勾配消失問題と解決法について
by
Sho Takase
自己教師学習(Self-Supervised Learning)
by
cvpaper. challenge
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
[DL輪読会]Focal Loss for Dense Object Detection
by
Deep Learning JP
SSII2022 [OS3-02] Federated Learningの基礎と応用
by
SSII
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
by
ARISE analytics
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
by
Deep Learning JP
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
by
Deep Learning JP
最適輸送の解き方
by
joisino
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
More from Takahiro Kubo
PDF
自然言語処理による企業の気候変動対策分析
by
Takahiro Kubo
PDF
国際会計基準(IFRS)適用企業の財務評価方法
by
Takahiro Kubo
PDF
自然言語処理で新型コロナウィルスに立ち向かう
by
Takahiro Kubo
PDF
財務・非財務一体型の企業分析に向けて
by
Takahiro Kubo
PDF
自然言語処理で読み解く金融文書
by
Takahiro Kubo
PDF
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
by
Takahiro Kubo
PPTX
ESG評価を支える自然言語処理基盤の構築
by
Takahiro Kubo
PDF
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
by
Takahiro Kubo
PDF
Reinforcement Learning Inside Business
by
Takahiro Kubo
PDF
あるべきESG投資の評価に向けた、自然言語処理の活用
by
Takahiro Kubo
PDF
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
by
Takahiro Kubo
PDF
Curiosity may drives your output routine.
by
Takahiro Kubo
PDF
EMNLP2018 Overview
by
Takahiro Kubo
PPTX
2018年12月4日までに『呪術廻戦』を読む理由
by
Takahiro Kubo
PDF
Graph Attention Network
by
Takahiro Kubo
PDF
ACL2018の歩き方
by
Takahiro Kubo
PDF
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
PDF
TISにおける、研究開発の方針とメソッド 2018
by
Takahiro Kubo
PDF
感情の出どころを探る、一歩進んだ感情解析
by
Takahiro Kubo
PDF
機械学習の力を引き出すための依存性管理
by
Takahiro Kubo
自然言語処理による企業の気候変動対策分析
by
Takahiro Kubo
国際会計基準(IFRS)適用企業の財務評価方法
by
Takahiro Kubo
自然言語処理で新型コロナウィルスに立ち向かう
by
Takahiro Kubo
財務・非財務一体型の企業分析に向けて
by
Takahiro Kubo
自然言語処理で読み解く金融文書
by
Takahiro Kubo
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
by
Takahiro Kubo
ESG評価を支える自然言語処理基盤の構築
by
Takahiro Kubo
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
by
Takahiro Kubo
Reinforcement Learning Inside Business
by
Takahiro Kubo
あるべきESG投資の評価に向けた、自然言語処理の活用
by
Takahiro Kubo
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
by
Takahiro Kubo
Curiosity may drives your output routine.
by
Takahiro Kubo
EMNLP2018 Overview
by
Takahiro Kubo
2018年12月4日までに『呪術廻戦』を読む理由
by
Takahiro Kubo
Graph Attention Network
by
Takahiro Kubo
ACL2018の歩き方
by
Takahiro Kubo
機械学習で泣かないためのコード設計 2018
by
Takahiro Kubo
TISにおける、研究開発の方針とメソッド 2018
by
Takahiro Kubo
感情の出どころを探る、一歩進んだ感情解析
by
Takahiro Kubo
機械学習の力を引き出すための依存性管理
by
Takahiro Kubo
モデルではなく、データセットを蒸留する
1.
Copyright © TIS
Inc. All rights reserved. モデルではなく、データセットを蒸留する 戦略技術センター 久保隆宏 Dataset Distillation
2.
Copyright © TIS
Inc. All rights reserved. 2 ◼ 論文のサマリ ◼ 「蒸留」の種別 ◼ データセットを蒸留する手順 ◼ 評価 ◼ 所感 ◼ 参考資料 目次
3.
Copyright © TIS
Inc. All rights reserved. 3 久保隆宏 TIS株式会社 戦略技術センター ◼ 化学系メーカーの業務コンサルタント出身 ◼ 既存の技術では業務改善を行える範囲に限界があるとの実感から、戦 略技術センターへと異動 ◼ 現在は会計/投資の現場で使える要約の実現を目指し、まとめる観点を 指定した要約の作成に関する研究を行う。 自己紹介 kintoneアプリ内にたまった データを簡単に学習・活用 (@Cybozu Days 2016) チュートリアル講演:深層学習 の判断根拠を理解するための研 究とその意義(@PRMU 2017) 機械学習をシステムに組み込む 際の依存性管理について (@MANABIYA 2018)
4.
Copyright © TIS
Inc. All rights reserved. 4 Dataset Distillation ◼ モデル側ではなく、データセット側を蒸留した研究 ◼ MNISTでは10件のデータで94%、CIFAR-10では100件で54%の精度 を達成 ◼ 転移学習、また敵対的サンプルにも使えることを確認 ◼ 転移学習: 蒸留しておいたデータを、数件学習させるだけで転移さ せる ◼ 敵対的サンプル: モデルを誤らせるデータを蒸留することで、数件 でも破壊的忘却を引き起こすデータを作成する(dataset poisoning) ◼ ただモデルの初期値に対する依存が若干あるため、汎用的に使えるか は今後の検証が必要。 論文のサマリ
5.
Copyright © TIS
Inc. All rights reserved. 5 「蒸留」の種別 (1/2) 初期の「蒸留」の目的は、モデルのサイズの圧縮だった。「親」となるモ デルを、より小さいサイズの「子」モデルへと変換するプロセスを「蒸 留」と呼んでいた。 その後、サイズの圧縮が目的でなくとも、「親」から「子」を作る手法が 全般的に「蒸留」と呼ばれるようになった。 ◼ 「親」のモデルに手を加えて「子」を作る ◼ 枝刈り(Pruning)など ◼ 「親」を教師に「子」を学習する ◼ 半教師あり学習に近い形(親がつけたラベルで子を学習させる) ◼ 「親」からドメイン特化した「子」を作成する ◼ 転移学習に近い形 ◼ 「親」から特定の性質を持つ「子」を作成する ◼ 敵対的サンプルへの抵抗力を上げるなど
6.
Copyright © TIS
Inc. All rights reserved. 6 「蒸留」の種別 (2/2) "Data Distillation: Towards Omni-Supervised Learning"という非常に タイトルが近い論文があるが、こちらは半教師あり学習に近い話。 本研究には、Active Learningのような学習データを選択する手法が近し い。ただ、本研究は学習データを「サンプリング」するのではなく、「生 成」するという点で異なる。 生成された学習データ(Figure1 (a)より)
7.
Copyright © TIS
Inc. All rights reserved. 7 データセットを蒸留する手順 (1/4) 論文中では、1stepの学習からMulti stepへ拡張するという手順を取って いる。1stepの手順は以下の通り。 1. 蒸留後データセット𝑥を初期化する(randomly) 2. 初期値の分布から、 j個の初期値をサンプリングする𝜃0 𝑗 3. 𝜃0 𝑗 と𝑥から勾配を計算し、適用することで学習後の重み𝜃1 𝑗 を作成する 4. 実際の学習データ(ミニバッチ= xt)と𝜃1 𝑗 で、Lossを計算する 5. 4のLossが小さくなるように、 𝑥を学習する(この時の学習率は、Loss の値から自動調整を行う)
8.
Copyright © TIS
Inc. All rights reserved. 8 データセットを蒸留する手順 (2/4) 𝑥 𝜃0 𝑗 𝜃1 𝑗 xt 学習は以下のように行われる(メタ学習に近い)。 gradient gradient
9.
Copyright © TIS
Inc. All rights reserved. 9 データセットを蒸留する手順 (3/4) 𝑥 𝜃0 𝑗 𝜃1 𝑗 xt Multi step: 𝜃 𝑗 の更新を複数回行う。 gradient gradient
10.
Copyright © TIS
Inc. All rights reserved. 10 データセットを蒸留する手順 (4/4) 𝑥 𝜃0 𝑗 𝜃1 𝑗 xt Multi epoch: 𝑥に対する更新を複数回行う。 gradient gradient
11.
Copyright © TIS
Inc. All rights reserved. 11 評価 (1/3) 基本的にMulti-step、Multi-epochの方が良い。ただ、分散が収束しない 傾向が若干ある。 蒸留後の画像数も多い方が良いが、1stepだけだとほとんど効果が見られ ない。
12.
Copyright © TIS
Inc. All rights reserved. 12 評価 (2/3) 同じ枚数で、ベースラインより高い精度が出せている。 ベースラインは、以下4つの手法。 ◼ ランダムに選択した場合 ◼ 学習効果の高かったTop20からランダムに選択 ◼ k-meansでクラスタリングを行い、各クラスタのcentroidを使用 ◼ 各カテゴリの画像の平均を取る 初期値は、ランダムに初期化する場合と、転移学習のようにFixされてい る場合の2つで検証されている。
13.
Copyright © TIS
Inc. All rights reserved. 13 評価 (3/3) 転移学習については、各カテゴリ1枚の蒸留後データを使うだけでフル セットを使った場合に近い効果が得られている。 敵対的サンプルでは、少ない画像数でMiss classficationを誘うことがで きている(CIFARで顕著)。
14.
Copyright © TIS
Inc. All rights reserved. 14 データセット側を蒸留するのは、学習の効率化という意味でも夢がある。 ◼ 蒸留後データを使えば、CPUでも学習できる? ◼ ダウンサイズしたモデルを蒸留後データで学習させるなど どこまで数を減らせるのかについては興味がある(一応検証はされていた が、実体とあまりあっていなかった=式8)。 論文中でも述べられていたが、ImageNetのようなより大規模のデータ セット、また言語や音声といった他ドメインのデータについても検証結果 が見てみたい。 所感
15.
Copyright © TIS
Inc. All rights reserved. 15 ◼ DeepX AI Blog:蒸留 第1回 参考資料
16.
THANK YOU
Download