Submit Search
Upload
[DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
•
1 like
•
1,737 views
Deep Learning JP
Follow
2017/4/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read less
Read more
Technology
Report
Share
Report
Share
1 of 37
Download now
Download to read offline
Recommended
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
Hiroshi Nakagawa
ブラックボックス最適化とその応用
ブラックボックス最適化とその応用
gree_tech
Imputation of Missing Values using Random Forest
Imputation of Missing Values using Random Forest
Satoshi Kato
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
[DL Hacks]tensorflow/privacy 使ってみた
[DL Hacks]tensorflow/privacy 使ってみた
Deep Learning JP
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
ぱんいち すみもと
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
Recommended
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
Hiroshi Nakagawa
ブラックボックス最適化とその応用
ブラックボックス最適化とその応用
gree_tech
Imputation of Missing Values using Random Forest
Imputation of Missing Values using Random Forest
Satoshi Kato
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
[DL Hacks]tensorflow/privacy 使ってみた
[DL Hacks]tensorflow/privacy 使ってみた
Deep Learning JP
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
ぱんいち すみもと
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
ぱんいち すみもと
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
ぱんいち すみもと
時系列パーソナル・データのプライバシー
時系列パーソナル・データのプライバシー
Hiroshi Nakagawa
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
Shohei Hido
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
Katsuya Ito
アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化
MicroAd, Inc.(Engineer)
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
Deep Learning JP
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介 20191005
ぱんいち すみもと
XGBoostからNGBoostまで
XGBoostからNGBoostまで
Tomoki Yoshida
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Naoki Matsunaga
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
Chihiro Kusunoki
rcast_20140411
rcast_20140411
Preferred Networks
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
Deep Learning JP
More Related Content
What's hot
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Kentaro Minami
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
ぱんいち すみもと
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
ぱんいち すみもと
時系列パーソナル・データのプライバシー
時系列パーソナル・データのプライバシー
Hiroshi Nakagawa
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
Deep Learning JP
機械学習を民主化する取り組み
機械学習を民主化する取り組み
Yoshitaka Ushiku
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
Shohei Hido
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
Katsuya Ito
アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化
MicroAd, Inc.(Engineer)
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
Deep Learning JP
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介 20191005
ぱんいち すみもと
XGBoostからNGBoostまで
XGBoostからNGBoostまで
Tomoki Yoshida
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Naoki Matsunaga
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
Chihiro Kusunoki
What's hot
(20)
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
時系列パーソナル・データのプライバシー
時系列パーソナル・データのプライバシー
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
機械学習を民主化する取り組み
機械学習を民主化する取り組み
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
Random Forestsとその応用
Random Forestsとその応用
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介 20191005
XGBoostからNGBoostまで
XGBoostからNGBoostまで
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Active Learning 入門
Active Learning 入門
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
Similar to [DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
rcast_20140411
rcast_20140411
Preferred Networks
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
Deep Learning JP
東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05
西岡 賢一郎
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
Hironori Washizaki
130801_udct_05_11
130801_udct_05_11
CSISi
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
Yusuke Iwasawa
論文読み 20170525
論文読み 20170525
Taichi Iki
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
Kenta Oono
Similar to [DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
(8)
rcast_20140411
rcast_20140411
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
130801_udct_05_11
130801_udct_05_11
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
論文読み 20170525
論文読み 20170525
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Recently uploaded
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
sugiuralab
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
Hiroshi Tomioka
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
akihisamiyanaga1
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
Hiroki Ichikura
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
博三 太田
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
FumieNakayama
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
Yuki Kikuchi
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
UEHARA, Tetsutaro
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
FumieNakayama
Recently uploaded
(9)
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
[DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data
1.
[DL輪読会] Semi-Supervised Knowledge Transfer For
Deep Learning From Private Training Data 岩澤有祐
2.
書誌情報 • ICLR2017 oral
accepted • Rating: 9, 7, 9 • Nicolas Papernot, Martín Abadi, Úlfar Erlingsson, Ian Goodfellow, Kunal Talwar • 1st authorがGoogleでインターンしてた時の研究 • Niclas Papernotさんは敵対的事例の研究とかしてる⼈、現PhDコース • 選定理由: • DLを社会実装していく上で、プライバシー保護が重要になる気がしている • プライバシー保護×DLの最新研究 • 差分プライバシーあまり理論的に詳しくないので間違いあったらすみません • ご指摘お待ちしてます
3.
余談:Best Paper Award? https://www.papernot.fr/en/publications-awardsより抜粋
4.
背景:プライバシーと機械学習 • 機械学習のいくつかの応⽤事例は、センシティブな学習データ が⼤量に得られることを前提にしている • 例:ユーザのとった写真 •
例:医療データ • 例:DNA • 理想的には機械学習モデルは個別のデータの特徴を残さないく らいに汎化されていることが望ましい • が、⼀般にその保証はない
5.
背景知識: プライバシー保護データマイニング • このようなセンシティブなデータを扱う上での研究領域に プライバシー保護データマイニングと呼ばれる領域がある • K匿名化、L多様性、T近接性:データ⾃体の匿名度合いを評価 •
差分プライバシー:ランダム化アルゴリズムの性能を評価 • 秘密計算:データを渡さずに統計処理だけ⾏う • 詳しくは中川先⽣や佐久間先⽣の教科書が勉強になります • 中川先⽣の説明はSlideshareにもよくあがってます • 本研究もこのプライバシー保護データマイニングと呼ばれる 領域の研究の1つ
6.
プライバシー保護の重要性実世界でのプライバシー保護 Apple @WWDC 2016
7.
本論⽂の内容 Title:“Semi-Supervised Knowledge Transfer For
Deep Learning From Private Training Data” ① Deep Learningのための ② 知識転移と ③ 半教師あり学習を使った ④プライバシー保護⼿法の提案 • 差分プライバシー基準を使った評価で、SOTAな実験結果 • プライバシー保護の強さ-分類精度のトレードオフの観点 ④ ③ ② ①
8.
Outlines • 差分プライバシーとは • 提案メカニズム •
評価実験 • 関連研究・考察
9.
Outlines • 差分プライバシーとは • 本当は下記とかの⽅が参考になると思います •
https://www.slideshare.net/kentarominami39/ss-64088396 • 提案メカニズム • 評価実験 • 関連研究・考察
10.
プライバシー保護度合いをどう図るか? • データ⾃体の性質 • K匿名性[Sweeny,
2002]:⾃分と同じ属性を持つ⼈がK⼈以上 • 他にもl多様性やt近接性と⾔った基準 • アルゴリズムの性質 • 差分プライベート[Dwark, 2006]:あるメカニズムfの出⼒f(D)からど のくらいDの情報が予想される可能性があるか?
11.
差分プライバシー: プライバシー保護度合いをどう図るか? • 質問:「今⽇の発表は⾯⽩かったですか?」 • n⼈から0/1で回答Xiを得るとする •
⾯⽩かった:1、⾯⽩くなかった:0 • 1と答えた⼈の数はf(D) = Σxi • 普通の状況だと合計を得られてもある特定の⼈のプライバシー が漏れることはなさそうだが、補助情報があると別 • 例:A君以外の全員のXを何らかの⽅法で⼿に⼊れる • 補助情報がある場合のプライバシー保護度合いを測れるか?
12.
差分プライバシーの考え⽅ • オリジナルなデータベースD =
{0, 1, 0, 0, 0, 1}を考える • この時、1つだけ結果を変えたデータベースDʼ={0, 0, 0, 0, 0, 1} を考える • この時f(D)とf(Dʼ)を⾒た敵対者がその差に気づけなければ プライバシーは守られていると解釈する • =>ノイズを加える(正確に8⼈でなく10⼈くらいと答える) • ※このノイズを付与する仕組みをメカニズムMという • M(D) = f(D) + noise
13.
差分プライベート:定義 ※δ=0の場合ε-差分プライベートと呼ぶ D ∈ Nm,
Dʼ ∈ Nmとする.SをM(D)が取りうる 範囲とする.この時、∀Sおよび∀D,Dʼに対し てメカニズムMが次を満たす時Mは(ε, δ)-差 分プライベートであるという Pr[M(D) ∈ S] ≦ eε Pr[M(Dʼ) ∈ S ] + δ 定義
14.
差分プライベート:解釈 Pr[M(D) ∈ S]
≦ eε Pr[M(Dʼ) ∈ S ] を式変形すると e-ε ≦ Pr[M(D) ∈ S] /Pr[M(Dʼ) ∈ S ] ≦ eε 解釈:ε-差分プライベート 密度⽐ ※密度がeε以下(このくらい近い分布)ならよい ※ε > 0、εが0に近いほど分布が近くなければダメ (つまりタイトな保証になる)
15.
差分プライバシー:ラプラスメカニズム • (ε, δ)-差分プライベートなメカニズムMをどのように選ぶか? の代表的なメカニズムにラプラスメカニズムがある •
M = f(D) + Lap(b) • ※Lap(b)は平均0、分散が2b2のラプラス分布 • Lap(x|b) = 1/2b exp[-[x]/d] • Lap(Δf/ε)から⽣成されたノイズを利⽤する メカニズムはε-差分プライベート • ※Δfは今は1だと思ってください • 詳しくは中川先⽣の教科書参照
16.
プライバシー保護とデータ価値 • プライバシー保護を強くすると、データの価値が失われうる • 例えば、ラプラスメカニズムはε-差分プライベートなので、 εを⼩さくすればするほどプライバシー保護の保証はタイトに なる •
しかし、ノイズの分散が⼤きくなるので、元の結果f(D)を⼤き く変えてしまう可能性がある • プライバシー保護と、データ価値のバランスを取るメカニズム が必要
17.
Outlines • 差分プライバシーとは • 提案メカニズム •
評価実験 • 関連研究・考察
18.
提案メカニズム(PATE)の概要 • PHASE1:分割された訓練データ(プライベートなもの)でn個の教 師を学習 • PHASE2:プライベートでない教師なしデータにn個の教師による予 測結果を使ってラベル付けし、⽣徒を学習=>このモデルを公開 PHASE1:Ensemble
PHASE2:Knowledge Transfer
19.
直感的理解 • プライベートなデータは最終的に公開されるデータの訓練には⼀切 利⽤されない=>訓練データが漏れる危険は低い • 唯⼀の情報経路は、n個の教師の予測結果 •
ここからの情報漏れをどのように防ぐか? PHASE1 PHASE2
20.
Noisy Aggregation • あるxに対する教師f(x)を多数決
+ ノイズで決める • 理由 • 単に多数決にすると、特定の1つの教師の投票に影響されうる (相対的に、1つの教師が何に訓練されたかに影響されやすい) • γを⼤きくすれば、特定の1つの教師の投票に影響されなくなる • Lapを⼊れた場合のプライバシーコストについては3章に議論がある (興味ある⽅はご参考ください)
21.
単純にアンサンブル教師を公開はダメ? • 出⼒にノイズをかければ安全では? =>
NO 1. ⼤量の教師なしデータに対する予測を⾏うと保証基準がどんどん⼤ きくなる(プライバシー保証が⽢くなる) • cf. 合成定理 2. 教師のモデルパラメタが公開されてしまうと、その教師の 訓練に利⽤したデータの情報が漏れうる • 2の問題は教師ではなくそこから再学習(Knowledge Transfer)した⽣徒を公開することで解決できる.1はどうす るか?
22.
PATE-G:GANを利⽤した半教師あり学習 • アンサンブルモデルに対するQueryの回数を減らす • 要は教師モデルを使った予測を⾏う回数をできるだけ減らす •
=> GANによる半教師あり学習[Salimans, 2016]を利⽤ • 前提:Kクラスのカテゴリを分類したい時、GANにより⽣成された サンプルを表すカテゴリを追加したK+1クラス分類を⾏う.この時、 • 教師付きデータについては、正しくいカテゴリに • 教師なしデータについては、1̶Kままでのどれかのカテゴリに • GANにより⽣成されたデータについてはK+1個⽬のクラスに • 割り当てられるようにする • 今のところMNISTとかでSOTA(だったはず)
23.
提案メカニズムの具体的動き • STEP1:プライベートなデータセットDをn個のサブ集合Diに 分割する(あるいはすでに分割されたデータを使う) • STEP2:各Diでそれぞれ教師を訓練する •
STEP3:プライベートでない教師なしデータXの⼀部XʼにNoisy Votingを使って教師Yʼを付与する • STEP4:STEP3で得られた教師データと残った教師なしデータ を使って⽣徒を訓練
24.
Outlines • 差分プライバシーとは • 提案メカニズム •
評価実験 • 関連研究・考察
25.
実験概要 • 実験1:過去のSOTAとの⽐較 • 実験2:重要なパラメタに関するセンシティビティ •
データセット • MNISTとSVHNを利⽤して検証 • 学習⽅法 • 訓練データをn個に分割して、n個の教師を作成 • テストデータの⼀部を⽣徒の学習に利⽤残りを評価 • 例:MNISTでは教師あり、教師なし、評価 = Queries, 9000-Queries, 1000
26.
結果1:過去のSOTAとの⽐較 • 評価⽅法(ε,δ, P) •
(ε,δ):差分プライバシー基準(⼩さいほど保護出来ている) • P:正解率(=得られたモデルの有⽤性) • 結果 • MNIST [Abadi, 2016] (8, 10-5, 97%) -> (2.04, 10-5, 98%) • SVHN [Shmatikov, 2015] (300,000, ??, 92%) -> (8.19, 10-6, 90.66%) • δは書いてないけどたぶん同じなはず
27.
実験2: 重要なパラメタに関するセンシティビティ 1. 教師の個数n • 多ければ多いほど、⼤きなノイズγを加えられる (投票の最⼤値と次点の差が⼤きくなるため⼤きなノイズを加えても 教師の結果が変わらない) •
⼀⽅、⼤きくしすぎると各教師の学習が少数データで⾏われる様にな る(=>結果、最終的な精度に影響が出る) 2. 教師付きデータの数 • ⼤量に使えば使うほど間接的に訓練データの情報が⽣徒に伝わる
28.
結果2-1:教師の個数n • n∈{10,100,250} • γ∈[0.01,
1] • nが⼤きいとノイズを⼤きくし ても精度が落ちにくい • どの程度⼤きければよいかは ノイズの⼤きさやデータによる ※ちなみにn=250のときの教師の平均正解率は83.18%だそうです
29.
分析:最⼤投票と2番⽬の差 • (最⼤投票数a -
最⼩投票数b )/ 総投票数n • nを⼤きくしても60以上の差がある -> ノイズを⼤きくしても結果は ⼤きくは変わらない
30.
結果2-2:教師付きデータの数 • Non-Private:普通に全教師ありデータで学習したモデル • n=250,
λ=20(各Queryごとのεが0.05) • 結果 1. MNIST, SVHNでもcomparableな結果 2. Queriesを⼤きくした時の改善度合いはデータによる
31.
Outlines • 差分プライバシーとは • 提案メカニズム •
評価実験 • 関連研究・考察
32.
関連研究:MLにおける差分プライバシ • Shallow Model:⼤量のメカニズム •
[Erlingsson, 2014], [Bassily, 2014], [Chaudhuri, 2009], [Pathak, 2011], [Song, 2014], [Wainwright, 2012]など • Deep Model: • [Shokri, 2015]:プライバシー保護SGD(保証がパラメタ数に応じてゆるく なる) • [Abadi, 2016]:noisy SGD(よりタイトなバウンドを持つ保証有り,MNIST での⽐較対象) • 提案:Ensemble of KnowledgeとSemi-Supervised =>SOTA • ※従来法は教師なしデータを使うことを考慮していないことには注意
33.
関連研究:Ensemble of Knowledge •
[Pathak, 2010]が類似タスクで初めて利⽤ • 複数のパーティが持つ学習モデルを信頼する第3者がどのように統合す る化というタスク • [Hamm, 2016] • プライバシーの⽂脈で利⽤ • ただし、⽣徒モデルの構造に制限有り • 提案:⽣徒の構造に依存しないより⼀般的な⼿法
34.
関連研究:半教師ありのDPでの利⽤ • [Jagannthan, 2013] •
決定⽊で半教師あり学習 • 決定⽊の構造をいじる形でプライバシーを保証している • 提案:⽣徒の構造にも教師の構造にも依存しない • 教師や⽣徒がDLでもうまく働く
35.
まとめ • 本論⽂では、Knowledge Aggregation
and Transferの考えを発展さ せた⼿法を提案 • Noisy VotingによるAggregation • Semi-Supervised Learningによるタイトなプライバシー保護 • 利点1: • どのような教師、⽣徒にも利⽤可能(DLでもOK) • 利点2: • 理論的保証がある + 直感的にもユーザのデータが使われない安⼼感 =>専⾨家にも⾮専⾨家にも納得感があるモデル
36.
感想・レビュー内容など • 差分プライバシーはあまりにも最悪評価なので、実⽤上そこまでやる必要 あるのか感は感じなくもない • 何を守ってるのかが余り⾃明でない気がする(レビューもこの質問多かった) •
ある訓練データが学習時にあったかどうかを防ぎたいのがどういう場合かよくわか らない.(あるユーザのスマホに⼊ってるある画像とかだとわからなくもない) • が、理論的にも直感的にも説明できるのは実⽤上使いやすそう • 訓練とテストのデータが同じ分布から来る仮定じゃないとうまく⾏かなそ う(これはレビューにもあった) • 実際にはプライベートなデータの分布と、プライベートでないデータの分布はかな り異なるはず • 著者らはドメイン適応とかと組み合わせる必要があると回答してるが、詳細は不明
37.
提案メカニズムの基本的な考え⽅: Ensemble and Knowledge
Transfer Jihun Hamm, et al., “Learning Privately from Multiparty Data”より抜粋
Download now