SlideShare a Scribd company logo
1 of 37
Download to read offline
[DL輪読会]
Semi-Supervised Knowledge
Transfer For Deep Learning
From Private Training Data
岩澤有祐
書誌情報
• ICLR2017 oral accepted
• Rating: 9, 7, 9
• Nicolas Papernot, Martín Abadi, Úlfar Erlingsson, Ian Goodfellow, Kunal
Talwar
• 1st authorがGoogleでインターンしてた時の研究
• Niclas Papernotさんは敵対的事例の研究とかしてる⼈、現PhDコース
• 選定理由:
• DLを社会実装していく上で、プライバシー保護が重要になる気がしている
• プライバシー保護×DLの最新研究
• 差分プライバシーあまり理論的に詳しくないので間違いあったらすみません
• ご指摘お待ちしてます
余談:Best Paper Award?
https://www.papernot.fr/en/publications-awardsより抜粋
背景:プライバシーと機械学習
• 機械学習のいくつかの応⽤事例は、センシティブな学習データ
が⼤量に得られることを前提にしている
• 例:ユーザのとった写真
• 例:医療データ
• 例:DNA
• 理想的には機械学習モデルは個別のデータの特徴を残さないく
らいに汎化されていることが望ましい
• が、⼀般にその保証はない
背景知識:
プライバシー保護データマイニング
• このようなセンシティブなデータを扱う上での研究領域に
プライバシー保護データマイニングと呼ばれる領域がある
• K匿名化、L多様性、T近接性:データ⾃体の匿名度合いを評価
• 差分プライバシー:ランダム化アルゴリズムの性能を評価
• 秘密計算:データを渡さずに統計処理だけ⾏う
• 詳しくは中川先⽣や佐久間先⽣の教科書が勉強になります
• 中川先⽣の説明はSlideshareにもよくあがってます
• 本研究もこのプライバシー保護データマイニングと呼ばれる
領域の研究の1つ
プライバシー保護の重要性実世界でのプライバシー保護
Apple @WWDC 2016
本論⽂の内容
Title:“Semi-Supervised Knowledge Transfer
For Deep Learning From Private Training Data”
① Deep Learningのための
② 知識転移と ③ 半教師あり学習を使った
④プライバシー保護⼿法の提案
• 差分プライバシー基準を使った評価で、SOTAな実験結果
• プライバシー保護の強さ-分類精度のトレードオフの観点
④
③ ②
①
Outlines
• 差分プライバシーとは
• 提案メカニズム
• 評価実験
• 関連研究・考察
Outlines
• 差分プライバシーとは
• 本当は下記とかの⽅が参考になると思います
• https://www.slideshare.net/kentarominami39/ss-64088396
• 提案メカニズム
• 評価実験
• 関連研究・考察
プライバシー保護度合いをどう図るか?
• データ⾃体の性質
• K匿名性[Sweeny, 2002]:⾃分と同じ属性を持つ⼈がK⼈以上
• 他にもl多様性やt近接性と⾔った基準
• アルゴリズムの性質
• 差分プライベート[Dwark, 2006]:あるメカニズムfの出⼒f(D)からど
のくらいDの情報が予想される可能性があるか?
差分プライバシー:
プライバシー保護度合いをどう図るか?
• 質問:「今⽇の発表は⾯⽩かったですか?」
• n⼈から0/1で回答Xiを得るとする
• ⾯⽩かった:1、⾯⽩くなかった:0
• 1と答えた⼈の数はf(D) = Σxi
• 普通の状況だと合計を得られてもある特定の⼈のプライバシー
が漏れることはなさそうだが、補助情報があると別
• 例:A君以外の全員のXを何らかの⽅法で⼿に⼊れる
• 補助情報がある場合のプライバシー保護度合いを測れるか?
差分プライバシーの考え⽅
• オリジナルなデータベースD = {0, 1, 0, 0, 0, 1}を考える
• この時、1つだけ結果を変えたデータベースDʼ={0, 0, 0, 0, 0, 1}
を考える
• この時f(D)とf(Dʼ)を⾒た敵対者がその差に気づけなければ
プライバシーは守られていると解釈する
• =>ノイズを加える(正確に8⼈でなく10⼈くらいと答える)
• ※このノイズを付与する仕組みをメカニズムMという
• M(D) = f(D) + noise
差分プライベート:定義
※δ=0の場合ε-差分プライベートと呼ぶ
D ∈ Nm, Dʼ ∈ Nmとする.SをM(D)が取りうる
範囲とする.この時、∀Sおよび∀D,Dʼに対し
てメカニズムMが次を満たす時Mは(ε, δ)-差
分プライベートであるという
Pr[M(D) ∈ S] ≦ eε Pr[M(Dʼ) ∈ S ] + δ
定義
差分プライベート:解釈
Pr[M(D) ∈ S] ≦ eε Pr[M(Dʼ) ∈ S ]
を式変形すると
e-ε ≦ Pr[M(D) ∈ S] /Pr[M(Dʼ) ∈ S ] ≦ eε
解釈:ε-差分プライベート
密度⽐
※密度がeε以下(このくらい近い分布)ならよい
※ε > 0、εが0に近いほど分布が近くなければダメ
(つまりタイトな保証になる)
差分プライバシー:ラプラスメカニズム
• (ε, δ)-差分プライベートなメカニズムMをどのように選ぶか?
の代表的なメカニズムにラプラスメカニズムがある
• M = f(D) + Lap(b)
• ※Lap(b)は平均0、分散が2b2のラプラス分布
• Lap(x|b) = 1/2b exp[-[x]/d]
• Lap(Δf/ε)から⽣成されたノイズを利⽤する
メカニズムはε-差分プライベート
• ※Δfは今は1だと思ってください
• 詳しくは中川先⽣の教科書参照
プライバシー保護とデータ価値
• プライバシー保護を強くすると、データの価値が失われうる
• 例えば、ラプラスメカニズムはε-差分プライベートなので、
εを⼩さくすればするほどプライバシー保護の保証はタイトに
なる
• しかし、ノイズの分散が⼤きくなるので、元の結果f(D)を⼤き
く変えてしまう可能性がある
• プライバシー保護と、データ価値のバランスを取るメカニズム
が必要
Outlines
• 差分プライバシーとは
• 提案メカニズム
• 評価実験
• 関連研究・考察
提案メカニズム(PATE)の概要
• PHASE1:分割された訓練データ(プライベートなもの)でn個の教
師を学習
• PHASE2:プライベートでない教師なしデータにn個の教師による予
測結果を使ってラベル付けし、⽣徒を学習=>このモデルを公開
PHASE1:Ensemble PHASE2:Knowledge Transfer
直感的理解
• プライベートなデータは最終的に公開されるデータの訓練には⼀切
利⽤されない=>訓練データが漏れる危険は低い
• 唯⼀の情報経路は、n個の教師の予測結果
• ここからの情報漏れをどのように防ぐか?
PHASE1 PHASE2
Noisy Aggregation
• あるxに対する教師f(x)を多数決 + ノイズで決める
• 理由
• 単に多数決にすると、特定の1つの教師の投票に影響されうる
(相対的に、1つの教師が何に訓練されたかに影響されやすい)
• γを⼤きくすれば、特定の1つの教師の投票に影響されなくなる
• Lapを⼊れた場合のプライバシーコストについては3章に議論がある
(興味ある⽅はご参考ください)
単純にアンサンブル教師を公開はダメ?
• 出⼒にノイズをかければ安全では? => NO
1. ⼤量の教師なしデータに対する予測を⾏うと保証基準がどんどん⼤
きくなる(プライバシー保証が⽢くなる)
• cf. 合成定理
2. 教師のモデルパラメタが公開されてしまうと、その教師の
訓練に利⽤したデータの情報が漏れうる
• 2の問題は教師ではなくそこから再学習(Knowledge
Transfer)した⽣徒を公開することで解決できる.1はどうす
るか?
PATE-G:GANを利⽤した半教師あり学習
• アンサンブルモデルに対するQueryの回数を減らす
• 要は教師モデルを使った予測を⾏う回数をできるだけ減らす
• => GANによる半教師あり学習[Salimans, 2016]を利⽤
• 前提:Kクラスのカテゴリを分類したい時、GANにより⽣成された
サンプルを表すカテゴリを追加したK+1クラス分類を⾏う.この時、
• 教師付きデータについては、正しくいカテゴリに
• 教師なしデータについては、1̶Kままでのどれかのカテゴリに
• GANにより⽣成されたデータについてはK+1個⽬のクラスに
• 割り当てられるようにする
• 今のところMNISTとかでSOTA(だったはず)
提案メカニズムの具体的動き
• STEP1:プライベートなデータセットDをn個のサブ集合Diに
分割する(あるいはすでに分割されたデータを使う)
• STEP2:各Diでそれぞれ教師を訓練する
• STEP3:プライベートでない教師なしデータXの⼀部XʼにNoisy
Votingを使って教師Yʼを付与する
• STEP4:STEP3で得られた教師データと残った教師なしデータ
を使って⽣徒を訓練
Outlines
• 差分プライバシーとは
• 提案メカニズム
• 評価実験
• 関連研究・考察
実験概要
• 実験1:過去のSOTAとの⽐較
• 実験2:重要なパラメタに関するセンシティビティ
• データセット
• MNISTとSVHNを利⽤して検証
• 学習⽅法
• 訓練データをn個に分割して、n個の教師を作成
• テストデータの⼀部を⽣徒の学習に利⽤残りを評価
• 例:MNISTでは教師あり、教師なし、評価 = Queries, 9000-Queries, 1000
結果1:過去のSOTAとの⽐較
• 評価⽅法(ε,δ, P)
• (ε,δ):差分プライバシー基準(⼩さいほど保護出来ている)
• P:正解率(=得られたモデルの有⽤性)
• 結果
• MNIST [Abadi, 2016] (8, 10-5, 97%) -> (2.04, 10-5, 98%)
• SVHN [Shmatikov, 2015] (300,000, ??, 92%) -> (8.19, 10-6, 90.66%)
• δは書いてないけどたぶん同じなはず
実験2:
重要なパラメタに関するセンシティビティ
1. 教師の個数n
• 多ければ多いほど、⼤きなノイズγを加えられる
(投票の最⼤値と次点の差が⼤きくなるため⼤きなノイズを加えても
教師の結果が変わらない)
• ⼀⽅、⼤きくしすぎると各教師の学習が少数データで⾏われる様にな
る(=>結果、最終的な精度に影響が出る)
2. 教師付きデータの数
• ⼤量に使えば使うほど間接的に訓練データの情報が⽣徒に伝わる
結果2-1:教師の個数n
• n∈{10,100,250}
• γ∈[0.01, 1]
• nが⼤きいとノイズを⼤きくし
ても精度が落ちにくい
• どの程度⼤きければよいかは
ノイズの⼤きさやデータによる
※ちなみにn=250のときの教師の平均正解率は83.18%だそうです
分析:最⼤投票と2番⽬の差
• (最⼤投票数a - 最⼩投票数b )/ 総投票数n
• nを⼤きくしても60以上の差がある -> ノイズを⼤きくしても結果は
⼤きくは変わらない
結果2-2:教師付きデータの数
• Non-Private:普通に全教師ありデータで学習したモデル
• n=250, λ=20(各Queryごとのεが0.05)
• 結果
1. MNIST, SVHNでもcomparableな結果
2. Queriesを⼤きくした時の改善度合いはデータによる
Outlines
• 差分プライバシーとは
• 提案メカニズム
• 評価実験
• 関連研究・考察
関連研究:MLにおける差分プライバシ
• Shallow Model:⼤量のメカニズム
• [Erlingsson, 2014], [Bassily, 2014], [Chaudhuri, 2009], [Pathak, 2011],
[Song, 2014], [Wainwright, 2012]など
• Deep Model:
• [Shokri, 2015]:プライバシー保護SGD(保証がパラメタ数に応じてゆるく
なる)
• [Abadi, 2016]:noisy SGD(よりタイトなバウンドを持つ保証有り,MNIST
での⽐較対象)
• 提案:Ensemble of KnowledgeとSemi-Supervised =>SOTA
• ※従来法は教師なしデータを使うことを考慮していないことには注意
関連研究:Ensemble of Knowledge
• [Pathak, 2010]が類似タスクで初めて利⽤
• 複数のパーティが持つ学習モデルを信頼する第3者がどのように統合す
る化というタスク
• [Hamm, 2016]
• プライバシーの⽂脈で利⽤
• ただし、⽣徒モデルの構造に制限有り
• 提案:⽣徒の構造に依存しないより⼀般的な⼿法
関連研究:半教師ありのDPでの利⽤
• [Jagannthan, 2013]
• 決定⽊で半教師あり学習
• 決定⽊の構造をいじる形でプライバシーを保証している
• 提案:⽣徒の構造にも教師の構造にも依存しない
• 教師や⽣徒がDLでもうまく働く
まとめ
• 本論⽂では、Knowledge Aggregation and Transferの考えを発展さ
せた⼿法を提案
• Noisy VotingによるAggregation
• Semi-Supervised Learningによるタイトなプライバシー保護
• 利点1:
• どのような教師、⽣徒にも利⽤可能(DLでもOK)
• 利点2:
• 理論的保証がある + 直感的にもユーザのデータが使われない安⼼感
=>専⾨家にも⾮専⾨家にも納得感があるモデル
感想・レビュー内容など
• 差分プライバシーはあまりにも最悪評価なので、実⽤上そこまでやる必要
あるのか感は感じなくもない
• 何を守ってるのかが余り⾃明でない気がする(レビューもこの質問多かった)
• ある訓練データが学習時にあったかどうかを防ぎたいのがどういう場合かよくわか
らない.(あるユーザのスマホに⼊ってるある画像とかだとわからなくもない)
• が、理論的にも直感的にも説明できるのは実⽤上使いやすそう
• 訓練とテストのデータが同じ分布から来る仮定じゃないとうまく⾏かなそ
う(これはレビューにもあった)
• 実際にはプライベートなデータの分布と、プライベートでないデータの分布はかな
り異なるはず
• 著者らはドメイン適応とかと組み合わせる必要があると回答してるが、詳細は不明
提案メカニズムの基本的な考え⽅:
Ensemble and Knowledge Transfer
Jihun Hamm, et al.,
“Learning Privately from Multiparty Data”より抜粋

More Related Content

What's hot

差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)Kentaro Minami
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ぱんいち すみもと
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシーHiroshi Nakagawa
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use ToolsDeep Learning JP
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組みYoshitaka Ushiku
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門Shohei Hido
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめたKatsuya Ito
 
アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化MicroAd, Inc.(Engineer)
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classificationDeep Learning JP
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005ぱんいち すみもと
 
XGBoostからNGBoostまで
XGBoostからNGBoostまでXGBoostからNGBoostまで
XGBoostからNGBoostまでTomoki Yoshida
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向Naoki Matsunaga
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知Chihiro Kusunoki
 

What's hot (20)

差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシー
 
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
【DL輪読会】Toolformer: Language Models Can Teach Themselves to Use Tools
 
機械学習を民主化する取り組み
機械学習を民主化する取り組み機械学習を民主化する取り組み
機械学習を民主化する取り組み
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 
Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門Jubatus Casual Talks #2 異常検知入門
Jubatus Casual Talks #2 異常検知入門
 
Random Forestsとその応用
Random Forestsとその応用Random Forestsとその応用
Random Forestsとその応用
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
最近強化学習の良記事がたくさん出てきたので勉強しながらまとめた
 
アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化アドテクに機械学習を組み込むための推論の高速化
アドテクに機械学習を組み込むための推論の高速化
 
[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification[DL輪読会]A closer look at few shot classification
[DL輪読会]A closer look at few shot classification
 
パンハウスゼミ 異常検知論文紹介 20191005
パンハウスゼミ 異常検知論文紹介  20191005パンハウスゼミ 異常検知論文紹介  20191005
パンハウスゼミ 異常検知論文紹介 20191005
 
XGBoostからNGBoostまで
XGBoostからNGBoostまでXGBoostからNGBoostまで
XGBoostからNGBoostまで
 
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知深層自己符号化器+混合ガウスモデルによる教師なし異常検知
深層自己符号化器+混合ガウスモデルによる教師なし異常検知
 

Similar to [DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data

[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with  Differential Privacy Martin Abadi et al[DL Hacks]Deep Learning with  Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et alDeep Learning JP
 
東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05西岡 賢一郎
 
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日Hironori Washizaki
 
130801_udct_05_11
130801_udct_05_11130801_udct_05_11
130801_udct_05_11CSISi
 
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous ComputingYusuke Iwasawa
 
論文読み 20170525
論文読み 20170525論文読み 20170525
論文読み 20170525Taichi Iki
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題Kenta Oono
 

Similar to [DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data (8)

rcast_20140411
rcast_20140411rcast_20140411
rcast_20140411
 
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with  Differential Privacy Martin Abadi et al[DL Hacks]Deep Learning with  Differential Privacy Martin Abadi et al
[DL Hacks]Deep Learning with Differential Privacy Martin Abadi et al
 
東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05東大生向けデータ解析講座 第4回 2018/01/05
東大生向けデータ解析講座 第4回 2018/01/05
 
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
鷲崎 愛媛大学講演-プロジェクト型演習2014年12月15日
 
130801_udct_05_11
130801_udct_05_11130801_udct_05_11
130801_udct_05_11
 
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
研究室輪読 Feature Learning for Activity Recognition in Ubiquitous Computing
 
論文読み 20170525
論文読み 20170525論文読み 20170525
論文読み 20170525
 
ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題ディープラーニング最近の発展とビジネス応用への課題
ディープラーニング最近の発展とビジネス応用への課題
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
 

Recently uploaded

TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成Hiroshi Tomioka
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 

Recently uploaded (9)

TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版) 2024年4月作成
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 

[DL輪読会]Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data