SlideShare a Scribd company logo
差分プライバシーとは何か?
定義 & 解釈編
南 賢太郎
東京大・情報理工 博士1年
2016/7
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
2
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
3
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
スライド作成動機
• 筆者は差分プライバシーを研究
• 概念そのものが根本的にわかりづらく,お茶の間の話題にしづらい
• 「これさえ読めばわかる」資料を用意したい
4
日本人の43%はiPhoneユーザー(?)
5[http://www.kantarworldpanel.com]
日本における
モバイルOSシェアの
43.2% がiOS
(2016/4 現在)
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 6
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 7
注目
Appleが公表したこと 2016/6/14 (JST)
要点:
• iOSの次期バージョン (10) では,より多くの
人工知能ソリューションを搭載
• 予測変換や絵文字推薦の精度向上のため,
多数のユーザーが利用したパターンを収集
• 個人情報は差分プライバシーによって保護
8
Appleが公表したこと 2016/6/14 (JST)
意訳:
• あなたたちが入力した文章を解析するけど
プライバシー的には安全です
9
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
10
ユーザーの反応:
”差分プライバシー”
って何…?
11
(バズった)
12
(バズった)
13
Dwork, et al. (2006) 以降,
アカデミアの地道な活動で
ほぼ線形に増加してきた知名度が,
Apple副社長の30秒のプレゼンで
一瞬にして5倍に
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
14
研究者の反応:
“個人情報を
完全に保護”
って何…?
15
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
16
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
• とはいえ,実社会での応用を検討したとき,
どの程度正当に使われうるかということが
(研究者にとっても)未知数
17
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
18
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
• どのようなデータ形式の情報を
• 誰に対して漏洩させたくないのか?
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
19
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
20
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
21
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
22
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
23
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
特定の理由:
1. 外れ値である
2. 有名な公開情報である1
1: [https://ja.wikipedia.org/wiki/2005年の日本シリーズ]
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
24
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
• 匿名化は前提として,それ以上の高度な
情報漏洩量制御を考える必要がある
25
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
26
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
27
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
 どちらの相手への漏洩を考慮するかで
少なくとも2種類のアーキテクチャがある
データ解析タスク
28
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ解析タスク
タスク 𝑫 = (𝑿 𝟏, 𝑿 𝟐, … , 𝑿 𝒏) 公開したい量 𝜽
平均値
線形回帰
分類
29
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ収集のアーキテクチャ
(A) 出力型プライバシー
• データ収集者はユーザーの生データを収集
• データを復元できないようにデータ解析結果を加工
30
𝑋1 𝑋2 𝑋 𝑛
⋯
データ収集のアーキテクチャ
(B) 局所型プライバシー
• データ収集者も信用しないモデル
• ユーザー側でデータを乱雑化してから収集
31
• (Appleがやりたいのはこちら…?)
• 本スライド以降は出力型プライバシーに注目
𝑋1 𝑋2 𝑋 𝑛
⋯
ケーススタディ
1. プライバシーポリシーに同意した
ユーザーの生データを集めた
データから計算した統計量を第三者に公開
出力型プライバシー
32
ケーススタディ
2. ユーザーの生データはそもそも集められない
(例: メール,チャットの文面)
しかし,「ある文脈で多く使われた絵文字」
などのデータマイニングを行いたい
ユーザー側の端末でデータを乱雑化して収集
局所型プライバシー
33
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
• 出力型プライバシーどうやって定式化するのか
• どういう風に解釈できるのか or できないのか
C) 「完全に保護」とは何か?(定量化)
34
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
35
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
敵対者
の個人情報を
暴きたい
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
36
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
37
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
(運の悪いことに)
敵対者は𝑋1以外は知っている
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
38
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
39
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
敵対者の能力として
「補助情報つき攻撃」を許すと
𝜃を決定的に公開してはならない
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
40
𝑋1 𝑋2 𝑋 𝑛
⋯
ノイズ
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
41
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
42
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
ノイズは
𝜃 にとっては小さい
 解析には影響なし
ノイズは
𝑋𝑖にとっては大きい
 プライバシー保護
差分プライバシー:定義
アイデア:
1. 統計量は必ずランダムに公開 ( 分布: 𝜌 𝐷 )
2. 隣接するデータセット(=ハミング距離1)
に対する分布が近い
43
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
分布として
近い
差分プライバシー:定義
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
• 特に 𝛿 = 0 のときは 𝜀-差分プライバシーともいう
44
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
45
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
46
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
Laplace Mechanism1 [DMNS06]
• 𝑋𝑖 ∈ {0, 1}
• 平均にLaplaceノイズを加えたものは 𝜀-DP
47
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
1: 本来はもう少し一般的な主張
例: Laplaceメカニズム
48
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
例: Laplaceメカニズム
49
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
平均の差を隠蔽できるく
らい分散が大きく,
かつ裾が重いノイズ
データ取扱事業者:
“心配ありません”
50
データ取扱事業者:
“あなたの個人情報は
𝟎. 𝟏-差分プライバシーで
保護されています”
51
ユーザー:
“……???”
52
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
53
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
54
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
55
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
56
Q. 情報の復元不可能性という意味で,
別の基準(統計学 or 情報理論)からの
意味づけを考えることはできるか?
再掲:補助情報つき攻撃
57
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
再掲:補助情報つき攻撃
58
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
どのような復元手段
を使ったとしても,情報量的な意味で
ある精度以上は復元不可能なことを
(統計的に)保証したい
仮説検定による解釈 [WZ10][BD14]
• 𝐷0, 𝐷1 は隣接
• 次の検定問題を考える:
• 𝜓: Θ → {0, 1} を任意の検定とする
• i.e. 𝜃 を入力して,𝐻0 と 𝐻1 のどちらが真であるか
決定するような可測な判断
59
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([WZ10] Thm 2.4, 少し改変)
• 𝜌 𝐷 が 𝜀, 0 -DP のとき,次が成り立つ
• 特に,有意水準 𝛼 の検定で,検出力が 𝛼𝑒 𝜀 以上
であるものを作ることはできない
• 注: 検出力=Pr(𝜓 = 1 ∣ 𝐻1) = 1 − Pr(𝜓 = 0 ∣ 𝐻1)
60
第1種過誤第2種過誤
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([BD14], Prop 1)
• 𝜌 𝐷 が 𝜀, 𝛿 -DP (𝛿 > 0)のとき,次が成り立つ
• さらに
61
第1種過誤 第2種過誤
仮説検定による解釈 [WZ10][BD14]
数値感
• 検出力 = 本当はデータセットが 𝐷1 であるときに,
「𝐷 = 𝐷0である」という仮説を正しく棄却できる確率
 大きい方がよい
• 𝜃 が 𝜀 = 0.1-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力5.6%以上の検定を作れない
• 𝜃 が(𝜀, 𝛿) = (0.1, 0.001)-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力10.05%以上の検定を作れない
62
解釈性に関するメッセージ
• 例: (Yes, No)-値個人情報
• 当然ながら,
「コインを投げて表ならYesと決めつける」
という戦略で50%の確率で個人情報が漏洩
• 差分プライバシーでいくら保護しても
「当てずっぽう」で漏洩する可能性はある
 「邪推したら当たっていた」というタイプの
情報漏洩は絶対に防げない
63
解釈性に関するメッセージ
要点
• 差分プライバシーは,
「この人のデータが 𝑋 であるという仮説」に
統計学的な信頼を一定量以上与えられない
という意味での保護にすぎない
…という事実が理解されないまま普及すると
いつかどこかで炎上する気がする
64
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
• そんなうまい話があるのか
• うまくいかない場合,(研究上の)課題は何なのか
65
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
66
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
67
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
68
(𝜀, 𝛿)
=プライバシー保護強度
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
69
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
70
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
71
「データの情報を全て捨てる」
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
72
「データの情報を全て捨てる」
• データ解析を行う以上,完全な保護は不可能!
• 解析精度とプライバシーの双方の定量化が必要
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
73
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
74
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
75
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
• ある保護強度を決めたとき,
理想的にはどれだけの精度で
データ解析が可能か?
 解析タスクに依存するはず
プライバシー制約下での最適性
最適なトレードオフ(赤線)を特定する
• 図の縦軸
=「小さくしたい量」
=損失関数 or リスク
76
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
77
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
• 平均などの統計値の算出
• 線形回帰
• 2値分類 (SVM, Logistic回帰,etc.)
• Deep learning (?)
• … 78
研究動向のまとめも
いずれ作りたいです…
(生命力があれば)
まとめ
A) 個人情報とは何か?(問題のスコープ)
 匿名化済みデータを出力型プライバシーの枠組みで
ランダム化によって保護する
B) 個人情報の保護とは何か?(数理的定式化)
 (𝜀, 𝛿)-差分プライバシー:
隣接するデータセットの間での出力分布のロバスト性
C) 「完全に保護」とは何か?(定量化)
 データを「使う」以上,完全な保護は不可能
保護強度と解析精度のトレードオフの見極めが重要
79
参考文献
論文
[BD14] Barber and Duchi. Privacy and statistical risk:
formalisms and minimax bounds. Arxiv preprint, 2014.
[DMNS06] Dwork, McSherry, Nissim and Smith.
Calibrating noise to sensitivity in private data analysis. In
Theory of Criptography Conference, 2006.
[WZ10] Wasserman and Zhou. A statistical framework
for differential privacy. The Journal of the American
Statistical Association, 105:375--289, 2010
画像
いらすとや [http://www.irasutoya.com]
80

More Related Content

What's hot

ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
Deep Learning JP
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
Takami Sato
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
hoxo_m
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
joisino
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
harmonylab
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
生成系ニューラルネットワークまとめ Summary of Generative Neural Network
生成系ニューラルネットワークまとめ Summary of  Generative Neural Network生成系ニューラルネットワークまとめ Summary of  Generative Neural Network
生成系ニューラルネットワークまとめ Summary of Generative Neural Network
Youichiro Miyake
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
joisino
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
hoxo_m
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
 
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
ychtanaka
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
 
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
RCCSRENKEI
 

What's hot (20)

ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
Prophet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツールProphet入門【Python編】Facebookの時系列予測ツール
Prophet入門【Python編】Facebookの時系列予測ツール
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
生成系ニューラルネットワークまとめ Summary of Generative Neural Network
生成系ニューラルネットワークまとめ Summary of  Generative Neural Network生成系ニューラルネットワークまとめ Summary of  Generative Neural Network
生成系ニューラルネットワークまとめ Summary of Generative Neural Network
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
 
協調フィルタリング入門
協調フィルタリング入門協調フィルタリング入門
協調フィルタリング入門
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
 
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム(Genetic Algorithm)を始めよう!遺伝的アルゴリズム(Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
 
第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)第1回 配信講義 計算科学技術特論A (2021)
第1回 配信講義 計算科学技術特論A (2021)
 

差分プライバシーとは何か? (定義 & 解釈編)

Editor's Notes

  1. 009F91
  2. 頻繁に変動あり.1月には50%超だった.iPhone率の正確な推定は今回の本題でないので省略 スマホユーザーの約半数に潜在的に影響のある話をこれからする
  3. 全く新しい圧倒的なプライバシーを提供
  4. 全く新しい圧倒的なプライバシーを提供
  5. (\because) \Pr_{\theta \sim \rho_D}[\theta \in A] &= \int_A f_D(\theta) \dd \theta \\ &\leq \int_A \ee^\vep f_{D^\prime}(\theta) \dd \theta \\ & = \ee^\vep \Pr_{\theta \sim \rho_D}[\theta \in A]
  6. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  7. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  8. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  9. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  10. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  11. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  12. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  13. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  14. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  15. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  16. \left . \begin{aligned} L(\theta, D) &\\ R(\theta) = & \; \mathbb{E}_{D \sim P^{\otimes n}} [L(\theta, D)] \end{aligned} \right \} \quad (\to \text{min.} )