SlideShare uma empresa Scribd logo
1 de 80
差分プライバシーとは何か?
定義 & 解釈編
南 賢太郎
東京大・情報理工 博士1年
2016/7
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
2
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
3
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
スライド作成動機
• 筆者は差分プライバシーを研究
• 概念そのものが根本的にわかりづらく,お茶の間の話題にしづらい
• 「これさえ読めばわかる」資料を用意したい
4
日本人の43%はiPhoneユーザー(?)
5[http://www.kantarworldpanel.com]
日本における
モバイルOSシェアの
43.2% がiOS
(2016/4 現在)
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 6
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 7
注目
Appleが公表したこと 2016/6/14 (JST)
要点:
• iOSの次期バージョン (10) では,より多くの
人工知能ソリューションを搭載
• 予測変換や絵文字推薦の精度向上のため,
多数のユーザーが利用したパターンを収集
• 個人情報は差分プライバシーによって保護
8
Appleが公表したこと 2016/6/14 (JST)
意訳:
• あなたたちが入力した文章を解析するけど
プライバシー的には安全です
9
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
10
ユーザーの反応:
”差分プライバシー”
って何…?
11
(バズった)
12
(バズった)
13
Dwork, et al. (2006) 以降,
アカデミアの地道な活動で
ほぼ線形に増加してきた知名度が,
Apple副社長の30秒のプレゼンで
一瞬にして5倍に
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
14
研究者の反応:
“個人情報を
完全に保護”
って何…?
15
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
16
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
• とはいえ,実社会での応用を検討したとき,
どの程度正当に使われうるかということが
(研究者にとっても)未知数
17
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
18
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
• どのようなデータ形式の情報を
• 誰に対して漏洩させたくないのか?
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
19
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
20
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
21
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
22
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
23
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
特定の理由:
1. 外れ値である
2. 有名な公開情報である1
1: [https://ja.wikipedia.org/wiki/2005年の日本シリーズ]
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
24
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
• 匿名化は前提として,それ以上の高度な
情報漏洩量制御を考える必要がある
25
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
26
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
27
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
 どちらの相手への漏洩を考慮するかで
少なくとも2種類のアーキテクチャがある
データ解析タスク
28
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ解析タスク
タスク 𝑫 = (𝑿 𝟏, 𝑿 𝟐, … , 𝑿 𝒏) 公開したい量 𝜽
平均値
線形回帰
分類
29
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ収集のアーキテクチャ
(A) 出力型プライバシー
• データ収集者はユーザーの生データを収集
• データを復元できないようにデータ解析結果を加工
30
𝑋1 𝑋2 𝑋 𝑛
⋯
データ収集のアーキテクチャ
(B) 局所型プライバシー
• データ収集者も信用しないモデル
• ユーザー側でデータを乱雑化してから収集
31
• (Appleがやりたいのはこちら…?)
• 本スライド以降は出力型プライバシーに注目
𝑋1 𝑋2 𝑋 𝑛
⋯
ケーススタディ
1. プライバシーポリシーに同意した
ユーザーの生データを集めた
データから計算した統計量を第三者に公開
出力型プライバシー
32
ケーススタディ
2. ユーザーの生データはそもそも集められない
(例: メール,チャットの文面)
しかし,「ある文脈で多く使われた絵文字」
などのデータマイニングを行いたい
ユーザー側の端末でデータを乱雑化して収集
局所型プライバシー
33
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
• 出力型プライバシーどうやって定式化するのか
• どういう風に解釈できるのか or できないのか
C) 「完全に保護」とは何か?(定量化)
34
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
35
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
敵対者
の個人情報を
暴きたい
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
36
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
37
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
(運の悪いことに)
敵対者は𝑋1以外は知っている
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
38
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
39
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
敵対者の能力として
「補助情報つき攻撃」を許すと
𝜃を決定的に公開してはならない
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
40
𝑋1 𝑋2 𝑋 𝑛
⋯
ノイズ
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
41
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
42
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
ノイズは
𝜃 にとっては小さい
 解析には影響なし
ノイズは
𝑋𝑖にとっては大きい
 プライバシー保護
差分プライバシー:定義
アイデア:
1. 統計量は必ずランダムに公開 ( 分布: 𝜌 𝐷 )
2. 隣接するデータセット(=ハミング距離1)
に対する分布が近い
43
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
分布として
近い
差分プライバシー:定義
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
• 特に 𝛿 = 0 のときは 𝜀-差分プライバシーともいう
44
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
45
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
46
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
Laplace Mechanism1 [DMNS06]
• 𝑋𝑖 ∈ {0, 1}
• 平均にLaplaceノイズを加えたものは 𝜀-DP
47
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
1: 本来はもう少し一般的な主張
例: Laplaceメカニズム
48
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
例: Laplaceメカニズム
49
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
平均の差を隠蔽できるく
らい分散が大きく,
かつ裾が重いノイズ
データ取扱事業者:
“心配ありません”
50
データ取扱事業者:
“あなたの個人情報は
𝟎. 𝟏-差分プライバシーで
保護されています”
51
ユーザー:
“……???”
52
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
53
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
54
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
55
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
56
Q. 情報の復元不可能性という意味で,
別の基準(統計学 or 情報理論)からの
意味づけを考えることはできるか?
再掲:補助情報つき攻撃
57
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
再掲:補助情報つき攻撃
58
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
どのような復元手段
を使ったとしても,情報量的な意味で
ある精度以上は復元不可能なことを
(統計的に)保証したい
仮説検定による解釈 [WZ10][BD14]
• 𝐷0, 𝐷1 は隣接
• 次の検定問題を考える:
• 𝜓: Θ → {0, 1} を任意の検定とする
• i.e. 𝜃 を入力して,𝐻0 と 𝐻1 のどちらが真であるか
決定するような可測な判断
59
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([WZ10] Thm 2.4, 少し改変)
• 𝜌 𝐷 が 𝜀, 0 -DP のとき,次が成り立つ
• 特に,有意水準 𝛼 の検定で,検出力が 𝛼𝑒 𝜀 以上
であるものを作ることはできない
• 注: 検出力=Pr(𝜓 = 1 ∣ 𝐻1) = 1 − Pr(𝜓 = 0 ∣ 𝐻1)
60
第1種過誤第2種過誤
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([BD14], Prop 1)
• 𝜌 𝐷 が 𝜀, 𝛿 -DP (𝛿 > 0)のとき,次が成り立つ
• さらに
61
第1種過誤 第2種過誤
仮説検定による解釈 [WZ10][BD14]
数値感
• 検出力 = 本当はデータセットが 𝐷1 であるときに,
「𝐷 = 𝐷0である」という仮説を正しく棄却できる確率
 大きい方がよい
• 𝜃 が 𝜀 = 0.1-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力5.6%以上の検定を作れない
• 𝜃 が(𝜀, 𝛿) = (0.1, 0.001)-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力10.05%以上の検定を作れない
62
解釈性に関するメッセージ
• 例: (Yes, No)-値個人情報
• 当然ながら,
「コインを投げて表ならYesと決めつける」
という戦略で50%の確率で個人情報が漏洩
• 差分プライバシーでいくら保護しても
「当てずっぽう」で漏洩する可能性はある
 「邪推したら当たっていた」というタイプの
情報漏洩は絶対に防げない
63
解釈性に関するメッセージ
要点
• 差分プライバシーは,
「この人のデータが 𝑋 であるという仮説」に
統計学的な信頼を一定量以上与えられない
という意味での保護にすぎない
…という事実が理解されないまま普及すると
いつかどこかで炎上する気がする
64
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
• そんなうまい話があるのか
• うまくいかない場合,(研究上の)課題は何なのか
65
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
66
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
67
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
68
(𝜀, 𝛿)
=プライバシー保護強度
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
69
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
70
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
71
「データの情報を全て捨てる」
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
72
「データの情報を全て捨てる」
• データ解析を行う以上,完全な保護は不可能!
• 解析精度とプライバシーの双方の定量化が必要
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
73
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
74
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
75
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
• ある保護強度を決めたとき,
理想的にはどれだけの精度で
データ解析が可能か?
 解析タスクに依存するはず
プライバシー制約下での最適性
最適なトレードオフ(赤線)を特定する
• 図の縦軸
=「小さくしたい量」
=損失関数 or リスク
76
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
77
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
• 平均などの統計値の算出
• 線形回帰
• 2値分類 (SVM, Logistic回帰,etc.)
• Deep learning (?)
• … 78
研究動向のまとめも
いずれ作りたいです…
(生命力があれば)
まとめ
A) 個人情報とは何か?(問題のスコープ)
 匿名化済みデータを出力型プライバシーの枠組みで
ランダム化によって保護する
B) 個人情報の保護とは何か?(数理的定式化)
 (𝜀, 𝛿)-差分プライバシー:
隣接するデータセットの間での出力分布のロバスト性
C) 「完全に保護」とは何か?(定量化)
 データを「使う」以上,完全な保護は不可能
保護強度と解析精度のトレードオフの見極めが重要
79
参考文献
論文
[BD14] Barber and Duchi. Privacy and statistical risk:
formalisms and minimax bounds. Arxiv preprint, 2014.
[DMNS06] Dwork, McSherry, Nissim and Smith.
Calibrating noise to sensitivity in private data analysis. In
Theory of Criptography Conference, 2006.
[WZ10] Wasserman and Zhou. A statistical framework
for differential privacy. The Journal of the American
Statistical Association, 105:375--289, 2010
画像
いらすとや [http://www.irasutoya.com]
80

Mais conteúdo relacionado

Mais procurados

不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
Shintaro Fukushima
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
 

Mais procurados (20)

最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
研究分野をサーベイする
研究分野をサーベイする研究分野をサーベイする
研究分野をサーベイする
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
ChatGPT 人間のフィードバックから強化学習した対話AI
ChatGPT 人間のフィードバックから強化学習した対話AIChatGPT 人間のフィードバックから強化学習した対話AI
ChatGPT 人間のフィードバックから強化学習した対話AI
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 

Destaque

『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会
MITSUNARI Shigeo
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
MITSUNARI Shigeo
 

Destaque (8)

差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
 
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシープライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
 
居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう
 
『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
 
Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
 

差分プライバシーとは何か? (定義 & 解釈編)

Notas do Editor

  1. 009F91
  2. 頻繁に変動あり.1月には50%超だった.iPhone率の正確な推定は今回の本題でないので省略 スマホユーザーの約半数に潜在的に影響のある話をこれからする
  3. 全く新しい圧倒的なプライバシーを提供
  4. 全く新しい圧倒的なプライバシーを提供
  5. (\because) \Pr_{\theta \sim \rho_D}[\theta \in A] &= \int_A f_D(\theta) \dd \theta \\ &\leq \int_A \ee^\vep f_{D^\prime}(\theta) \dd \theta \\ & = \ee^\vep \Pr_{\theta \sim \rho_D}[\theta \in A]
  6. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  7. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  8. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  9. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  10. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  11. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  12. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  13. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  14. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  15. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  16. \left . \begin{aligned} L(\theta, D) &\\ R(\theta) = & \; \mathbb{E}_{D \sim P^{\otimes n}} [L(\theta, D)] \end{aligned} \right \} \quad (\to \text{min.} )