Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

公平性を保証したAI/機械学習
アルゴリズムの最新理論

1,656 views

Published on

https://www.slideshare.net/kazutofukuchi/ai-197863181
フォントの問題を修正しました!

2019.11.26 第38回AIセミナー「機械学習/人工知能の公平性」

Published in: Technology
  • I couldn’t decide which car I wanted as there was so many but this Ford was a great deal. ➢➢➢ https://w.url.cn/s/AFqTUhi
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • There is a useful site for you that will help you to write a perfect and valuable essay and so on. Check out, please ⇒ www.HelpWriting.net ⇐
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
  • Make 16,000 Projects With Step By Step Plans, ...even if you don't have a large workshop or expensive tools! ✤✤✤ https://t.cn/A62Ygslz
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

公平性を保証したAI/機械学習
アルゴリズムの最新理論

  1. 1. 公平性を保証したAI/機械学習
 アルゴリズムの最新理論 2019.11.26 第38回AIセミナー「機械学習/人工知能の公平性」 福地 一斗 筑波大学 / 理研IAIP fukuchi@cs.tsukuba.ac.jp
  2. 2. 自己紹介 • 名前: 福地 一斗 (Fukuchi Kazuto) • 所属: 筑波大学 システム情報系 助教 • 経歴 • 2018/03 筑波大学 システム情報工学専攻科 博士後期課程 修了 • 2018/04-2019/08 理研AIP 特別研究員 • 2019/09-現在 筑波大学 システム情報系 助教 • 2019/11-現在 理研AIP 客員研究員 • 研究興味: • 機械学習における公平性,プライバシーの理論面 • 数理統計,特に,汎関数推定
  3. 3. 機械学習界隈での公平性の注目 ACM FAT* 国際会議 ACM FAT* 2018-19 AAAI/ACM AIES 2018-19 国際ワークショップ FATML 2014-18 招待講演 •ICML2017(L. Sweeney) •NIPS2017 (K. Crawford) •KDD2017 (C. Dwork) •KDD2018 (J. M. Wing) AI for Social Good 2018-19 Challenges and Opportunities for AI in Financial Services 2018 AI Ethics WS 2018
  4. 4. はじめに • 神嶌先生の公演 • 公平な機械学習の基礎的な部分 • 本公演 • 公平な機械学習の最近の研究成果・トピック
  5. 5. 今日の内容 • 分類,回帰における公平性の保証方法 • 表現学習における公平性の保証方法 • 個人公平性下における学習理論 • バンディット問題における公平性
  6. 6. 今日含まない内容 • 公平性を保証したクラスタリング • 公平性を保証したランキング • 因果を元にした公平性 • 機械学習アルゴリズムの透明性や説明可能性
  7. 7. 公平な学習に関する研究
  8. 8. 分類学習の仕組み ラベル付きデータ 学習アルゴリズム 分類器 f
  9. 9. 分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ
  10. 10. 分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ なるべく当たるよう
 f を選択したい
  11. 11. 分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ f による分類誤差が
 最小になるようにする
  12. 12. 公平な分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ なるべく
 当たるように f を選択 公平な f を選択
  13. 13. 公平な分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ 公平な f とは? f による分類誤差が
 最小になるようにする
  14. 14. 設定 • 簡単のために教師あり分類問題のみを考える •           学歴,職歴,資格など •           性別,人種,宗教,政治志向,年齢など •           予測したいもの (e.g., 採否) •           アルゴリズムによって予測されたラベル 入力 X ラベル Y 予測ラベル ̂Y別の入力 X S = 男性 S = 女性 入力 X ラベル Y センシティブ属性 S 予測ラベル ̂Y 学習
  15. 15. 公平性基準 • 様々な公平性基準 • Demographic parity • Equalized odds [Hardt+16] • Calibration [Pleiss+17] • Individual fairness [Dwork+12]
  16. 16. Demographic parity • センシティブ属性で条件づけられた予測ラベルの分布が一致 • 分布ではなく予測精度/偽陽性/偽陰性の一致を目指すもの もあり Demographic parity ℙ{ ̂Y ∈ 𝒜|S = s} = ℙ{ ̂Y ∈ 𝒜|S = s′} 任意の𝒜, s, s′について 採用 非採用 採用 非採用 男性 女性 = ̂Y|S = 男性 ̂Y|S = 女性
  17. 17. Equalized odds [Hardt+16] •  と を一致させるように学習できる • Demographic parityではできない Equalized odds ℙ{ ̂Y ∈ 𝒜|Y = y, S = s} = ℙ{ ̂Y ∈ 𝒜|Y = y, S = s′} 任意の𝒜, y, s, s′について Y ̂Y 採用 非採用男性 採用 非採用女性 真の採用分布 学習 採用 非採用 採用 非採用 公平 = 学習の結果変化した部分 (緑の部分)の一致
  18. 18. Calibration [Pleiss+17] • である確率の予測値を とする • である予測が のみによって決まるように制約 Y = 1 ̂p Y = 1 ̂p Calibration ℙ{Y = 1| ̂p = p, S = s} = p 任意のp, sについて 男性 採用 非採用 p ̂p = p|S = 男性
  19. 19. Individual fairness [Dwork+12] • 性別以外全く同じ人がいれば採否も同じにするべき • 似たような人は似た結果を受け取るべき • 確率的予測関数 : • Lipschitz property 任意のx, x′について D( f(x), f(x′)) ≤ d(x, x′) ≈ ⟹ f : 𝒳 → Δ(𝒴) 結果の分布間の 距離
  20. 20. 分類・回帰における公平性
  21. 21. 公平な分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ 公平性基準を達成 f による分類誤差が
 最小になるようにする
  22. 22. 公平な学習の基本戦略 • 最適化問題として定式化 • 罰則・制約を設けることで公平性を制御 minf Err(f ) + ηUnfair(f ) 罰則ベース minf Err(f ) sub to Unfair(f ) ≤ η 制約ベース
  23. 23. Reduction Approach [Agarwal+18] • 確率的な分類器 を学習 • は分類器 上の分布 • Reduction • 学習問題をコストセンシティブ学習の系列に置き換え Q Q f minQ 𝔼f∼Qℙ{f(X) ≠ Y} sub to M𝔼f∼Q[μ(f )] ≤ c 最適化問題 公平性基準を有限個の制約で表現 例 DP) 𝔼{f(X)|S = 0} = 𝔼{f(X)} 𝔼{f(X)|S = 1} = 𝔼{f(X)}
  24. 24. Reduction Approach [Agarwal+18] minQ 𝔼f∼Qℙ{f(X) ≠ Y} sub to M𝔼f∼Q[μ(f )] ≤ c 元の最適化問題 maxλ∈ℝK +,∥λ∥≤B minQ 𝔼f∼Qℙ{f(X) ≠ Y} + λ⊤ (M𝔼f∼Q[μ(f )] − c) 制約無し最適化問題 ラグランジュ乗数 交互最適化によって鞍点を探索
  25. 25. コストセンシティブ学習 • 予測の重みが違う • ラベルがポジティブ/ネガティブか • サンプル毎 • 例)疾患推定 • 疾患がないのに間違うよりも疾患があるのに間違うことの 方が問題 minf ∑ n i=1 (h(Xi)C1 i + (1 − h(Xi))C0 i ) コストセンシティブ学習
  26. 26. Reduction Approach: Implication • 与えられたラグランジュ乗数 のもとで分布 の最小化 • コストセンシティブ学習で書き換えられる λ Q はここの期待値μ
  27. 27. Reduction Approach: Algorithm を最適化Q を最適化λ Cost-sensitive学習
  28. 28. Fair Regression: Quantitative Definitions and Reduction-based Algorithms [Agarwal+19] • 回帰における公平性を扱えるように拡張 • Demographic parityか 全てのグループの損失が一定以 下 という公平性制約が扱える 連続変数の密度分布の一致は難しい 離散化してビンを当てる
 分類問題に書き換え
  29. 29. Representation Learning 学習アルゴリズム 表現器 g( )= ラベル付きデータ z f( )=A氏 z 分類器 z 表現データ 学習アルゴリズム
  30. 30. Fair Representation [Zafar+13] • センシティブ属性に依存しないような表現の獲得 g( ) g( ) z
  31. 31. Fair Representation [Zafar+13] • センシティブ属性に依存しないような表現の獲得 g( ) g( ) z
  32. 32. Inherent Tradeoffs in Learning Fair Representations [Zhao+19] • Fair Reperesentationから分類器を作った時に公平性が どうなるか解析 g( ) g( ) z f( )=A氏 z 分類器 ここまでは公平 これは公平?
  33. 33. Invariant feature • Fair representationと同じ考え • 特定の要素(センシティブ属性の変動)に依存しないよう な特徴量を求めたい g( ) g( ) z
  34. 34. 敵対的学習を使った手法[Xie+16] • DPを元にした公平性= • 表現からセンシティブ属性が識別できない • 実際にセンシティブ属性を識別するモデルを作る • このモデルの識別精度が悪くなるように学習 g( )= f( )=A氏 d( )=黒人z z z 表現器 分類器 識別器 分類器はなるべく
 当たるように 識別器はなるべく
 外れるように
  35. 35. 実験結果 [Xie+16] 公平性Random guessと同等しか
 センシティブ属性を予測できない 提案手法(右端)の予測精度が高い
  36. 36. VAEとInformation bottleneckを
 元にした方法[Moyer+18] • 敵対的学習の問題:学習が遅い! • Variational Auto Encoder (VAE)を元に効率的な学習 minf Likelihood(f(X), Y) + ηI(f(X), S) 最適化問題 VAEのテクニックを使って上記の問題を近似しながら解く
  37. 37. 公平性の学習理論
  38. 38. 公平な分類学習の仕組み 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ
  39. 39. 汎化性能 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ 訓練データ テストデータ
  40. 40. 汎化性能 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ 訓練データ テストデータ テストデータでの分類性能は? 訓練データで
 当たるように学習
  41. 41. 汎化誤差/公平性 学習アルゴリズム 分類器 f( )=A氏 ラベル付きデータ 訓練データ テストデータ (テストデータでの誤差) - (訓練データでの誤差) (テストデータでの不公平性) - (訓練データでの不公平性) 汎化誤差 汎化公平性
  42. 42. Group fairnessの学習理論
  43. 43. Learning Non-Discriminatory Predictors [Woodworth+18] • Equalized-oddsを保証するためのアルゴリズム [Hardt+ICML 16] • スコアベースの分類器を学習 • スコア0以上 <=> • ROCが一致するようにスコアの閾値を調節 • このアルゴリズムはsuboptimal • post-hocでは1/2エラーだが
 Equalized-odds制約を満たすエラーが小さい 分類器が存在する問題が作れる ̂Y = 1
  44. 44. Learning Non-Discriminatory Predictors : Algorithm + Analysis • アルゴリズム概要: • データセットを半分に分ける • 片方を使いEqualized-odds制約を科した学習を行う • もう片方を使いpost-hocで制約を満たすようにする maxy,s (VC(ℱ) + ln(1/δ))/(nPy,s) 汎化誤差 maxy,s ln(1/δ)/(nPy,s) 公平性誤差
  45. 45. Learning Non-Discriminatory Predictors : Algorithm + Analysis • アルゴリズム概要: • データセットを半分に分ける • 片方を使いEqualized-odds制約を科した学習を行う • もう片方を使いpost-hocで制約を満たすようにする maxy,s (VC(ℱ) + ln(1/δ))/(nPy,s) 汎化誤差 maxy,s ln(1/δ)/(nPy,s) 公平性誤差 一番データが少ない のサンプル数(y, s) 汎化誤差はVC次元に 依存 公平性はVC次元に
 非依存
  46. 46. Training Well-Generalizing Classifiers for Fairness Metrics and Other Data- Dependent Constraints [Cotter+19] • [Woodworth+18]のさらなる一般化 • 目的関数が分類誤差 • 制約が公平性 • Reductionと似た戦略でアルゴリズムを構築 • ただし[Woodworth+18]と同様の戦略も使う • データセットを2つに分けて目的関数と制約を別々に評価 minθ 𝔼[ℓ0(X, θ)] sub to 𝔼[ℓi(X, θ)] ≤ 0 対象とする問題
  47. 47. Training Well-Generalizing Classifiers for Fairness Metrics and Other Data- Dependent Constraints: Analysis • : 最適化手法で生じる誤差 • : 制約数 • : 分類器の複雑さ ϵ m Rn(ℱ) ϵ + Rn(ℱ) + ln(1/δ)/n 目的関数の汎化誤差 (m ln(1/ϵ) + ln(m/δ))/n 制約の汎化誤差
  48. 48. Training Well-Generalizing Classifiers for Fairness Metrics and Other Data- Dependent Constraints: Analysis ϵ + Rn(ℱ) + ln(1/δ)/n 目的関数の汎化誤差 (m ln(1/ϵ) + ln(m/δ))/n 制約の汎化誤差 汎化誤差は複雑さに 依存 公平性は制約数のみに 依存 • : 最適化手法で生じる誤差 • : 制約数 • : 分類器の複雑さ ϵ m Rn(ℱ)
  49. 49. Individual fairnessの学習理論
  50. 50. Probably Approximately Metric-Fair Learning [Rothblum+18] • である確率を返す分類器 を学習 • ゴール: • 上記の制約のもと真のラベルと の 損失を最小化 ̂Y = 1 h : 𝒳 → [0,1] h ℓ0 ℙx,x′{|h(x) − h(x′)| > d(x, x′) + γ} ≤ α -個人公平性制約(γ, α)
  51. 51. Probably Approximately Metric-Fair Learning : Algorithm + Analysis maxi,j max(0,|h(x) − h(x′)| − d(xi, xj)) ≤ γ 学習時の制約 公平性違反に罰則 ならばアルゴリズムは誤差 の -公平な分類器 を出力する. m = O(poly(1/ϵα,1/ϵγ,1/ϵ)) ϵ (α + ϵα, γ + ϵγ) h サンプル複雑度 近似的な公平性がLearnableで
 あることを証明 暗号的なone-way関数の存在下では完全な公平性は指数的計算時間が必要
  52. 52. 公平なバンディット問題/強化学習
 /オンライン学習
  53. 53. バンディット問題 • 逐次意思決定問題 • 目的 • 累積報酬 の最大化 • が与えられた時 を 選択 • ∑ T t=1 r(t) x(t) 1 , . . . , x(t) K i r(t) = fi(x(t) i ) バンディット問題 オンライン推薦などの応用 個人化広告推薦 Web記事推薦 SNS友人推薦 ユーザ情報 x(t) 広告 i(t) フィードバックr(t)
  54. 54. Fair bandit [Joseph+16] • 報酬の大きさ = その人の能力の高さ • 能力が高い人以外を優先的に選んではいけない πi(t) > πj(t) only if fi(x(t) i ) > fj(x(t) j ) 能力主義的公平性 A B C D E fi(x(t) i )
  55. 55. Fair bandit: Algorithm • 信頼区間が1番平均が高い人に連なる集団から一様にとる トップ集団 から一様サンプル
  56. 56. Fair bandit: Regret • 通常/文脈付きバンディットでのレグレット解析 • 理想的な報酬からどれだけ報酬を取り逃がしたか K3 T ln(Tk/δ) 通常バンディットのレグレット T4/5 K6/5 d3/5 ∨ k3 ln(k/δ) 線形文脈付きバンディットのレグレット が知られており も証明Ω( T) Ω( K3 ln(1/δ)) ほぼタイトな
 バウンド 通常は TKd ln(T)
  57. 57. Calibrated Fairness in Bandits [Liu+17] • 個人公平性制約を満たしCalibration違反を最小にする πi(t) ≠ ℙ{i = arg maxj rj} Calibration違反 D(π(t) i , π(t) j ) ≤ ϵ1D(ri, rj) + ϵ2 個人公平性制約
  58. 58. Calibrated Fairness in Bandits: AlgorithmThompson samplingを元の下 アルゴリズム 事後平均を最大にするのではなく 事後分布からサンプル下報酬を最大に 腕を選んだ回数が少ない
 場合は一様サンプル 個人公平性の保証 Calibration違反
 を少なく
  59. 59. Calibrated Fairness in Bandits: AlgorithmThompson samplingを元の下 アルゴリズム 事後平均を最大にするのではなく 事後分布からサンプル下報酬を最大に 腕を選んだ回数が少ない
 場合は一様サンプル 個人公平性の保証 Calibration違反
 を少なく (KT)2/3 Calibration違反のレグレット 確率 で1 − δ D(π(t) i , π(t) j ) ≤ 2D(ri, rj) + ϵ2 個人公平性制約
  60. 60. Online Learning with an Unknown Fairness Metric [Gillen+18] • 線形文脈付きバンディット問題+個人公平性制約 • 距離函数を知らない • 代わりにフィードバックに距離情報が含まれる |πi(t) − πj(t)| ≤ d(x(t) i , x(t) j ) 個人公平性制約 ユーザ情報x(t) i 広告分布π(t) フィードバックr(t) 距離オラクルO(t) 制約違反している
 ペアを返す 実際には ぐらいの
 違反を許す ϵ
  61. 61. Online Learning with an Unknown Fairness Metric: Algorithm • 報酬分布の推定と距離の推定が得られればあとはLP • 報酬分布の推定 • から通常の線形バンディットと同時ように推定 • 距離の推定 • 距離オラクルから推定 r(t) maxπ∈ΔK ∑ K i=1 riπi sub to|πi − πj | ≤ dij 解くべきLP 報酬最大 公平性制約
  62. 62. Online Learning with an Unknown Fairness Metric: Regret + Fairness • Fairnessは公平性制約を違反した回数 • まとめると: が に比べある程度小さいなら • Regret: • Fairness: K, d T d T ln(T/δ) K2 d2 ln(TKd) K2 d2 ln(kdT/ϵ) + K3 ϵT + d T ln(T/δ) Regret K2 d2 ln(d/ϵ) Fairness で に関 してはほぼ最適 ϵ = 1/K3 T T
  63. 63. 強化学習 • 強化学習 • 目的 • 割引報酬 の最大化∑ ∞ t=τ γt−τ r(t) 状態s(t) 行動a(t) フィードバックr(t) 行動によって状態遷移 状態によって報酬分布が変わる
  64. 64. Fairness in Reinforcement Learning [Jabbari+17] • 強化学習において[Joseph+16]と同様な公平性制約 • 結果 • Exactな公平性を達成するには指数的試行が必要 • 最適なポリシーが得られるまでに十分なステップ数は • 割引率 については指数的でこれが最適 • 他の項に関しては多項式 ϵ 1/(1 − γ) πi(t) > πj(t) only if fi(s(t) i ) > fj(s(t) j ) 能力主義的公平性
  65. 65. 公平なバンディット問題/強化学習
 /オンライン学習: まとめ • バンディット問題/強化学習/オンライン学習 • 逐次意思決定問題における報酬最大化 • 公平なバンディット問題/強化学習/オンライン学習 • 逐次意思決定問題 + 選択確率に公平性制約 • 様々な設定での理論解析
  66. 66. 最近話題のトピック
  67. 67. Delayed Effect [Liu+18] • 学習とテストの間に時間的隔たりがある • その間にサンプルの分布が変化する • Demographic parityの正当性 (入試) • 貧困層の学生を取らないことで将来貧困が拡大することの防止 • DP, EOの制約をつけた時予測時の性能はどうなるか? 時刻 データ収集+学習 予測 サンプルの分布が変化
  68. 68. Human in the Loop • 現実的には学習は1回では終わらない • システムをアップデートし続ける • 以前に行った意思決定が学習データに影響する f
  69. 69. 公平性を装う技術 • 本当は不公平であるのにかかわらず世間には公平に見せか ける • 不公平なモデル から 公平な説明 が生成できる [Aivodji+19] • 不公平なモデル から 公平なラベルづけデータセット を 生成できる [Fukuchi+20] f これは不公平 説明 ベンチマークデータ これは公平
  70. 70. まとめ • 公平性の最新研究を紹介 • 今日の内容 • 分類,回帰における公平性の保証方法 • Reduction approach • 表現学習における公平性の保証方法 • Fairな表現,Invariant Feature • 公平性下における学習理論 • バンディット問題における公平性 • その他話題のトピック
  71. 71. References 1 • [Hardt+16] Moritz Hardt, Eric Price, and Nathan Srebro. Equality of Opportunity in Supervised Learning. In: NeurIPS, pp. 3315-3323, 2016. https://arxiv.org/abs/1610.02413 • [Pleiss+17] Geoff Pleiss, Manish Raghavan, Felix Wu, Jon Kleinberg, and Kilian Q. Weinberger. On Fairness and Calibration. In: NeurIPS, pp. 5680-5689, 2017. https://arxiv.org/ abs/1709.02012 • [Dwork+12] Cynthia Dwork, Moritz Hardt, Toniann Pitassi, Omer Reingold, Rich Zemel. Fairness Through Awareness. In: the 3rd innovations in theoretical computer science conference, pp. 214-226, 2012. https://arxiv.org/abs/ 1104.3913
  72. 72. References 2 • [Agarwal+18] Alekh Agarwal, Alina Beygelzimer, Miroslav Dudík, John Langford, and Hanna Wallach. A Reductions Approach to Fair Classification. In: ICML, PMLR 80, pp. 60-69, 2018. https://arxiv.org/abs/1803.02453 • [Agarwal+19] Alekh Agarwal, Miroslav Dudík, and Zhiwei Steven Wu. Fair Regression: Quantitative Definitions and Reduction-based Algorithms. In: ICML, PMLR 97, pp. 120-129, 2019. https://arxiv.org/abs/1905.12843 • [Zafar+13] Rich Zemel, Yu Wu, Kevin Swersky, Toni Pitassi, and Cynthia Dwork. Learning Fair Representations. In: ICML, PMLR 28, pp. 325-333, 2013.
  73. 73. References 3 • [Zhao+19] Han Zhao, Geoffrey J. Gordon. Inherent Tradeoffs in Learning Fair Representations. In: NeurIPS, 2019, to appear. https://arxiv.org/abs/1906.08386 • [Xie+16] Qizhe Xie, Zihang Dai, Yulun Du, Eduard Hovy, Graham Neubig. Controllable Invariance through Adversarial Feature Learning. In: NeurIPS, pp. 585-596, 2016. https://arxiv.org/abs/1705.11122 • [Moyer+18] Daniel Moyer, Shuyang Gao, Rob Brekelmans, Greg Ver Steeg, and Aram Galstyan. Invariant Representations without Adversarial Training. In: NeurIPS, pp. 9084-9893, 2018. https://arxiv.org/abs/1805.09458
  74. 74. References 4 • [Woodworth+18] Blake Woodworth, Suriya Gunasekar, Mesrob I. Ohannessian, Nathan Srebro. Learning Non-Discriminatory Predictors. In: COLT, pp. 1920-1953, 2017. https://arxiv.org/abs/ 1702.06081 • [Cotter+19] Andrew Cotter, Maya Gupta, Heinrich Jiang, Nathan Srebro, Karthik Sridharan, Serena Wang, Blake Woodworth, Seungil You. Training Well-Generalizing Classifiers for Fairness Metrics and Other Data-Dependent Constraints. In: ICML, PMLR 97, pp. 1397-1405, 2019. https:// arxiv.org/abs/1807.00028 • [Rothblum+18] Guy N. Rothblum, Gal Yona. Probably Approximately Metric-Fair Learning. In: ICML, PMLR 80, pp. 5680-5688, 2018. https://arxiv.org/abs/1803.03242
  75. 75. References 5 • [Joseph+16] Matthew Joseph, Michael Kearns, Jamie Morgenstern, Aaron Roth. Fairness in Learning: Classic and Contextual Bandits. In: NeurIPS, pp. 325-333, 2016. • [Liu+17] Yang Liu, Goran Radanovic, Christos Dimitrakakis, Debmalya Mandal, David C. Parkes. Calibrated Fairness in Bandits. In: 4th Workshop on Fairness, Accountability, and Transparency in Machine Learning (FATML), 2017. https://arxiv.org/abs/1707.01875 • [Gillen+18] Stephen Gillen, Christopher Jung, Michael Kearns, Aaron Roth. Online Learning with an Unknown Fairness Metric. In: NeurIPS, pp. 2600-2609, 2018. https:// arxiv.org/abs/1802.06936
  76. 76. References 6 • [Jabbari+17] Shahin Jabbari, Matthew Joseph, Michael Kearns, Jamie Morgenstern, Aaron Roth. Fairness in Reinforcement Learning. In: ICML, PMLR 70, pp. 1617-1626, 2017. https://arxiv.org/abs/1611.03071 • [Liu+18] Lydia T. Liu, Sarah Dean, Esther Rolf, Max Simchowitz, Moritz Hardt. Delayed Impact of Fair Machine Learning. In: ICML, PMLR 80, pp. 3150-3158, 2018. https://arxiv.org/abs/ 1803.04383 • [Aivodji+19] Ulrich Aïvodji, Hiromi Arai, Olivier Fortineau, Sébastien Gambs, Satoshi Hara, Alain Tapp. Fairwashing: the risk of rationalization. In: ICML, 2019. https://arxiv.org/abs/1901.09749 • [Fukuchi+20] Kazuto Fukuchi, Satoshi Hara, Takanori Maehara. Faking Fairness via Stealthily Biased Sampling. In: AAAI, Special Track on AI for Social Impact (AISI), 2020, to appear. https://arxiv.org/abs/ 1901.08291
  77. 77. ICML2019 & NeurIPS2019 papers
  78. 78. Training Well-Generalizing Classifiers for Fairness Metrics and Other Data- Dependent Constraints [Cotter+ICML 19] • https://arxiv.org/abs/1807.00028 • データ依存制約の汎化性能の解析 • [Woodworth+COLT 18]の拡張 • [Agarwal+ICML 18]を元に解析
  79. 79. Fairness without Harm: Decoupled Classifiers with Preference Guarantees [Ustun+ICML 19] • http://proceedings.mlr.press/v97/ustun19a • Preference-basedな公平性を保証 • rationalityとenvy-freenessを目指した学習手法 • [Zafar+ICML 18]の後続 • [Dwork+ICML'18]の拡張
  80. 80. Fairness risk measures [Williamson+ICML'19] • https://arxiv.org/abs/1901.08665 • subgroupを考慮した新しいFairness scoreを与える • 持つべき公理を定義してそこからスコアを求める • その定義のもと学習アルゴリズムを与える • [Zafar+WWW 18], [Dwork+ICML 18], [Donini+NeurIPS 18]の後続
  81. 81. On the Long-term Impact of Algorithmic Decision Policies: Effort Unfairness and Feature Segregation through Social Learning [Heidari+ICML 19] • https://arxiv.org/abs/1903.01209 • effortを導入して,努力した量に対する報酬の違いによっ て公平性を定義
  82. 82. Obtaining fairness using optimal transport theory [Barrio+ICML 19] • https://arxiv.org/abs/1806.03195 • Wassserstain distanceを使ってDisparete Impact scoreを拡張 • 最適な(approximately) Fairなデータ分布を求めるアルゴ リズムを開発 • [Feldman+KDD 15]の後続
  83. 83. Fair Regression: Quantitative Definitions and Reduction-based Algorithms [Agarwal+ ICML19] • https://arxiv.org/abs/1905.12843 • 回帰における公平性 • リプシッツ関数を予測する問題 • Demographic parityか 全てのグループの損失が一定以 下 が公平性制約 • 自身の[Agrawal+ICML 18]の後続
  84. 84. Differentially Private Fair Learning [Jagielski+ICML 19] • https://arxiv.org/abs/1812.02696 • 差分プライバシーと同時にEqualized oddsを保証する方 法を開発 • Reduction approach [Agrawal+ICML 18]と同様な方法 で公平性の保証を行う
  85. 85. Fairness-Aware Learning for Continuous Attributes and Treatments [Mary+ICML 19] • http://proceedings.mlr.press/v97/mary19a • 回帰への対応や連続センシティブ属性への対応 • 独立性のmeasureとして機能する指標HGRを使う • 他の指標は独立かそうでないかしかわからない
  86. 86. The implicit fairness criterion of unconstrained learning [Liu+ICML 19] • https://arxiv.org/abs/1808.10013 • 制約を設けないリスク最小化がCalibrationを達成する最 も良い方法であることを証明
  87. 87. Flexibly Fair Representation Learning by Disentanglement [Creager+ICML 19] • https://arxiv.org/abs/1906.02589 • Fairなセンシティブ属性の分布変化にadaptiveな表現学習 の方法の開発 • VAEを元にした手法
  88. 88. Learning Optimal Fair Policies [Nabi+ICML 19] • https://arxiv.org/abs/1809.02244 • causalベースの公平性定義 • 逐次意思決定における公平性 • 最適な意思決定指針とそれを推定するアルゴリズムの開発 • 自身の[Nabi+AAAI 18]の拡張
  89. 89. Toward Controlling Discrimination in Online Ad Auctions [Celis+ICML 19] • https://arxiv.org/abs/1901.10450 • Ad allocationにおける不公平に対処 • Fair coverageを達成するように制約 • revenueの制約付きnon-convex最適化を行うが,fact convergenceを証明
  90. 90. Stable and Fair Classification [Huang+ICML 19] • https://arxiv.org/abs/1902.07823 • Regularized ERMに公平性制約 or 公平性正則化を入れ た時のstabilityを解析
  91. 91. Noise-tolerant fair classification [Lamy+NeurIPS 19] • https://arxiv.org/abs/1901.10837 • センシティブ属性にノイズが入っている場合における学習 アルゴリズム • ノイズを考慮してより強い制約を科す • 差分プライベートなセンシティブ属性を使った学習として みたときの解析もあり
  92. 92. The Fairness of Risk Scores Beyond Classification: Bipartite Ranking and the xAUC Metric [Kallus+NeurIPS 19] • https://arxiv.org/abs/1902.05826 • スコアベースのランキング予測問題における公平性 • 新しく定義したxAUCの一致性によって公平性を定義
  93. 93. Policy Learning for Fairness in Ranking [Singh+NeurIPS 19] • https://arxiv.org/abs/1902.04056 • 文章セットとそのrelevance scoreが与えられる • その上で公平性に配慮しつつutilityを最大にする確率的ラ ンキングを求める
  94. 94. Average Individual Fairness: Algorithms, Generalization and Experiments [Kearns+NeurIPS 19] • https://arxiv.org/abs/1905.10607 • 同一個人に複数の2値ラベルがデータとして与えられる • ラベルはiidに複数の関数が生成され,別にiidに生成され た個人に関数を適応する形でえらえる • ゴールは誤差最小となる関数の分布を得ること • この設定上で関数の分布に対して平均的な個人公平性を与 えて • その学習アルゴリズムとサンプル複雑度を求めている
  95. 95. Paradoxes in Fair Machine Learning [Goelz+NeurIPS 19] • https://papers.nips.cc/paper/9043-paradoxes-in- fair-machine-learning • 複数のbucketがあってそれにリソース配置する問題にお いてequalized odds制約を課す • 制約下における最適配置を求めた • [Hardt+ICML 16]の後続
  96. 96. Leveraging Labeled and Unlabeled Data for Consistent Fair Binary Classification [Chzhen+NeurIPS 19] • https://arxiv.org/abs/1906.05082 • Equal opportunity制約下でのsemi-supervised learning • consistencyの証明 • AsymptoticにEqual opportunityの達成と同時に最適 分類器に収束
  97. 97. Near Neighbor: Who is the Fairest of Them All? [Har-Peled+NeurIPS 19] • https://arxiv.org/abs/1906.02640 • Fair nearest neighbor問題 • 半径r内の点をuniformにサンプルする問題 • 計算量の解析など
  98. 98. Inherent Tradeoffs in Learning Fair Representations [Zhao+NeurIPS 19] • https://arxiv.org/abs/1906.08386 • [Zemel+ICML 13のFair Reperesentationから分類器を 作った時に公平性がどうなるか解析 • またutility-fairness trade-offも解析
  99. 99. Exploring Algorithmic Fairness in Robust Graph Covering Problems [Rahmattalabi+NeurIPS 19] • https://papers.nips.cc/paper/9707-exploring- algorithmic-fairness-in-robust-graph-covering- problems • Robust graph cover問題における公平性 • ノードがグループで分かれている • 少なくともW個の同一グループのノードを選択する必要が ある • 公平性制約によるcoverの悪さの解析やNP-Hardなので近 似アルゴリズムを開発

×