SlideShare a Scribd company logo
予測の反実仮想説明の調査報告
2022年10⽉21⽇
株式会社 電通国際情報サービス
X(クロス)イノベーション本部 AIトランスフォーメーションセンター
太⽥ 真⼈
⾃⼰紹介
n 太⽥ 真⼈
n ISIDでデータサイエンティストをしています。
n お仕事は、AI製品開発、データ分析案件、研究など
n 最近は、⼈とAIの協調など、HCIに興味があります。
n この資料は、予測の反実仮想説明のサーベイです。
n 基礎的な内容とテーブル、画像、テキストに対する反実仮想説明を紹介しています。
n サーベイ論⽂をまとめたわけではなく、⾃分で検索して調べたため、⾼い網羅性があるとは⾔えません。
n 各スライドの末尾に引⽤論⽂名と国際会議名を載せました。
はじめに
n予測の反実仮想説明とは
nどこで使えるのか
nどんな事例があるか
n反実仮想サンプルの基本的な考え⽅
nテーブル︓AzureMLに実装されているDiCEを使ってみた。
n画像︓ OmniXAIを使ってみた。
nテキスト︓Polyjuiceを使ってみた。
nまとめ
アジェンダ
3
n 予測の反実仮想説明とは、予測結果を期待する出⼒に変化させるため、特徴量に対して最⼩の摂動を加えた
サンプルベースの説明⽅法
n 反実仮想のサンプルを作成することで、モデルがどのように意思決定を⾏うのか、個々のサンプルがどのように解釈
されるかを知ることができる。
n 「もし〜だったらどうなっていたか」「なぜ」という問いに答える。
n この説明⼿法は、与えられた⼊⼒に対して、期待する結果を得るための摂動を求める問題に帰着する。
予測の反実仮想説明とは
オリジナル
サンプル
反実仮想サンプル
予測結果
予測結果
摂動 Perturb
予測
予測
期待する出⼒か︖
技術の肝
4
n なぜ、反事実(⾏動の結果に基づく反事実でなく、観察レベルの⽅)の結果を知りたいのか︖
n ⼿元にデータがなくとも、今後のことを⾒据えた対策を事前に取りたいから
なぜ必要なのか
ロバスト評価 誤差分析 予測の説明
MLエンジニア向け データサイエンティスト向け 意思決定タスクに携わる⽅向け
特定条件下で予測傾向の把握
ルールベースの検討へ
誤差の⼤きい原因の調査
精度改善へ
「もしも」の把握
意思決定に反映へ
特徴
分
類
確
率
未
観
測
サンプルB
反実仮想B
サンプルB
反実仮想B
どうすれば正しいクラスになる︖
どこまで正しい挙動︖ もしも、少し違ったらどうなる︖ 5
法律関連 、ヘルスケア、⾦融業界
AIの結果に対するお客様への説明補強
- 与信審査がなぜ落ちたのかを伝え、次に繋げる
- 「なぜ」から、リスクのあるAI投資の意思決定の後押しになる
- 裁判、病院、保険会社が、結果と説明をお客様に共有し、納得を与える
AIの理解とAIへの信頼
- 「もし」、「なぜ」、を通じて⼈々に信頼を与える
- 医師はいつ、どのようにAIに頼ればいいのかがわかる
- 予測から説明へのユーザーインタラクションを通してモデルの理解が促進される
応⽤領域
6
反実仮想サンプルの
基本的な考え⽅
n[Wachter+ 17] が発表した多くの論⽂の根幹の考え⽅
nx︓オリジナルサンプル, y︓オリジナルラベル
nxʼ︓x の反実仮想(CF)サンプル, yʼ︓期待するラベル
反実仮想サンプルを求める最適化の考え⽅
⼊⼒空間は離れず
予測は期待ラベル
に近づける
[Arxiv 20] Counterfactual Explanations for Machine Learning: A Review 8
(1) Validity︓有効性
(2) Actionability ︓⾏動可能性
(3) Sparsity︓スパース性
(4) Data Manifold closeness ︓データ多様体との近接性
(5) Causality ︓因果性
理想的な反実仮想例
⼈間が理解できて、実現可能性が⾼く、オリジナルなサンプルに似ていること。
先の定式化では、まだ不⼗分です。
反実仮想例に求められること
9
n 有効性は反実仮想例が予測されたとき、期待するクラスに属するかを表す。
n 最適化した結果、期待するクラスにならないこともある。
n ⽣成された反実仮想例の総数K に対する、期待クラスラベルを持つ反実仮想例の⽐率を測定する。
n 妥当性が⾼いほど望ましい。ほとんどの論⽂がこの性質を報告している。
有効性(Validity)
Validity =2/2 10
n テーブルデータでは、変更可能な特徴と不可能な特徴がある。
n 推薦の場合、どの特徴が変更可能で(例えば、収⼊、年齢)、どの特徴が変更不可能か(例えば、⼈種、出
⾝国)についての考察が重要。
n 推奨される反実仮想は、決して不変の特徴を変更してはならない。
n ⾏動可能な特徴の集合をA と呼び、損失関数を次のように更新することができる。
⾏動可能性 Actionability( Rationality )
⾏動範囲を制限
[IUI 20] ViCE: Visual Counterfactual Explanations for Machine Learning Models 11
n 変更する特徴の数と、摂動の⼤きさには、トレードオフが存在する。
n 反実仮想は、理想的には、より少ない数の特徴を変更する必要がある。
スパース性(Sparsity)
[FAT20] Explaining Machine Learning Classifiers through Diverse Counterfactual Explanations
オリジナル
L0/L1 ノルム
12
n 反実仮想サンプルは、学習データに近く、実現性が⾼いことが望まれる。
n 近接性は、オリジナルサンプルからの反実仮想の距離を測定する。
データ多様体との近接性(Data Manifold closeness )
データセットに近いか
評価指標
望ましい
13
n データセット中の特徴が独⽴であることは稀であり、現実世界では⼀つの特徴を変更すると他の特徴に影響を与
える。
n 例えば、新しい学位を取得するためには、年齢を少なくとも上昇させることが必要である。
n 現実的で実⾏可能であるためには、反実仮想は特徴間の既知の因果関係を維持する必要がある。
Ø因果グラフの活⽤
n テキストだとどうなるのか︖
n x = “⼩学⽣がテーマパークに⼦供料⾦で⼊った。”
n CF(x) = “⾼校⽣がテーマパークに学⽣料⾦で⼊った。”
n 学⽣と⼊場料の因果関係を踏まえた反実仮想サンプルが作れるのか︖
因果性(Causality)
学⽣
⼊場料
14
n テーブルデータは最適化アルゴリズムから反実仮想を求めることが多い。
n 画像やテキストの⾮構造データは⽣成モデルを⽤いることが多い。
反実仮想アルゴリズム
画像・テキスト系
テーブル系
Azure ML提供
Polyjuice
後で紹介
G
P
T
2
元図 [Arxiv 21] MCCE: Monte Carlo sampling of realistic counterfactual explanations 15
関連⽤語
反実仮想例と類似する概念の説明
説明
1と予測したのは右の訓練
画像があったから。
説明
たとえ、右の⽣成画像のよ
うでも9と予測します。
(⽣成画像の⽅がより分類
境界に近い)
説明
もし、画像が真ん中や右の⽣成画像の
ようになれば8と予測します。
⼀般的なテーブルデータではなく、画像を例にfactualとsemi-factualとcounterfactualを紹介
左の画像に対して、その説明を右の画像がそれぞれしている。
[AAAI 21] On Generating Plausible Counterfactual and Semi-Factual Explanations for Deep Learning 17
n敵対的学習(Adversarial Learning )
Ø敵対的学習は、与えられた⼊⼒を異なる分類にするために、⼊⼒に最⼩限の変化を与えることを⽬的とし
ている。
Ø敵対的学習の設定には⼈間に気付かないノイズレベルを⼊⼒に与えることが多い。
Ø⼀⽅で、反実仮想説明では、⼈間が検出可能で、理解可能で、もっともらしいものでなければならない。
関連する⽤語
オリジナル CF
オリジナル AE
[arXiv 13] Intriguing properties of neural networks
[ACL18] Semantically Equivalent Adversarial Rules for Debugging NLP Models
敵対的サンプル 反実仮想サンプル
18
n対照的説明(Contrastive explanation )
Øwhy P, rather than Q? 「なぜQではなくPなのだろう。」を説明することを⽬指す。
Ø会計⼠でなく、なぜ⻭医者かと、⾔われると(2)の⻩⾊の所属機関が理由
Ø結果、ある事象が他の事象と対照的になぜ起こったのかが明らかになる。
n半事実説明(Semi-Factual Explanation)
ØEven if 「たとえ、何かをしても結果は変わらないだろう。」を出⼒することを⽬指す。
Ø半事実説明は、分類結果を変えないギリギリのサンプルを提⽰する。
関連する⽤語
反実仮想
事実
半事実
[EMNLP21] Contrastive Explanations for Model Interpretability
[AAAI21] On Generating Plausible Counterfactual and Semi-Factual Explanations for Deep Learning 19
テーブルデータの
反実仮想説明
nAzureMLでは、テーブルデータに対して、DiCEが実装されている。
nDiCE( Diverse Counterfactual Explanations)
Ø複数の反事実を求める
Øモデルに依存しない計算⽅法(Azure対応)
• ランダムサンプリング
• KD-Tree (トレーニング データ内の反事実)
• 遺伝的アルゴリズム
Øモデルに依存する計算⽅法
• 勾配ベースな⽅法
AzureMLの反実仮想説明
https://learn.microsoft.com/ja-jp/azure/machine-learning/concept-counterfactual-analysis
[FAT20] Explaining Machine Learning Classifiers through Diverse Counterfactual Explanations
21
n 以下のように簡単に定義できる。
1. 対象データと推論モデルの選択
2. 反実仮想サンプルを求める⽅法の選択
3. 現実的に変更可能な特徴の設定
4. 特徴の可動領域の設定
DiCEの実装
https://github.com/interpretml/DiCE/blob/master/docs/source/notebooks/DiCE_getting_started.ipynb
著者チュートリアルから抜粋
22
n データは、DiCEのチュートリアルを例にUCIリポジトリのAdultのデータで実験した。
n タスクは年収が$50Kを超えるかの⼆クラス分類(1︓超える、0︓超えない)
n サンプル例に対して、反実仮想サンプルを4つ⽣成した。性別が変わるなど実現性に無理がある。
やってみた。
https://archive.ics.uci.edu/ml/datasets/adult
年収が$50Kを超えるには︖
23
n 先の例に、仮に年齢と教育と職業のみを変更可能とする。
n 結果、年齢が77や90になっている。現実的な範囲が求められる。
変更可能な特徴を絞る
年収が$50Kを超えるには︖
24
特徴の可能な範囲を狭める
n 先の例に、年齢の範囲を[20,60]とする。
n 結果、四捨五⼊した61歳までの範囲の結果が求められる。
n この場合、年齢が60歳になるまでに教育を受け、職業を変えると超えられるらしい。
年収が$50Kを超えるには︖
25
画像データの
反実仮想説明
n salesforceが公開している説明性のライブラリ。
n 2022年6⽉にArxivでプレプリントも出てている。
n テーブルだけでなく、テキスト、画像、時系列も説明性対応している。
OmniXAI: A Library for Explainable AI
https://github.com/salesforce/OmniXAI 27
n OmniXAIを⽤いると数⾏で実装でき、数秒で結果が得られる。
n ほとんどが納得のいく結果が得られた。
MNISTを⽤いた反実仮想サンプル
チュートリアル︓https://opensource.salesforce.com/OmniXAI/latest/tutorials/vision/ce_torch.html 28
この線があると
9に⾒える。
より現実的なデータセットで試した
https://ebird.org/species/houfin
本物のhouse finch
https://ebird.org/species/greegr
本物のgreat egart
n Resnet50を⽤いて、CUB 200 2011のデータセットで実験してみた。⼀枚につき数⼗秒はかかる。
n 反実仮想サンプルを作ったが、予想通りノイズレベルの摂動に留まる。
CUB -200-2011: https://www.vision.Caltech.edu/datasets/cub_200_2011/ 29
n 先のように、画像上ではどうしても摂動がノイズになり、説明にならない。
n そこで摂動対象を概念活性化ベクトル [Kim 18] に変えたConceptual Counterfactual Explanations(CCE)を提案
n 説明⽅法は図c)のように、間違えた予測を正しい予測に変えるために必要な概念ベクトルが緑で⽰される。
n 図c)はシマウマなのにストライプがないために別クラスになっているとわかる。
概念レベルの反実仮想例に向けて
[ICML 22] Meaningfully Debugging Model Mistakes using Conceptual Counterfactual Explanations 30
n 概念活性化ベクトル Concept activation vectors (CAVs) [Kim 18]の算出⽅法を説明する。
1. まず概念は⼈が定義する。 定義をするのは、ドメインエキスパートが望ましい。
2. 次に各概念に対する正例と負例を訓練データから100件程度選ぶ。
3. 選択データを分類器の中間層の特徴量でSVM分類器を学習し、分類境界の法線ベクトルを概念ベクトルとする。
n 図だとストライプの概念をベクトルを計算している。
n こうして、各概念ベクトルを計算し、説明時に利⽤する。
⾃然画像の場合は以下の⼀般概念170個を定義していた。
(a) 特定の物体の存在(例︓鏡、⼈物)
(b) 状況(例︓道路、雪)
(c) 質感(例︓ストライプ、⾦属)
(d) 画像の質(例︓ぼやけ、緑)
概念活性化ベクトルの算出⽅法
31
n 先の概念ベクトルを⽤いて、ある画像を正しいクラスに変える場合、どの概念ベクトルが必要か計算する。
n つまり、特徴空間上で、どの概念ベクトルを今の特徴ベクトルにたせば正しいクラスになるのか求める。
n 図b)だとシマウマが⽝側に分類されており、オレンジのベクトルを⾜すとシマウマになる例である。
n ここで求める摂動はwC になる。
摂動の求め⽅
Sparsity
概念ベクトル数削減
中間特徴 b に概念ベクトルを⾜して最終層 t の結果が
正しいクラス y になるための損失関数
Validity
画像内に既にある概念の重みはゼロ
ある概念だけの説明にならないよう最⼤値も制限
32
n 誤差分析は多くのテストサンプルでモデルの誤りを⼿作業で調べ、誤分類の原因を推測する、アドホックなプロセス
n CCEを⽤いると擬似相関に関してシステマチックに⾒つけられる。
図の説明
n ⽝と雪が⼀緒に写る画像で動物分類モデルを学習すると雪があれば⽝と分類モデルになる。
n テスト画像に草背景の⽝を⼊⼒すると誤分類する。CCEを計算すると雪、⼈、ベッドが上位にくる。
n つまり、このモデルは雪が写っていないと⽝と認識しないことが分かり、擬似相関が⾒抜ける。
CCEによるモデルのデバッグ
33
テキストデータの
反実仮想説明
n テーブルや画像のような最適化による反実仮想説明を求めない。
n ⼈間が、⼿動でテキストを書き換えたり、摂動関数を定義し、反実仮想サンプルを作成する。
n 反実仮想サンプルを推論し、結果から反実仮想説明を求める。
n 紹介するPolyjuiceは⽣成モデルGPT-2を頼り、反実仮想サンプルの作成を効率化する。
n ⼿動でテキストを書き換え
Ø[ACL 20] Beyond accuracy: Behavioral testing of NLP models with CheckList.
Ø[ICLR 20] Learning the difference that makes A difference with counterfactually-augmented data.
n 摂動関数を定義
Ø[ACL 20] Semantically equivalent adversarial rules for debugging NLP models
n 制御可能な⽣成モデルの利⽤
Ø[ACL 21] Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
テキストの反実仮想説明の現状
35
n NLPの反実仮想サンプルは⼈かAIが⽣成している。
n 期待するクラスに予測を変えるにはどうすれば良いのか。
n NLPでは、yʻに対するxʼを求める逆問題が、⽣成x1,…,xn を推論し、yʼになるサンプルを探す問題に変わって
いる。
n ⽣成の条件づけが、⼈が解釈するのに直感的なものかがポイントになる。
テキストの反実仮想は説明性として機能しているのか
Why x’ ? Because
f
⼈が条件を数ある中から決める
⼈かAIにより⽣成
f
,
は対応する を反実仮想説明とする。
Why x’ ? Because
の中に があれば、
従来の⽅法 テキストの場合
36
n 下図は、意味的に違和感のない敵対的⽂章を変換ルールで作成する。
Ø 単語の⾔い換え
n この⽅法は複数のルールから共通する要因を⼈が調べ、予測モデルの傾向に気づかせる。
n 単語を省略形にすると間違う⽐率が⾼いから、このモデルは省略形に弱いと⼈に想起させる。
既存⼿法︓意味的に同じな敵対的⽂章による説明
[ACL20] Semantically equivalent adversarial rules for debugging NLP models
変換ルール
G(z)
z
37
アノテーターに⽂章を修正するよう指⽰しデータ拡張
変更の条件
(a)反実仮想ラベルが適⽤されること
(b)⽂書の⼀貫性を保つこと
(c)不必要な修正をしないこと
n アノテーションの結果
Ø 8つの共通パターンを発⾒(右表)
既存⼿法︓アノテーターに反実仮想サンプルの作成
[ICLR20] Learning the difference that makes A difference with counterfactually-augmented data.
[arXiv 20] Evaluating models’ local decision boundaries via contrast sets.
期待される事実の⾔い換え
⽪⾁の追加
修飾語の挿⼊
修飾語の変換
フレーズの挿⼊
修飾語による感情の減衰
異なる視点
レーティングの変更
G(z)
z
38
既存⼿法︓意図に沿って⼈が反実仮想サンプルを作成
[ACL20] Beyond accuracy: Behavioral testing of NLP models with CheckList.
n ロバスト性を確認するために要件ごとにテキストを⼈が編集し、テス
ト形式で調査しています。
A 単体テスト
Ø 正常動作を確認
B 不変性テスト((Invariance test )
Ø 現実的にラベルが変わらない範囲でワードを変えて予測が不変か確
認
C ラベル変化テスト (A Directional Expectation test)
Ø 元⽂と類似するがラベルが変化する⽂章で正しく予測ラベルが変化
するか確認
G(z)
z
39
n 反実仮想サンプルをGPT-2によって⽣成できること
ü⽣成させたい反実仮想のルールを部分的に制御可能
ü反実仮想⽂章を⼈が作らなくて良い
ü質の⾼い⽂章を作れる
Polyjuiceの良いところ
Polyjuiceの全体構成
⽣成可能な条件リスト
z G(z)
[ACL 21] Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models 40
n 元⽂章の[BLANK]部分に対して、否定的な⽂章を⽣成してみた。
1. # the base sentence
2. text = "It's sunny today, so we'll play outside."
3. b_text = "It's sunny today, so we [BLANK] outside.”
4. pj = Polyjuice(model_path="uw-hai/polyjuice", is_cuda=True)
5. perturbations = pj.perturb(
6. orig_sent=text, #オリジナル⽂章
7. blanked_sent=b_text, #ブランク付き⽂章
8. ctrl_code=“negation”, #制御ルール
9. perplex_thred=5, #⽣成⽂章の質の閾値
10. num_perturbations=3, #⽣成⽂の返り値の最⼤数
11. )
12.print(perturbations)
[Out]: ["It's sunny today, so we don't need to play outside.", "It's sunny today, so we don't have to go outside."]
やってみた
41
n 制御ルールを与えずに⽣成させることも可能。
Text =“週末に台⾵が来るから、どこにも出かけられない。”
A typhoon is coming this weekend, so I can't go out anywhere.
⽣成結果
n "今週末は台⾵が来るから、海に⾏けないよ”
n "今週末は台⾵が来るから、どこにも出かけられないよ”
n "今週末は台⾵が来るから、仕事に⾏けないよ"
n "I have a typhoon this weekend, so I can't go to the beach.”
n "The typhoon is coming this weekend, so I can't go out anywhere.”
n "I have a typhoon this weekend, so I can't go to work."
別の⽣成例
42
nモデルの説明
ØSHAPの重要度が⾼い単語、または重要度が低い単語の反実仮想サンプルを⽣成
Øユーザーは、反実仮想のモデルの予測結果を予想してもらい、そのエラー率で質の⾼い反実仮想例を⽣成
できたか評価する。
nモデルの評価
Ø制御ルールで⽣成した反事実仮想例をアノテーションして Contrast sets とし、モデルを評価
Ø Contrast sets は、分類境界上のサンプルで構成されるテストデータセット
Ø分類モデルの性能が下がることが予想される。
nモデルの改善
Ø反実仮想サンプルをデータ拡張として利⽤する。
Ø次ページで説明
Polyjuiceの使い道
43
n 反実仮想サンプルをデータ拡張として利⽤する。
n 感情分析の場合、精度が変わらないことが多い。
n オレンジのContrast sets に関しては、分類境界上のロバスト性が⾼まったことで精度が上がったと考えられる。
Polyjuiceの使い道︓モデルの改善
44
まとめ
n 反実仮想説明の概要と求められることを紹介しました。
n テーブル、画像、テキストに対して、簡単な実装例と最新論⽂の紹介をしました。
n 画像は、概念レベル(背景雪、⽬の⾊、⽿の形)で反事実を得ようとしてます。
n テキストは、条件をもとに⽂章を多数⽣成し、テストケースで反事実を得ようとしています。
n 画像とテキストに共通して、⼈間のドメイン知識を解釈⼿法に組み込もうとしています。
Ø 画像の場合、概念をベクトル化する際に、概念の選別は⼈が決めます。
Ø テキストの場合、⽣成させる条件を⼈が決めます。
n 業務知識のある⼈たちが⾃分の意思決定する要因を洗い出し、それらを解釈⼿法に組み込むことで信頼のある
AIに近づくと考えます。
まとめ
46

More Related Content

What's hot

SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
Counterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイCounterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
ARISE analytics
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
Tomoki Hayashi
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
Classi.corp
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のり
cvpaper. challenge
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
Arithmer Inc.
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
joisino
 

What's hot (20)

SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
Counterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイCounterfaual Machine Learning(CFML)のサーベイ
Counterfaual Machine Learning(CFML)のサーベイ
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
Visualizing Data Using t-SNE
Visualizing Data Using t-SNEVisualizing Data Using t-SNE
Visualizing Data Using t-SNE
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話pymcとpystanでベイズ推定してみた話
pymcとpystanでベイズ推定してみた話
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
コンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のりコンピュータビジョン分野メジャー国際会議 Award までの道のり
コンピュータビジョン分野メジャー国際会議 Award までの道のり
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 

Similar to テーブル・テキスト・画像の反実仮想説明

大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺n_hidekey
 
おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルートIssei Kurahashi
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII
 
【SSII2015】人を観る技術の先端的研究
【SSII2015】人を観る技術の先端的研究【SSII2015】人を観る技術の先端的研究
【SSII2015】人を観る技術の先端的研究
Hirokatsu Kataoka
 
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
nlab_utokyo
 
Opencv object detection_takmin
Opencv object detection_takminOpencv object detection_takmin
Opencv object detection_takmin
Takuya Minagawa
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
サブカルのためのWord2vec
サブカルのためのWord2vecサブカルのためのWord2vec
サブカルのためのWord2vec
DeNA
 
オープンなデータベースを利用した行動計画提案に関する研究
オープンなデータベースを利用した行動計画提案に関する研究オープンなデータベースを利用した行動計画提案に関する研究
オープンなデータベースを利用した行動計画提案に関する研究
Fumihiro Kato
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)kanejaki
 
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
Takuya Minagawa
 
bigdata2012ml okanohara
bigdata2012ml okanoharabigdata2012ml okanohara
bigdata2012ml okanohara
Preferred Networks
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Daiki Shimada
 

Similar to テーブル・テキスト・画像の反実仮想説明 (20)

大規模画像認識とその周辺
大規模画像認識とその周辺大規模画像認識とその周辺
大規模画像認識とその周辺
 
おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルート
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
 
【SSII2015】人を観る技術の先端的研究
【SSII2015】人を観る技術の先端的研究【SSII2015】人を観る技術の先端的研究
【SSII2015】人を観る技術の先端的研究
 
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
 
Opencv object detection_takmin
Opencv object detection_takminOpencv object detection_takmin
Opencv object detection_takmin
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
サブカルのためのWord2vec
サブカルのためのWord2vecサブカルのためのWord2vec
サブカルのためのWord2vec
 
オープンなデータベースを利用した行動計画提案に関する研究
オープンなデータベースを利用した行動計画提案に関する研究オープンなデータベースを利用した行動計画提案に関する研究
オープンなデータベースを利用した行動計画提案に関する研究
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
 
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
 
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
 
Bnlearn tokyo r29th
Bnlearn tokyo r29thBnlearn tokyo r29th
Bnlearn tokyo r29th
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
bigdata2012ml okanohara
bigdata2012ml okanoharabigdata2012ml okanohara
bigdata2012ml okanohara
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
 

More from tmtm otm

自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
tmtm otm
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
tmtm otm
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
tmtm otm
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
tmtm otm
 
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
tmtm otm
 
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
tmtm otm
 
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
tmtm otm
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
tmtm otm
 
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
tmtm otm
 
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3 PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm
 
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
tmtm otm
 
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2 PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
tmtm otm
 

More from tmtm otm (16)

自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -自然言語処理における深層学習を用いた予測の不確実性  - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
 
予測の不確かさのユーザー調査
予測の不確かさのユーザー調査予測の不確かさのユーザー調査
予測の不確かさのユーザー調査
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
 
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性についてICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
 
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
 
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
 
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
 
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似  3.5 3.6.1PRML エビデンス近似  3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
 
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
 
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3 PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
 
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
 
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2 PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
 

テーブル・テキスト・画像の反実仮想説明