SlideShare a Scribd company logo
最新の異常検知論⽂ (2019/10/05)
ぱんさん@パンハウス別館 + 鶯⾕園
異常検知とは︖
n 1: ある画像のよごれや傷などの異常を検知する (⼀般的な異常検知)
n 2: 訓練分布のカテゴリ以外のカテゴリを検知する (Out-of-distribution 検知)
n 似た問題設定
n Open set recognition: In-distributionの分類 + OOD検知
n Generalized zero-shot learning: In-distributionの分類 + OODの分類
1 2
OOD検知の基本的な2つの問題設定
n 1: 教師なしOOD検知 (訓練分布のラベルが与えられない)
n ⽣成的なアプローチ
n 2: 教師ありOOD検知 (訓練分布のラベルが与えられる)
n 識別的なアプローチが多い
訓練データ テストデータ
正常 異常
訓練データ テストデータ
正常 異常⽝ ⿃
異常データには基本的に前もってアクセスできない
今回紹介する論⽂を⼀⾔でいうと
n ICML 2019: Anomaly Detection With Multiple-Hypotheses Predictions
n 鮮明な画像を出⼒するために複数の画像を予測し,画像中の傷やよごれを検知 (異常検知)
n NIPS 2019: Likelihood Ratios for Out-of-Distribution Detection
n ノイズをいれる and いれないモデルの尤度⽐を使ってOOD検知 (教師なしOOD検知)
n ICLR 2020: Learning Out-of-distribution Detection without Out-of-distribution Data
(under review)
n 分布内ドメインで条件づけた確率分布をNNでモデル化してOOD検知 (教師ありOOD検知)
n 問題意識:
n VAEなどのオートエンコーダベースの予測は画像がぼやけるため,画像中の異常を判定できない
n そもそもぼやけた画像は訓練データにはないため,それ⾃体も異常である
n 解決策:
n デコーダが複数の画像を予測することによって,鮮明な画像を出⼒する
n 出⼒した画像がデータ分布に近づくように敵対的学習を⾏う
n 実験:
n CIFAR-10を使って⼀つのクラス以外のクラスを異常としたときに性能がでることを確認
n メタルデータセットを利⽤して異常箇所を検知することができるのを確認
概要: Anomaly Detection With Multiple-Hypotheses Predictions
関連論⽂: Learning in an Uncertain World: Representing Ambiguity Through
Multiple Hypotheses (ICCV 2017)
n 複数のモード or 不確実性があるときに⼀つの予測で出⼒しようとすると,それらを平均し
たようなぼやけた画像が出⼒されてしまう (図: SHP)
n 複数の予測を⾏うことによって,それぞれの予測ごとに鮮明な画像を出⼒させることができ
る (図: 3-MHP)
n 図:
n input: 時間ごとの⾞の位置
n target: ⾞が最終的に移動した位置
n ⼿法:
n 出⼒空間でボロノイ分割し,
複数の出⼒のロスを最⼩化する
イントロ: 既存⼿法の⽋点と提案⼿法による改善
n (a)はテスト画像で⾚枠は異常部分
n (b)はオートエンコーダによる再構成でぼやけるため,異常を発⾒するのが難しい
n (c)は提案⼿法による再構成で画像が鮮明に出⼒されている
n ⻘い画像はピクセルごとのNLLを測っており,これによって異常度を可視化できる
提案⼿法: デコーダによる複数の出⼒
n デコーダの確率分布を利⽤して複数の出⼒を⾏う
n それぞれのピクセルごとにガウシアンを仮定
n 損失関数は3つの項で構成される
n WTA 損失項
n 潜在変数を正規分布に近づける項
n Discriminatorによる正則化項
n WTA損失最⼩化
n 最もサンプルの尤度が
⼤きくなる𝜃"を学習する
Discriminator
による正則化
エンコーダの
正則化
winner-takes-all
損失
提案⼿法: 敵対的制約𝐿$
n Discriminatorによる正則化
n 出⼒した複数の予測が,本物のデータ
分布に近づくようにするため
n WTA損失は他の仮説に対して全く制約
を課していない
n Dは訓練時のみ利⽤ random sample image
データを再構成した
複数の仮説
最も良い仮説
の組み合わせ
実験1: CIFAR-10
n あるクラスを正常・その他のクラスを異常としたときのAUROCのスコア
n まあまあ良い結果
平均AUROC
実験2: Metal Anomaly data-set
n 定性的実験: VAEよりもConADの⽅が鮮明な画像を出⼒して,異常箇所も検知できている
n 定量的実験: ConADが基本的に良いAUROCスコア
VAE ConAD
n 問題意識:
n 深層⽣成モデルの尤度を⽤いてOOD検知する⽅法は,背景情報に強く影響をうける
n 解決策:
n ノイズを⼊れた尤度と⼊れなかった場合の尤度の⽐を利⽤することで,背景(background)情報を無
視し,物体(semantic)情報のみに注⽬する
n 実験:
n semanticな情報の尤度に着⽬できているかどうかの定性的な実験
n Fashion-MNISTをin-distribution,MNISTをOODとしたときにSOTAの性能がでることを確認
n DNAの系列データにおいても異常データを検知できることを確認
n ACGTの⽂字列データ
概要: Likelihood Ratios for Out-of-Distribution Detection
関連論⽂: Do Deep Generative Models Know What They Don't Know? (ICLR 2019)
n 深層⽣成モデルで,あるデータ
セットの分布を学習する
n 学習に使っていない別のデータ
セットを⼊⼒としたときに,何
故か尤度がより⾼くなる現象が,
いくつかのデータセットやモデ
ルで起こる
n すなわち,OOD検知に⽣成モデ
ルは使えないのではないか︖
n → でも頑張るのが今回の論⽂
参考: https://qiita.com/exp/items/518950b80a9d06fe1fdb
イントロ: 背景情報をデータから取り除きたい
n 尤度は背景情報に強く影響をうけることを実験的に確認
n (a): Fashion-MNISTでモデルを学習したとき,MNISTの尤度はそれより⾼くなってしまう
n (b): 尤度とピクセル値が0の数の割合は相関している
n → 背景情報を取り除けば,(a)の現象を解決できる可能性がある︖
提案⼿法: 尤度⽐を⽤いる
n ⼊⼒は background 要素 + semantic 要素 に分解できることを仮定
n このとき,それらの確率は独⽴であると仮定
n ノイズをいれて学習したモデルを 𝑝&'
(𝑥),ノイズを⼊れずに学習したモデルを𝑝&(𝑥)とする
n ノイズはベルヌーイ分布(μ=0.1~0.2)で与える
n これらの尤度⽐は
n 背景において, であることを仮定すると,尤度⽐は,
実験1: 尤度⽐がsemanticな情報を捉えられているか
n 尤度値は背景のピクセルのほうがsemanticなピクセルより⼤きくなってしまっている
n 尤度⽐の値はsemanticなピクセルのほうが⼤きい値を持つことがわかる
実験2: 異常データとどのくらい分離できるかを定量的に実験
n 2つのデータセット(Fashion-MNISTとゲノムデータ)においてSOTAの検知精度を確認
in-distributionのラベル情報を使わずに
ここまで精度でるのはすごいが,
CIFAR10 vs SVHNだとそこまで精度はでてない →
model: LSTMmodel: pixelCNN++
n 問題意識:
n ハイパラチューニングをあるOODデータセットでした場合,他のOODデータセットに汎化しない
n OODは前もって定義することはできず,その選択は学習にbiasを与えてしまう
n 解決策:
n そもそもin-distributionのデータしか使わない
n 分布内で条件づけた確率分布をNNでモデル化してOOD検知する
n 実験:
n 異常データを検証として全く使わずにSOTA
n どのような異常データに対して苦⼿なのかを分析
概要: Learning Out-of-distribution Detection without Out-of-distribution Data
関連論⽂: A Baseline for Detecting Misclassified and Out-of-Distribution
Examples in Neural Networks (ICLR 2017)
n max p(y|x): ソフトマックスの出⼒の最⼤値をOODの指標として使う
n アイデア: OODは予測分類が曖昧になるはず
n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常
n 良い点: 改めてモデルを再訓練する必要がない・OODの検証⽤データが必要ない
⾊点: in-distribution
⽩点: out-of-distribution
実際これだけでも結構分離できる
関連⼿法: ODIN・Mahalanobis
n ODIN: キャリブレーション⽅法
n Mahalanobis: 隠れ層の出⼒をガウス分布
で近似する
n ODIN・MahalanobisはOODの検証⽤
データが必要になる
n ハイパラ調整をしない⽅法で⽐較する
ここでは𝛼, = 1とする
T = 1000とする
提案⼿法: ドメインで条件付けを⾏う
n ランダムノイズを訓練されたMNIST画像分類器に⼊れるとどうなるか︖
n → あるクラスに91%の確率で出⼒される (なぜ︖)
n ソフトマックスは指⽰関数のゆるい近似で,⼀様分布を出⼒するようには学習しないから? (Hendrycks, 2017)
n ドメインで条件付けすることを考えてないからでは︖(この論⽂の著者)
n 分類確率を次のように分解できる
n 𝑥~𝑝012のサンプルを考える
n 分⺟が⼩さいので結果
出⼒が⼤きくなるのでは?
n 𝑝(𝑦45, 𝑑45 𝑥 を学習したい
n OODかそうでないかというラベルが結局必要になる
n どうすればOODデータなしに学習できるのか︖
n 教師なし学習と同じ状況
n 右上の確率分布の分解の式の構造をモデルに組み込むことを考える
訓練データで
学習した分類器
同時分布の確率は低い
ex) 0.09
Inの確率は低くなる
ex) 0.1
提案⼿法: 𝑝(𝑦45, 𝑑45 𝑥 を学習したい
n 𝑝(𝑦45, 𝑑45 𝑥 を学習したい
n 確率分布の分解の式の構造をモデルに組み込むことを考える
n ロジット(𝑓4(𝑥))を分解してモデル化を⾏う
n 𝑓4(𝑥): ラベルに関係する項
n 𝑓9
(𝑥): ソフトマックス⼀層前の出⼒
n 𝑔(𝑥): ラベルに関係しない項
n BN: バッチノーマライゼーション
n OODの判定
n g(x) = 1のときBaselineと同じ式になるので,Baselineの拡張といえる
実験1: いつもOOD検知で使われるデータセット (CIFAR)
n 正直検知性能はかなり強い
n ただ,クラス分類の正解率は
若⼲下がってしまうという⽋
点もある
実験2: 普段使われないデータセット (DomainNet)
n real-Aをin-distributionデー
タとして学習・その他を
OODとして検知する
n Semantic shiftに関しては
若⼲弱い
まとめ
n ICML 2019: Anomaly Detection With Multiple-Hypotheses Predictions
n 複数のモードを捉えるMHPを異常検知に利⽤することを提案.これにより,⼀つのモードしか捉
えられず,平均的な画像を出⼒するオートエンコーダと⽐べて鮮明な画像を出⼒が可能になり,
ピクセルごとの尤度を計算することでテストデータ画像中の傷を検知できることを確認した.
n NIPS 2019: Likelihood Ratios for Out-of-Distribution Detection
n ノイズをいれた場合とノイズをいれない場合の訓練データをそれぞれ深層⽣成モデルで学習し,
それらの尤度⽐を異常検知スコアとして利⽤することを提案.これにより,背景情報を無視し,
物体情報のみに着⽬した検知が可能になった.
n ICLR 2020: Learning Out-of-distribution Detection without Out-of-distribution Data
(under review)
n 分布内ドメインで条件づけた確率分布をベイズの定理で分解し,NNでモデル化することで,訓
練データのみでモデルを学習する⽅法を提案.これにより,OODデータを訓練または検証データ
として全く使わずにOODを検知することを可能にした.

More Related Content

What's hot

【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection model
WEBFARMER. ltd.
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門
Shohei Hido
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知
Hideo Terada
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討
ARISE analytics
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
ぱんいち すみもと
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
ぱんいち すみもと
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
joisino
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
 

What's hot (20)

【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
Introduction to YOLO detection model
Introduction to YOLO detection modelIntroduction to YOLO detection model
Introduction to YOLO detection model
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門Deep Learning Lab 異常検知入門
Deep Learning Lab 異常検知入門
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)SuperGlue;Learning Feature Matching with Graph Neural Networks (CVPR'20)
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
 
画像処理AIを用いた異常検知
画像処理AIを用いた異常検知画像処理AIを用いた異常検知
画像処理AIを用いた異常検知
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討教師なしGNNによるIoTデバイスの異常通信検知の検討
教師なしGNNによるIoTデバイスの異常通信検知の検討
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)ICLR2020の異常検知論文の紹介 (2019/11/23)
ICLR2020の異常検知論文の紹介 (2019/11/23)
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック 大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)最新の異常検知手法(NIPS 2018)
最新の異常検知手法(NIPS 2018)
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 

More from ぱんいち すみもと

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
ぱんいち すみもと
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
ぱんいち すみもと
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
ぱんいち すみもと
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
ぱんいち すみもと
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
ぱんいち すみもと
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
ぱんいち すみもと
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
ぱんいち すみもと
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
ぱんいち すみもと
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
ぱんいち すみもと
 
Dual dl
Dual dlDual dl
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
ぱんいち すみもと
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
ぱんいち すみもと
 
Intro VAE
Intro VAEIntro VAE
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
ぱんいち すみもと
 
PRML 14章
PRML 14章PRML 14章
PRML 9章
PRML 9章PRML 9章

More from ぱんいち すみもと (16)

ICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミICLR・ICML読み会2021 by パンハウスゼミ
ICLR・ICML読み会2021 by パンハウスゼミ
 
Free lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibrationFree lunch for few shot learning distribution calibration
Free lunch for few shot learning distribution calibration
 
Anomaly detection survey
Anomaly detection surveyAnomaly detection survey
Anomaly detection survey
 
最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介最近(2020/09/13)のarxivの分布外検知の論文を紹介
最近(2020/09/13)のarxivの分布外検知の論文を紹介
 
continual learning survey
continual learning surveycontinual learning survey
continual learning survey
 
Variational denoising network
Variational denoising networkVariational denoising network
Variational denoising network
 
Deep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly DetectionDeep Semi-Supervised Anomaly Detection
Deep Semi-Supervised Anomaly Detection
 
Anomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial NetworksAnomaly Detection by Latent Regularized Dual Adversarial Networks
Anomaly Detection by Latent Regularized Dual Adversarial Networks
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
Dual dl
Dual dlDual dl
Dual dl
 
Categorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmaxCategorical reparameterization with gumbel softmax
Categorical reparameterization with gumbel softmax
 
Domain transfer サーベイ
Domain transfer サーベイDomain transfer サーベイ
Domain transfer サーベイ
 
Intro VAE
Intro VAEIntro VAE
Intro VAE
 
パンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoderパンでも分かるVariational Autoencoder
パンでも分かるVariational Autoencoder
 
PRML 14章
PRML 14章PRML 14章
PRML 14章
 
PRML 9章
PRML 9章PRML 9章
PRML 9章
 

Recently uploaded

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 

Recently uploaded (15)

FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 

パンハウスゼミ 異常検知論文紹介 20191005

  • 2. 異常検知とは︖ n 1: ある画像のよごれや傷などの異常を検知する (⼀般的な異常検知) n 2: 訓練分布のカテゴリ以外のカテゴリを検知する (Out-of-distribution 検知) n 似た問題設定 n Open set recognition: In-distributionの分類 + OOD検知 n Generalized zero-shot learning: In-distributionの分類 + OODの分類 1 2
  • 3. OOD検知の基本的な2つの問題設定 n 1: 教師なしOOD検知 (訓練分布のラベルが与えられない) n ⽣成的なアプローチ n 2: 教師ありOOD検知 (訓練分布のラベルが与えられる) n 識別的なアプローチが多い 訓練データ テストデータ 正常 異常 訓練データ テストデータ 正常 異常⽝ ⿃ 異常データには基本的に前もってアクセスできない
  • 4. 今回紹介する論⽂を⼀⾔でいうと n ICML 2019: Anomaly Detection With Multiple-Hypotheses Predictions n 鮮明な画像を出⼒するために複数の画像を予測し,画像中の傷やよごれを検知 (異常検知) n NIPS 2019: Likelihood Ratios for Out-of-Distribution Detection n ノイズをいれる and いれないモデルの尤度⽐を使ってOOD検知 (教師なしOOD検知) n ICLR 2020: Learning Out-of-distribution Detection without Out-of-distribution Data (under review) n 分布内ドメインで条件づけた確率分布をNNでモデル化してOOD検知 (教師ありOOD検知)
  • 5. n 問題意識: n VAEなどのオートエンコーダベースの予測は画像がぼやけるため,画像中の異常を判定できない n そもそもぼやけた画像は訓練データにはないため,それ⾃体も異常である n 解決策: n デコーダが複数の画像を予測することによって,鮮明な画像を出⼒する n 出⼒した画像がデータ分布に近づくように敵対的学習を⾏う n 実験: n CIFAR-10を使って⼀つのクラス以外のクラスを異常としたときに性能がでることを確認 n メタルデータセットを利⽤して異常箇所を検知することができるのを確認 概要: Anomaly Detection With Multiple-Hypotheses Predictions
  • 6. 関連論⽂: Learning in an Uncertain World: Representing Ambiguity Through Multiple Hypotheses (ICCV 2017) n 複数のモード or 不確実性があるときに⼀つの予測で出⼒しようとすると,それらを平均し たようなぼやけた画像が出⼒されてしまう (図: SHP) n 複数の予測を⾏うことによって,それぞれの予測ごとに鮮明な画像を出⼒させることができ る (図: 3-MHP) n 図: n input: 時間ごとの⾞の位置 n target: ⾞が最終的に移動した位置 n ⼿法: n 出⼒空間でボロノイ分割し, 複数の出⼒のロスを最⼩化する
  • 7. イントロ: 既存⼿法の⽋点と提案⼿法による改善 n (a)はテスト画像で⾚枠は異常部分 n (b)はオートエンコーダによる再構成でぼやけるため,異常を発⾒するのが難しい n (c)は提案⼿法による再構成で画像が鮮明に出⼒されている n ⻘い画像はピクセルごとのNLLを測っており,これによって異常度を可視化できる
  • 8. 提案⼿法: デコーダによる複数の出⼒ n デコーダの確率分布を利⽤して複数の出⼒を⾏う n それぞれのピクセルごとにガウシアンを仮定 n 損失関数は3つの項で構成される n WTA 損失項 n 潜在変数を正規分布に近づける項 n Discriminatorによる正則化項 n WTA損失最⼩化 n 最もサンプルの尤度が ⼤きくなる𝜃"を学習する Discriminator による正則化 エンコーダの 正則化 winner-takes-all 損失
  • 9. 提案⼿法: 敵対的制約𝐿$ n Discriminatorによる正則化 n 出⼒した複数の予測が,本物のデータ 分布に近づくようにするため n WTA損失は他の仮説に対して全く制約 を課していない n Dは訓練時のみ利⽤ random sample image データを再構成した 複数の仮説 最も良い仮説 の組み合わせ
  • 11. 実験2: Metal Anomaly data-set n 定性的実験: VAEよりもConADの⽅が鮮明な画像を出⼒して,異常箇所も検知できている n 定量的実験: ConADが基本的に良いAUROCスコア VAE ConAD
  • 12. n 問題意識: n 深層⽣成モデルの尤度を⽤いてOOD検知する⽅法は,背景情報に強く影響をうける n 解決策: n ノイズを⼊れた尤度と⼊れなかった場合の尤度の⽐を利⽤することで,背景(background)情報を無 視し,物体(semantic)情報のみに注⽬する n 実験: n semanticな情報の尤度に着⽬できているかどうかの定性的な実験 n Fashion-MNISTをin-distribution,MNISTをOODとしたときにSOTAの性能がでることを確認 n DNAの系列データにおいても異常データを検知できることを確認 n ACGTの⽂字列データ 概要: Likelihood Ratios for Out-of-Distribution Detection
  • 13. 関連論⽂: Do Deep Generative Models Know What They Don't Know? (ICLR 2019) n 深層⽣成モデルで,あるデータ セットの分布を学習する n 学習に使っていない別のデータ セットを⼊⼒としたときに,何 故か尤度がより⾼くなる現象が, いくつかのデータセットやモデ ルで起こる n すなわち,OOD検知に⽣成モデ ルは使えないのではないか︖ n → でも頑張るのが今回の論⽂ 参考: https://qiita.com/exp/items/518950b80a9d06fe1fdb
  • 14. イントロ: 背景情報をデータから取り除きたい n 尤度は背景情報に強く影響をうけることを実験的に確認 n (a): Fashion-MNISTでモデルを学習したとき,MNISTの尤度はそれより⾼くなってしまう n (b): 尤度とピクセル値が0の数の割合は相関している n → 背景情報を取り除けば,(a)の現象を解決できる可能性がある︖
  • 15. 提案⼿法: 尤度⽐を⽤いる n ⼊⼒は background 要素 + semantic 要素 に分解できることを仮定 n このとき,それらの確率は独⽴であると仮定 n ノイズをいれて学習したモデルを 𝑝&' (𝑥),ノイズを⼊れずに学習したモデルを𝑝&(𝑥)とする n ノイズはベルヌーイ分布(μ=0.1~0.2)で与える n これらの尤度⽐は n 背景において, であることを仮定すると,尤度⽐は,
  • 18. n 問題意識: n ハイパラチューニングをあるOODデータセットでした場合,他のOODデータセットに汎化しない n OODは前もって定義することはできず,その選択は学習にbiasを与えてしまう n 解決策: n そもそもin-distributionのデータしか使わない n 分布内で条件づけた確率分布をNNでモデル化してOOD検知する n 実験: n 異常データを検証として全く使わずにSOTA n どのような異常データに対して苦⼿なのかを分析 概要: Learning Out-of-distribution Detection without Out-of-distribution Data
  • 19. 関連論⽂: A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks (ICLR 2017) n max p(y|x): ソフトマックスの出⼒の最⼤値をOODの指標として使う n アイデア: OODは予測分類が曖昧になるはず n ex) 3クラスのとき,[0.9, 0.05, 0.05]→正常, [0.3, 0.3, 0.4]→異常 n 良い点: 改めてモデルを再訓練する必要がない・OODの検証⽤データが必要ない ⾊点: in-distribution ⽩点: out-of-distribution 実際これだけでも結構分離できる
  • 20. 関連⼿法: ODIN・Mahalanobis n ODIN: キャリブレーション⽅法 n Mahalanobis: 隠れ層の出⼒をガウス分布 で近似する n ODIN・MahalanobisはOODの検証⽤ データが必要になる n ハイパラ調整をしない⽅法で⽐較する ここでは𝛼, = 1とする T = 1000とする
  • 21. 提案⼿法: ドメインで条件付けを⾏う n ランダムノイズを訓練されたMNIST画像分類器に⼊れるとどうなるか︖ n → あるクラスに91%の確率で出⼒される (なぜ︖) n ソフトマックスは指⽰関数のゆるい近似で,⼀様分布を出⼒するようには学習しないから? (Hendrycks, 2017) n ドメインで条件付けすることを考えてないからでは︖(この論⽂の著者) n 分類確率を次のように分解できる n 𝑥~𝑝012のサンプルを考える n 分⺟が⼩さいので結果 出⼒が⼤きくなるのでは? n 𝑝(𝑦45, 𝑑45 𝑥 を学習したい n OODかそうでないかというラベルが結局必要になる n どうすればOODデータなしに学習できるのか︖ n 教師なし学習と同じ状況 n 右上の確率分布の分解の式の構造をモデルに組み込むことを考える 訓練データで 学習した分類器 同時分布の確率は低い ex) 0.09 Inの確率は低くなる ex) 0.1
  • 22. 提案⼿法: 𝑝(𝑦45, 𝑑45 𝑥 を学習したい n 𝑝(𝑦45, 𝑑45 𝑥 を学習したい n 確率分布の分解の式の構造をモデルに組み込むことを考える n ロジット(𝑓4(𝑥))を分解してモデル化を⾏う n 𝑓4(𝑥): ラベルに関係する項 n 𝑓9 (𝑥): ソフトマックス⼀層前の出⼒ n 𝑔(𝑥): ラベルに関係しない項 n BN: バッチノーマライゼーション n OODの判定 n g(x) = 1のときBaselineと同じ式になるので,Baselineの拡張といえる
  • 23. 実験1: いつもOOD検知で使われるデータセット (CIFAR) n 正直検知性能はかなり強い n ただ,クラス分類の正解率は 若⼲下がってしまうという⽋ 点もある
  • 24. 実験2: 普段使われないデータセット (DomainNet) n real-Aをin-distributionデー タとして学習・その他を OODとして検知する n Semantic shiftに関しては 若⼲弱い
  • 25. まとめ n ICML 2019: Anomaly Detection With Multiple-Hypotheses Predictions n 複数のモードを捉えるMHPを異常検知に利⽤することを提案.これにより,⼀つのモードしか捉 えられず,平均的な画像を出⼒するオートエンコーダと⽐べて鮮明な画像を出⼒が可能になり, ピクセルごとの尤度を計算することでテストデータ画像中の傷を検知できることを確認した. n NIPS 2019: Likelihood Ratios for Out-of-Distribution Detection n ノイズをいれた場合とノイズをいれない場合の訓練データをそれぞれ深層⽣成モデルで学習し, それらの尤度⽐を異常検知スコアとして利⽤することを提案.これにより,背景情報を無視し, 物体情報のみに着⽬した検知が可能になった. n ICLR 2020: Learning Out-of-distribution Detection without Out-of-distribution Data (under review) n 分布内ドメインで条件づけた確率分布をベイズの定理で分解し,NNでモデル化することで,訓 練データのみでモデルを学習する⽅法を提案.これにより,OODデータを訓練または検証データ として全く使わずにOODを検知することを可能にした.