Successfully reported this slideshow.
Your SlideShare is downloading. ×

最新事例紹介資料 異常検知 + alpha(2018.10.15)

Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Loading in …3
×

Check these out next

1 of 6 Ad

More Related Content

Recently uploaded (20)

Advertisement

最新事例紹介資料 異常検知 + alpha(2018.10.15)

  1. 1. 最新事例紹介資料 2018/10/15 岐阜大学 加藤研究室 中塚俊介
  2. 2.  A Generalized Active Learning Approach for Unsupervised Anomaly Detection Tiago Pimentel, Marianne Monteiro, Juliano Viana, Adriano Veloso, Nivio Ziviani https://arxiv.org/abs/1805.09411 (ICLR2019 OpenReview)  A Multi-modal one-class generative adversarial network for anomaly detection in manufacturing Anonymous https://openreview.net/forum?id=HJl1ujCct7 (ICLR2019 OpenReview)  Generative Ensembles for Robust Anomaly Detection Anonymous https://openreview.net/forum?id=B1e8CsRctX (ICLR2019 OpenReview)  Large Scale GAN Training for High Fidelity Natural Image Synthesis Andrew Brock, Jeff Donahue, Karen Simonyan https://arxiv.org/abs/1809.11096 (ICLR2019 OpenReview) 2 目次
  3. 3.  異常データの分布の情報が無ければ,教師なし異常検知は学習できない  Active Learningを使ったImbalanced Datasetに対する訓練方法を提案?  不確実性の高いデータに対して,ExpertがModelに再度教え込む構造 3 A Generalized Active Learning Approach for Unsupervised Anomaly Detection 最終的にはClassification ⁉
  4. 4.  Complementary GAN + Prior Information  Generator : z と cx (prior info) からLow density なデータを生成  Discriminator : 正常がtrue,Low density なデータがfake 4 A Multi-modal one-class generative adversarial network for anomaly detection in manufacturing feature matching 生成分布と Low density 分布のKLD 相互情報量 GAN Loss recallを上げるため FPRももちろん上がる
  5. 5.  GANをEnsembleにして,複数のDiscriminatorでtrue/fakeを判定する  Discriminator1つでは,OoD (Out of Distribution)に対して弱い  Generatorの作る生成分布はTraining毎に変わる ⇒ということは,D(x)も変わってくる  複数のDiscriminatorの出力をWAICで最終判定とする 5 Generative Ensembles for Robust Anomaly Detection Cifar10で学習したGlowの尤度 Ensemble GANのWAIC
  6. 6.  BigGAN  SAGANをベースにチャネル数とバッチサイズをBigに  truncation trick  訓練時はpzは,normal  生成時にはpzは,truncated normal  quality と diversity のtrade off あり  truncateによって飽和が発生し,生成精度が落ちるため, Generatorの出力をSmoothにする(直行正規化を使用) 6 Large Scale GAN Training for High Fidelity Natural Image Synthesis 128 core のtpuを48h 使用  精度を上げるにはBatchsizeを上げる必要あり  ただそれに耐えうる計算リソースが必要

×