SlideShare a Scribd company logo
1 of 20
距離学習を導入した
二値分類モデルによる異常音検知
☆畔栁 伊吹, 林 知樹, 武田 一哉, 戸田 智基 (名大)
1
2021/09/09
異常音検知とは
2
正常 正常 異常 正常
• 対象から発せられる音が正常なのか異常なのかを識別するタスク
• 工場の製造機器・インフラ設備の保守業務の効率化
• 人の入りにくい場所にある機器の監視
異常音検知システムの活用例
ファクトリーオートメーションをはじめとする
第四次産業革命に期待の技術 [1]
[1] B. Bayram, T. B. Duman, and G. Ince, “Real time detection of acousticanomalies in industrial processes using sequential autoencoders,”ExpertSystems,
vol. 38, no. 1, p. e12564, 202
fan :工場の換気に使用
異常内容:電圧低下, 詰まりe.g.
1. 正常データのみでモデルを構築
2. 蓄積した異常データを活用して性能改善
異常音検知における課題
3
正常 正常 異常 正常
異常の要因
異常音の発生は稀 異常音の種類は多様
初期 :正常データのみ
運用中:正常データと少量の異常データ
異常音検知モデルの構築に利用できるデータ
理想
• ヒューマンエラー
• 不具合
• 環境の変化
• 故障 など
異常データを網羅的に収集することは困難
提案手法の位置づけ
4
[2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008
異常音検知
教師あり 教師なし
生成モデル
• 正常データの確率
分布をモデル化
• 異常データの活用
が容易でない
分類モデル
• 正常データと疑
似異常データの
決定境界を学習
• 異常データの活
用が容易
提案手法の位置づけ
5
[2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008
異常音検知
教師あり 教師なし
生成モデル
• 正常データの確率
分布をモデル化
• 異常データの活用
が容易でない
分類モデル
• 正常データと疑
似異常データの
決定境界を学習
• 異常データの活
用が容易
正例 正常 対象機器の正常な動作音
負例
異常 対象機器の異常な動作音
疑似異常 対象機器以外の正常な動作音
疑似異常
本研究の貢献
6
• DDCSAD損失関数の提案
既存の距離学習を用いた手法の性能
を上回る
• 二値分類と距離学習のマルチタ
スク学習
二値分類とDDCSAD損失関数のマ
ルチタスク学習が最も良い性能
提案手法
従来手法:分類モデルによる手法
7
二値分類に基づく手法 [4] 距離学習に基づく手法 [5]
7
[4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020.
[5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020.
二値分類
距離学習
従来手法:二値分類に基づく手法
8
二値分類に基づく手法 [4]
8
[4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020.
目的:特徴量空間を線形分離
• 学習方法
• 正常データを正例,疑似
異常データを負例として
学習
• 疑似異常データの選択基準
• 録音条件の一致
• 対象音との類似性
• コンテンツの多様性
従来手法:距離学習に基づく手法
9
距離学習に基づく手法 [5]
9
[5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020.
目的:正常クラスの
クラス内分散を最小化
Deep Semi-supervised Anomaly
Detection(DSAD)損失関数
𝐿DSAD =
1
𝑁
෍
𝑖=1
𝑁
𝒛𝒊 − 𝒄 2𝑦
疑似異常
• 正常を重心𝒄に近づける
• 疑似異常を重心𝒄から遠ざける
DDCSAD損失関数の提案
10
10
Deep Double Centroids Semi-
supervised Anomaly Detection
(DDCSAD)損失関数
従来:DSAD損失関数
• クラス間分散を最大化
• 事前学習は必要なし
疑似異常
𝐿DDCSAD
=
1
𝑁
෍
𝑖=1
𝑁
𝒛𝒊 − 𝒄𝒑
2𝑦
+ 𝒛𝒊 − 𝒄𝒏
−2𝑦
• 疑似異常を重心𝒄𝒏に近づける
• 正常を重心𝒄𝒏から遠ざける
Benefit
• 正常データの重心
𝑐𝑝のみ
• 重心は事前学習&
固定
• 疑似異常データの重心𝑐𝑛も定義
• 重心をエポック毎に更新
提案:DDCSAD損失関数
提案手法における損失関数
11
11
提案手法
二値分類
• 特徴量空間を線形分離
距離学習
• クラス内分散を最小化
• クラス間分散を最大化
提案手法
𝐿 = 𝐿BCE + λ𝐿DDCSAD
比較した損失関数
12
損失関数名 損失関数 特徴量空間
を線形分離
クラス内分散
を最小化
クラス間分散
を最大化
BCE 𝑳𝑩𝑪𝑬 〇 ✕ ✕
DSAD 𝑳𝐃𝐒𝐀𝐃 ✕ 〇 ✕
DDCSAD 𝑳𝐃𝐃𝐂𝐒𝐀𝐃 ✕ 〇 〇
BCE+DSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐒𝐀𝐃 〇 〇 ✕
BCE+DDCSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐃𝐂𝐒𝐀𝐃 〇 〇 〇
• DDCSAD損失関数の有効性
• 二値分類と距離学習のマルチタスク学習の有効性
明らかにしたいこと
実験条件:データセット
• データセット
• DCASE2020 Task2[6]のデータセットを使用
• ToyADMOS [7] : ToyCar, ToyConveyor
• MIMII Dataset [8] : fan, pump, slider, valve
• 合計6種類のマシンタイプ
• 各機器は7から8種類のマシンIDが割り当てられる
13
異物混入, 詰まり, 漏れ,
油不足, 電圧低下, e.g.
[6] Y. Koizumi, et. la., “Description and Discussion on DCASE2020 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring,” in arXiv e-prints: 2006.05822, June 2020,
異常例
[7] Y. Koizumi, et. la., “ToyADMOS: A Dataset of Miniature-machine Operating Sounds for Anomalous Sound Detection,” in Proceedings of IEEE Workshop on Applications of Signal
Processing to Audio and Acoustics (WASPAA). IEEE, November 2019, pp. 308–312.
[8] H. Purohit, et. la., “MIMII Dataset: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection,” in Proceedings of the Detection and Classification of Acoustic
Scenes and Events 2019 Workshop (DCASE2019), November 2019, pp. 209–213.
http://dcase.community/challenge2020/task-unsupervised-detection-of-anomalous-sounds
実験条件:前提条件
14
学習データへのラベル付け
ラベル 種類 データの種類
正例 正常 対象機器の対象IDの正常データ
負例 疑似異常
対象機器の対象ID以外の正常データ
対象機器以外の正常データ
モデル PANNs [9] のResNet38
[9] Kong, Y. Cao, T. Iqbal, Y. Wang, W. Wang, and M. D. Plumbley, “PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition,”
IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 28, pp. 2880–2894, 2020.
ID毎にモデル
を作成
正常クラス
Fan ID 1
疑似異常クラス
Fan ID 2 Fan ID 3 Valve ID 1
1,000サンプル程度 20,000サンプル程度
Valve ID 2
各手法のAUC [%] による評価
15
提案手法(DDCSAD, BCE+DDCSAD)によって性能改善するか調査
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
距離学習に基づく手法の比較
16
DSAD(従来)とDDCSAD(提案)の比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
正常・疑似異常の重心を定義し,更新可能にする
➡クラス間分散を最大化の効果
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
マルチタスク学習による比較
17
BCE+DSADとBCE+DDCSADの比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
BCE+DDCSADによる効果が大きい
➡疑似異常の重心を定義したことでBCEによる特徴量空間の線形分離が容易に
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
18
単一の損失関数とマルチタスク学習による比較
Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD
fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70
pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21
slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24
ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26
ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25
valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57
Machine
Average
88.39 84.68 86.82 87.12 92.81
マルチタスク学習により性能改善
➡仮定に近い特徴量空間への写像を獲得
AUC[%]の信頼区間は95% [7]
[7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp.
29–36, 1982.
マルチタスク学習による比較
DCASE2021 Task2 [8] の結果
19
ドメインシフトを考慮した、工場機器の状態監視のための
教師無し異常音検知コンペティション
• 新たな機器種別に対しても適応可能
• ドメインシフトのある問題設定でも機能すること
順位
モデルの性能
[8] http://dcase.community/challenge2021/task-unsupervised-detection-of-anomalous-sounds-results
Kuroyanagi, et. la., ”Anomalous Sound Detection Using a
Binary Classification Model and Class Centroids,”
EUSIPCO, 2021
異常データを活用した場合の性能評価
提案手法を用いること
で、27チーム中4位に
まとめ
20
• DDCSAD損失関数の提案
既存の距離学習を用いた手法の性能を上回る
• 二値分類と距離学習のマルチタスク学習
二値分類とDDCSAD損失関数のマルチタスク学習が最も良い性能
今後の課題
• 異なるID間のサンプルが極めて類似している場合でも高い性能が
出せるように改善
• 疑似異常として利用するデータをビックデータの中から定量的に
抽出可能にするメトリックの作成

More Related Content

What's hot

【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2Preferred Networks
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoderMasanari Kimura
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
20190619 オートエンコーダーと異常検知入門
20190619 オートエンコーダーと異常検知入門20190619 オートエンコーダーと異常検知入門
20190619 オートエンコーダーと異常検知入門Kazuki Motohashi
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Fumihiko Takahashi
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential EquationsDeep Learning JP
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural NetworksMasahiro Suzuki
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習Masahiro Suzuki
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告GentaYoshimura
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説弘毅 露崎
 

What's hot (20)

【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
20190619 オートエンコーダーと異常検知入門
20190619 オートエンコーダーと異常検知入門20190619 オートエンコーダーと異常検知入門
20190619 オートエンコーダーと異常検知入門
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
(DL輪読)Variational Dropout Sparsifies Deep Neural Networks
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習深層生成モデルを用いたマルチモーダル学習
深層生成モデルを用いたマルチモーダル学習
 
KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告KDD Cup 2021 時系列異常検知コンペ 参加報告
KDD Cup 2021 時系列異常検知コンペ 参加報告
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 

Similar to 距離学習を導入した二値分類モデルによる異常音検知

インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!Kurata Takeshi
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video RecognitionToru Tamaki
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial NetworksDeep Learning JP
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...Toru Tamaki
 
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~Shogo Muramatsu
 
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video ClassificationToru Tamaki
 
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...Toru Tamaki
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...Toru Tamaki
 

Similar to 距離学習を導入した二値分類モデルによる異常音検知 (8)

インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!インドア測位技術の現況:UWBビジネス元年到来?!
インドア測位技術の現況:UWBビジネス元年到来?!
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
文献紹介:SegFormer: Simple and Efficient Design for Semantic Segmentation with Tr...
 
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
伝統的工芸品の世界販売戦略を支援するためのバーチャルショウケース~テクスチャ・ツール~
 
文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification文献紹介:Token Shift Transformer for Video Classification
文献紹介:Token Shift Transformer for Video Classification
 
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
文献紹介:2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video Reco...
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
 

More from NU_I_TODALAB

深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術NU_I_TODALAB
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離NU_I_TODALAB
 
The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022NU_I_TODALAB
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワークNU_I_TODALAB
 
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...NU_I_TODALAB
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionNU_I_TODALAB
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトNU_I_TODALAB
 
Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?NU_I_TODALAB
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionNU_I_TODALAB
 
Statistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingStatistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingNU_I_TODALAB
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識NU_I_TODALAB
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法NU_I_TODALAB
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークNU_I_TODALAB
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法NU_I_TODALAB
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元NU_I_TODALAB
 
Hands on Voice Conversion
Hands on Voice ConversionHands on Voice Conversion
Hands on Voice ConversionNU_I_TODALAB
 
Advanced Voice Conversion
Advanced Voice ConversionAdvanced Voice Conversion
Advanced Voice ConversionNU_I_TODALAB
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法NU_I_TODALAB
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換NU_I_TODALAB
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響NU_I_TODALAB
 

More from NU_I_TODALAB (20)

深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術深層生成モデルに基づく音声合成技術
深層生成モデルに基づく音声合成技術
 
信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離信号の独立性に基づく多チャンネル音源分離
信号の独立性に基づく多チャンネル音源分離
 
The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022The VoiceMOS Challenge 2022
The VoiceMOS Challenge 2022
 
敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク敵対的学習による統合型ソースフィルタネットワーク
敵対的学習による統合型ソースフィルタネットワーク
 
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
Investigation of Text-to-Speech based Synthetic Parallel Data for Sequence-to...
 
Interactive voice conversion for augmented speech production
Interactive voice conversion for augmented speech productionInteractive voice conversion for augmented speech production
Interactive voice conversion for augmented speech production
 
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクトCREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
CREST「共生インタラクション」共創型音メディア機能拡張プロジェクト
 
Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?Recent progress on voice conversion: What is next?
Recent progress on voice conversion: What is next?
 
Weakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-AttentionWeakly-Supervised Sound Event Detection with Self-Attention
Weakly-Supervised Sound Event Detection with Self-Attention
 
Statistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modelingStatistical voice conversion with direct waveform modeling
Statistical voice conversion with direct waveform modeling
 
音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識音素事後確率を利用した表現学習に基づく発話感情認識
音素事後確率を利用した表現学習に基づく発話感情認識
 
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
楽曲中歌声加工における声質変換精度向上のための歌声・伴奏分離法
 
End-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head DecoderネットワークEnd-to-End音声認識ためのMulti-Head Decoderネットワーク
End-to-End音声認識ためのMulti-Head Decoderネットワーク
 
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
空気/体内伝導マイクロフォンを用いた雑音環境下における自己発声音強調/抑圧法
 
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
時間領域低ランクスペクトログラム近似法に基づくマスキング音声の欠損成分復元
 
Hands on Voice Conversion
Hands on Voice ConversionHands on Voice Conversion
Hands on Voice Conversion
 
Advanced Voice Conversion
Advanced Voice ConversionAdvanced Voice Conversion
Advanced Voice Conversion
 
Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法Deep Neural Networkに基づく日常生活行動認識における適応手法
Deep Neural Networkに基づく日常生活行動認識における適応手法
 
CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換CTCに基づく音響イベントからの擬音語表現への変換
CTCに基づく音響イベントからの擬音語表現への変換
 
WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響WaveNetが音声合成研究に与える影響
WaveNetが音声合成研究に与える影響
 

距離学習を導入した二値分類モデルによる異常音検知

  • 2. 異常音検知とは 2 正常 正常 異常 正常 • 対象から発せられる音が正常なのか異常なのかを識別するタスク • 工場の製造機器・インフラ設備の保守業務の効率化 • 人の入りにくい場所にある機器の監視 異常音検知システムの活用例 ファクトリーオートメーションをはじめとする 第四次産業革命に期待の技術 [1] [1] B. Bayram, T. B. Duman, and G. Ince, “Real time detection of acousticanomalies in industrial processes using sequential autoencoders,”ExpertSystems, vol. 38, no. 1, p. e12564, 202 fan :工場の換気に使用 異常内容:電圧低下, 詰まりe.g.
  • 3. 1. 正常データのみでモデルを構築 2. 蓄積した異常データを活用して性能改善 異常音検知における課題 3 正常 正常 異常 正常 異常の要因 異常音の発生は稀 異常音の種類は多様 初期 :正常データのみ 運用中:正常データと少量の異常データ 異常音検知モデルの構築に利用できるデータ 理想 • ヒューマンエラー • 不具合 • 環境の変化 • 故障 など 異常データを網羅的に収集することは困難
  • 4. 提案手法の位置づけ 4 [2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008 異常音検知 教師あり 教師なし 生成モデル • 正常データの確率 分布をモデル化 • 異常データの活用 が容易でない 分類モデル • 正常データと疑 似異常データの 決定境界を学習 • 異常データの活 用が容易
  • 5. 提案手法の位置づけ 5 [2] L. Van der Maaten and G. Hinton, “Visualizing Data using t-SNE,” Journal of Machine Learning Research, vol. 9, no. 86, pp. 2579–2605, 2008 異常音検知 教師あり 教師なし 生成モデル • 正常データの確率 分布をモデル化 • 異常データの活用 が容易でない 分類モデル • 正常データと疑 似異常データの 決定境界を学習 • 異常データの活 用が容易 正例 正常 対象機器の正常な動作音 負例 異常 対象機器の異常な動作音 疑似異常 対象機器以外の正常な動作音 疑似異常
  • 7. 従来手法:分類モデルによる手法 7 二値分類に基づく手法 [4] 距離学習に基づく手法 [5] 7 [4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020. [5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020. 二値分類 距離学習
  • 8. 従来手法:二値分類に基づく手法 8 二値分類に基づく手法 [4] 8 [4] P. Primus, V. Haunschmid, P. Praher, and G. Widmer, “Anomalous Sound Detection as a Simple Binary Classification Problem with Careful Selection of Proxy Outlier Examples,” 2020. 目的:特徴量空間を線形分離 • 学習方法 • 正常データを正例,疑似 異常データを負例として 学習 • 疑似異常データの選択基準 • 録音条件の一致 • 対象音との類似性 • コンテンツの多様性
  • 9. 従来手法:距離学習に基づく手法 9 距離学習に基づく手法 [5] 9 [5] L. Ruff, R. A. et. la., “Deep SemiSupervised Anomaly Detection,” in International Conference on Learning Representations, 2020. 目的:正常クラスの クラス内分散を最小化 Deep Semi-supervised Anomaly Detection(DSAD)損失関数 𝐿DSAD = 1 𝑁 ෍ 𝑖=1 𝑁 𝒛𝒊 − 𝒄 2𝑦 疑似異常 • 正常を重心𝒄に近づける • 疑似異常を重心𝒄から遠ざける
  • 10. DDCSAD損失関数の提案 10 10 Deep Double Centroids Semi- supervised Anomaly Detection (DDCSAD)損失関数 従来:DSAD損失関数 • クラス間分散を最大化 • 事前学習は必要なし 疑似異常 𝐿DDCSAD = 1 𝑁 ෍ 𝑖=1 𝑁 𝒛𝒊 − 𝒄𝒑 2𝑦 + 𝒛𝒊 − 𝒄𝒏 −2𝑦 • 疑似異常を重心𝒄𝒏に近づける • 正常を重心𝒄𝒏から遠ざける Benefit • 正常データの重心 𝑐𝑝のみ • 重心は事前学習& 固定 • 疑似異常データの重心𝑐𝑛も定義 • 重心をエポック毎に更新 提案:DDCSAD損失関数
  • 12. 比較した損失関数 12 損失関数名 損失関数 特徴量空間 を線形分離 クラス内分散 を最小化 クラス間分散 を最大化 BCE 𝑳𝑩𝑪𝑬 〇 ✕ ✕ DSAD 𝑳𝐃𝐒𝐀𝐃 ✕ 〇 ✕ DDCSAD 𝑳𝐃𝐃𝐂𝐒𝐀𝐃 ✕ 〇 〇 BCE+DSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐒𝐀𝐃 〇 〇 ✕ BCE+DDCSAD 𝑳𝑩𝑪𝑬 + 𝝀𝑳𝐃𝐃𝐂𝐒𝐀𝐃 〇 〇 〇 • DDCSAD損失関数の有効性 • 二値分類と距離学習のマルチタスク学習の有効性 明らかにしたいこと
  • 13. 実験条件:データセット • データセット • DCASE2020 Task2[6]のデータセットを使用 • ToyADMOS [7] : ToyCar, ToyConveyor • MIMII Dataset [8] : fan, pump, slider, valve • 合計6種類のマシンタイプ • 各機器は7から8種類のマシンIDが割り当てられる 13 異物混入, 詰まり, 漏れ, 油不足, 電圧低下, e.g. [6] Y. Koizumi, et. la., “Description and Discussion on DCASE2020 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring,” in arXiv e-prints: 2006.05822, June 2020, 異常例 [7] Y. Koizumi, et. la., “ToyADMOS: A Dataset of Miniature-machine Operating Sounds for Anomalous Sound Detection,” in Proceedings of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA). IEEE, November 2019, pp. 308–312. [8] H. Purohit, et. la., “MIMII Dataset: Sound Dataset for Malfunctioning Industrial Machine Investigation and Inspection,” in Proceedings of the Detection and Classification of Acoustic Scenes and Events 2019 Workshop (DCASE2019), November 2019, pp. 209–213. http://dcase.community/challenge2020/task-unsupervised-detection-of-anomalous-sounds
  • 14. 実験条件:前提条件 14 学習データへのラベル付け ラベル 種類 データの種類 正例 正常 対象機器の対象IDの正常データ 負例 疑似異常 対象機器の対象ID以外の正常データ 対象機器以外の正常データ モデル PANNs [9] のResNet38 [9] Kong, Y. Cao, T. Iqbal, Y. Wang, W. Wang, and M. D. Plumbley, “PANNs: Large-Scale Pretrained Audio Neural Networks for Audio Pattern Recognition,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 28, pp. 2880–2894, 2020. ID毎にモデル を作成 正常クラス Fan ID 1 疑似異常クラス Fan ID 2 Fan ID 3 Valve ID 1 1,000サンプル程度 20,000サンプル程度 Valve ID 2
  • 15. 各手法のAUC [%] による評価 15 提案手法(DDCSAD, BCE+DDCSAD)によって性能改善するか調査 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 16. 距離学習に基づく手法の比較 16 DSAD(従来)とDDCSAD(提案)の比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 正常・疑似異常の重心を定義し,更新可能にする ➡クラス間分散を最大化の効果 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 17. マルチタスク学習による比較 17 BCE+DSADとBCE+DDCSADの比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 BCE+DDCSADによる効果が大きい ➡疑似異常の重心を定義したことでBCEによる特徴量空間の線形分離が容易に AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982.
  • 18. 18 単一の損失関数とマルチタスク学習による比較 Machine Type BCE DSAD DDCSAD BCE+DSAD BCE+DDCSASD fan 92.69±2.06 82.33 ± 3.00 91.05 ± 2.25 92.96 ± 2.02 95.14 ± 1.70 pump 94.39±1.88 88.88 ± 2.60 91.71 ± 2.27 89.91 ± 2.49 92.14 ± 2.21 slider 90.30±2.43 93.46 ± 2.01 89.97 ± 2.46 93.38 ± 2.03 97.60 ± 1.24 ToyCar 87.82 ± 1.77 84.10 ± 2.00 91.18 ± 1.51 83.72 ± 2.03 93.85 ± 1.26 ToyConveyor 75.21 ± 2.54 68.51 ± 2.74 68.37 ± 2.74 64.13 ± 2.82 82.05 ± 2.25 valve 89.92 ± 2.45 90.80 ± 2.35 88.62 ± 2.59 98.61 ± 0.94 96.08 ± 1.57 Machine Average 88.39 84.68 86.82 87.12 92.81 マルチタスク学習により性能改善 ➡仮定に近い特徴量空間への写像を獲得 AUC[%]の信頼区間は95% [7] [7] J. A. Hanley and B. J. McNeil, “The Meaning and Use of the Area Under a Receiver Operating Characteristic (ROC) Curve,” Radiology, vol. 143, no. 1, pp. 29–36, 1982. マルチタスク学習による比較
  • 19. DCASE2021 Task2 [8] の結果 19 ドメインシフトを考慮した、工場機器の状態監視のための 教師無し異常音検知コンペティション • 新たな機器種別に対しても適応可能 • ドメインシフトのある問題設定でも機能すること 順位 モデルの性能 [8] http://dcase.community/challenge2021/task-unsupervised-detection-of-anomalous-sounds-results Kuroyanagi, et. la., ”Anomalous Sound Detection Using a Binary Classification Model and Class Centroids,” EUSIPCO, 2021 異常データを活用した場合の性能評価 提案手法を用いること で、27チーム中4位に
  • 20. まとめ 20 • DDCSAD損失関数の提案 既存の距離学習を用いた手法の性能を上回る • 二値分類と距離学習のマルチタスク学習 二値分類とDDCSAD損失関数のマルチタスク学習が最も良い性能 今後の課題 • 異なるID間のサンプルが極めて類似している場合でも高い性能が 出せるように改善 • 疑似異常として利用するデータをビックデータの中から定量的に 抽出可能にするメトリックの作成