Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Igai san gpu-dl_community_12

179 views

Published on

GDLC12

Published in: Data & Analytics
  • Be the first to comment

Igai san gpu-dl_community_12

  1. 1. © Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 組込ソリューション事業部 2019/10/30 猪貝 光祥 AIの品質保証に関する最新動向 GPU Deep Learning Community #12
  2. 2. 1© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1. Deep Learningアプリケーションの品質保証に関する最新動向
  3. 3. 2© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. AI開発用 エッジプラットフォーム Nvidia Tensor Coreの積極活用 Drive Xavier / Jetson Xavier Jetson TX2 GPU CudaCore 512Cores 1.5TOPS(FP32) 3.0TOPS(FP16) 6.1TOPS(INT8) 256Cores 0.6TOPS(FP32) 1.3TOPS(FP16) TensorCore 64Cores 12.2TOPS(FP16) 24.5TOPS(INT8) - CPU Carmel 8Cores 36.2GFLOPS(FP32) ARM A57 4Cores + Denver2 2Cores 24.0GFLOPS(FP32) MEMORY 16GB 256bit LPDDR4 137GByte/sec 8GB 128bit LPDDR4 59.7GByte/sec
  4. 4. 3© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 自動走行アプリケーションにおけるGPU活用 Camera based self-driving app. Object Detection & Recognition Localize & Dynamic Map Path Planning CPU 8core CUDA core Tensor core DLA CNN Detector Visual SLAM Process control Stereo Disparity Lattice plan CNN depth Cost on MAP
  5. 5. 4© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-0 AIの品質保証に関わる諸課題 例1 【利用者視点】  認識率向上 人の認識率を上げるために人の学習データを追加して学習を実施したが、 車のConfidence値が低下した。 人の学習データを 追加して学習 Confidence値 83% Confidence値 54%
  6. 6. 5© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-0 AIの品質保証に関わる諸課題 例2 【利用者視点】  追加学習データ Confidence値 46% 夜間 追加学習 Confidence値 13% Confidence値 66% Confidence値 0%
  7. 7. 6© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-0 AIの品質保証に関わる諸課題 例3 【 AI開発ベンダー視点】  しきい値設定 • しきい値を下げて、Recallを上げると誤認識が増える。 • しきい値を上げて、Precisionを上げると未検出が増える。
  8. 8. 7© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-0 AIの品質保証に関わる諸課題 例4 【 AI開発ベンダー視点】  推論結果説明 +オリジナル ノイズ ノイズ付加画像 = オリジナル 認識結果 ノイズ付加画像 認識結果
  9. 9. 8© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-1 Deep Learning の品質保証に関わる諸課題 ・Your AI is Black-Box? ・Your training data-set is sufficient? 認識率を100%にするには?なぜ誤認識したか? DB fault 膨大化する教師データ意思決定プロセスの説明
  10. 10. 9© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-2 AIの品質に関わる議論 人間らしいAI説明可能なAI (eXplainable AI) VS. 結論しか出さないAIは使えない Black-Boxを透明化 コンパクトな学習データ 説明責任 人の判断にも間違いや感情の Biasが掛かっている DNNは脳の一部を模擬 思考プロセスを説明できる? 人は判断を事後説明
  11. 11. 10© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-3 Deep Learningの説明責任に関わる最新技術 根拠説明の種別 重視した特徴量 重視した教師データ 機械学習 モデル ニューラルネット型 • DNN • CNN • etc aa アンサンブルツリー型 • Randomforest • XGBoost • etc aa LIME, SHAP, IntGrad, MIDP Influence Function Influence Boosting DeepLift, LRP, GuidedBP, Grad-CAM, ヒートマップ ・近年、様々なタイプのBlack Box解析技術が登場 ・当社では分類用XAI(Explainable AI)を物体検出に適用し、認識率の向上に利用 ・XAIで認識理由や誤認識理由を解析・分析し、教師データの改善
  12. 12. 11© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-4 Black Box 回避のための最新技術 AI Black Box 教師データ 学習 AI判断 どの教師が 貢献したか どの特徴で 判断したか 重 要 度 1 2 3 4 5 6 特徴量 テストデータ スライド1-5スライド1-7 ・Black Boxの判断根拠を分析する技術が急進展 ・「なぜ誤判定したのか」, 「教師データをどう調整すれば良いか」のヒントに
  13. 13. 12© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-5 AI判断に使った特徴量の抽出 LIME(1) Class Confidence Sports car 0.92 Class Confidence Sports car 0.90 推論画像/推論結果 着目点 どの部分に着目しているか を解析できる LIME(Local Interpretable Model-agnostic Explanations)
  14. 14. 13© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-5 AI判断に使った特徴量の抽出 LIME(2) 推論画像/推論結果 着目点 Class Confidence Minivan 0.83 Class Confidence Sports car 0.63 Confidenceを下げる要因 →教師データに不足している特徴量
  15. 15. 14© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. Class Confidence Sports car 0.63 (1) Super Pixel Confidence:0.70 Confidence:0.00 ・・・ (2) Super Pixelをサンプリング、推論 推論結果 (3) 着目点 1-5 AI判断に使った特徴量の抽出 LIME(3) LIME(Local Interpretable Model-agnostic Explanations)
  16. 16. 15© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-6 AI判断に使った特徴量の抽出 Grad-CAM(1)  Grad-CAM 物体検出適用方法 Loss 正解データTarget layer Feature map チャネル毎に平均チャネル 方向に加算 × 逆伝搬 赤枠:物体検出用変更点 Classification 用lossから Detection用 lossに変更 PreProcess
  17. 17. 16© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-6 認識精度と特徴量の寄与度との関係 Grad-CAM(2) 89%(0.652)71%(0.585) 100%(0.972)97%(0.661) Confidence値(平均寄与度)
  18. 18. 17© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. Influence Function 1-7 テストデータの分類に寄与した訓練データの抽出(1) 車 1. 「車」と正しく分類できた テストデータがある 2. 「Influence Function」 を適用 3. 分類に貢献した 教師データを抽出できる 𝛻𝜃 𝐿(𝒛∗ , ෠𝜃)𝑯෡𝜽 −𝟏 𝛻𝜃 𝐿(𝒛𝑖, ෠𝜃) P. W. Koh and P. Liang, “Understanding Black-box Predictions via Influence Functions,” ICML2017 のおかげで が正しく分類できた 学習済みモデル 0 - - - + + + - + - + - 教師画像 評 価 画 像
  19. 19. 18© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 1-7 テストデータの分類に貢献した訓練データの抽出(2) バス 学習済みモデル 教師データ 学習 どの教師が 寄与したか 誤認識に寄与したデータ 誤認識 教師データから取り除けば 精度向上が期待できる テストデータInfluence Function の応用 不要な教師データを除去してコンパクトな学習データを生成
  20. 20. 19© Hitachi Solutions Technology, Ltd. 2019. All rights reserved. まとめ Deep Learning の品質保証に関わる技術動向 →Black-Box解析技術を使い、 説明できるAIの開発 と 学習データの膨大化を抑止 【詳しくは】 日経Robotics No.45 p.22-26 建設機械 2020/1月号予定 他社商品名、商標等の引用に関する表示 ・”Xavier”、”Jetson”、”CUDA”は、NVIDIA社の商品名称、商標、又は登録商標です。 ・その他記載の会社名、製品名などは、それぞれの会社の商標もしくは登録商標です。
  21. 21. © Hitachi Solutions Technology, Ltd. 2019. All rights reserved. 組込ソリューション事業部 AIの品質保証に関する最新動向 2019/10/30 猪貝 光祥 END 20

×