Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

動画像を用いた経路予測手法の分類

3,884 views

Published on

動画像を用いた経路予測手法についてのサーベイ

Published in: Technology
  • Be the first to comment

動画像を用いた経路予測手法の分類

  1. 1. 1 PRMU研究会 @ 熊本大学 October 12-13, 2017 サーベイ論文: 動画像を用いた経路予測手法の分類 平川 翼† 山下 隆義† 玉木 徹‡ 藤吉 弘亘† †中部大学 機械知覚ロボティクスグループ ‡広島大学
  2. 2. 2 経路予測とは? • 対象の移動経路を推定する技術
  3. 3. 3 経路予測の応用先 • 自動運転 ⎻ 周囲の環境理解 ⎻ 事故の未然防止 • 監視カメラ映像の解析 ⎻ 異常行動の検出
  4. 4. 4 経路予測の難しさ ~人物の場合~ timepresentpast future ? 歩行者検出 人物追跡 過去・現在の観測に対する状態を推定 経路予測 観測が存在しない
  5. 5. 5 周囲の環境 観測の代わりに • 様々な情報をうまく活用する必要がある 現在の歩行者位置 過去の移動経路 他者の移動経路
  6. 6. 6 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル Prediction 特徴抽出 予測 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  7. 7. 7 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  8. 8. 8 主に車道を移動 環境からの特徴抽出 • 移動は周囲の環境に依存している ⎻ 移動しやすい領域を考慮 ⎻ 移動範囲を限定 建物の領域は移動しない 障害物を避けて移動
  9. 9. 9 環境からの特徴抽出 • 移動は周囲の環境に依存している ⎻ 移動しやすい領域を考慮 ⎻ 移動範囲を限定 • シーンラベル ⎻ セマンティックセグメンテーション • 局所領域のコスト ⎻ 対象が移動する可能性を表現  テクスチャの識別・比較 … • シーンの特徴ベクトル ⎻ シーンをうまく表現する特徴を記述  特徴抽出器 (e.g. CNN)
  10. 10. 10 シーン全体を表現する特徴 • 画像・フレームから特徴ベクトルを抽出 ⎻ シーンをうまく表現するような特徴を記述 Pre-trained Network (AlexNet) [Krizhevsky et al., 2012] 類似度比較: Siamese Network [Bromley et al., 1994] A. Krizhevsky, et al., “Imagenet classification with deep convolutional neural networks,” NIPS, 2012 J. Bromley, et al., “Signature verification using a siamese time delay neural network,” NIPS, 1994 CNN CNNtest image train image L2Dist. Similarity score
  11. 11. 11 シーンラベルに基づく特徴 1 • セマンティックセグメンテーションによる特徴抽出 Fully Convolutional Network (FCN) [Long et al., 2015] J. Long, et al., “Fully Convolutional Networks for Semantic Segmentation,” CVPR, 2015
  12. 12. 12 シーンラベルに基づく特徴 2 • FCN以外のセグメンテーション手法 Hierarchical Labeling [Munoz et al., 2010] MRF-based Labeling [Yang et al., 2014] D. Munoz, et al., “Stacked Hierarchical Labeling,” ECCV, 2010 J. Yang, et al., “Context Driven Scene Parsing with Attention to Rare Classes,” CVPR, 2014
  13. 13. 13 セグメンテーションに基づく特徴表現 • 各ラベルの事後確率を特徴マップとして使用 • シーンラベルから局所領域的な特徴ベクトルを生成 K. Kitani, et al., “Activity Forecasting,” ECCV, 2012 L. Ballan, et al., “Knowledge Transfer for Scene-Specific Motion Prediction,” ECCV, 2016
  14. 14. 14 局所領域のコストに基づく特徴 • 物体の移動する可能性を表現 ⎻ コスト低: 移動しやすい ⎻ コスト高: 移動しづらい BoVW + NN [Walker et al., 2014] Spatial Matching Network [Huang et al., 2015] J. Walker, et al., “Patch to the Future: Unsupervised Visual Prediction,” CVPR, 2014 S. Huang, et al., “Deep Learning Driven Visual Path Prediction from a Single Images,” IEEE IP, 2015
  15. 15. 15 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  16. 16. 16 予測対象からの特徴抽出 • 対象の保有する情報も経路の決定に大きく影響 ⎻ 対象毎の特徴的な移動を考慮
  17. 17. 17 予測対象からの特徴抽出 • 対象の保有する情報も経路の決定に大きく影響 ⎻ 対象毎の特徴的な移動を考慮 • 過去の移動経路,向き ⎻ 移動方向を限定  歩行者検出・追跡  方向推定 • 身体的属性 ⎻ 個人によって速度や経路が変化  属性推定 Gender … male Age … young • 対象の特徴ベクトル ⎻ 対象をうまく表現する特徴を記述  パッチ特徴量 (e.g. CNN, HOG) …
  18. 18. 18 対象を表現する特徴ベクトルの抽出 • 対象の保有する情報を暗に表現 ⎻ 予測対象が含まれるパッチから特徴ベクトルを抽出 Mid-level patch features [Singh et al., 2012] ⎻ HOG + K-meansでパッチ内の特徴を表現2 Singh et al. Our$Discrimina, ve$Patches$ Visual$Words$ Fig. 1. Thetop two detected Visual Words(bottom) vs. Mid-level Discriminative Patches (top), trained without any supervision and on the same large unlabeledS. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012
  19. 19. 19 現在の対象の位置に関する特徴 • 対象の過去〜現在までの動きを抽出 ⎻ オンライン処理の予測に使用 ⎻ 過去の経路から未来の移動を方向を限定 HOG + SVM detector [Dalal et al., 2005] Superpixel-based Bayesian online tracking [Wang et al., 2011] N. Dalal, et al., “Histograms of oriented gradients for human detection,” CVPR, 2005 S. Wang, et al., “Superpixel tracking,” ICCV, 2011
  20. 20. 20 対象の向きに関する特徴 Orientation network [Huang et al., 2015] ⎻ 対象の移動方向を限定 Bayesian orientation estimation [Enzweiler et al., 2010] ⎻ 歩行者の頭部の向きを推定 S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015 M. Enzweiler, et al., “Integrated pedestrian classification and oriented estimation,” CVPR, 2010
  21. 21. 21 歩行者属性に関する特徴 • 個人によって移動速度や経路の選択が異なる ⎻ 個人に着目した予測の実現 AlexNet-based multi-task learning [Ma et al., 2017] ⎻ 歩行者属性を単一のネットワークで推定  歩行者の向き  年齢  性別 Young Old Male Female PersonalizePathway AlexNet W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
  22. 22. 22 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  23. 23. 23 ベイズモデルに基づくアプローチ • 内部状態を逐次的に推定 ⎻ 過去~現在: predictとupdateを繰り返す ⎻ 未来: predictのみを繰り返す timepresentpast future ? 内部状態 観測 predict update 歩行者検出・追跡の結果
  24. 24. 24 KFベースの予測手法 Pedestrian path prediction with recursive Bayesian filters [Schneider et al., 2013] ⎻ 拡張カルマンフィルタを用いて予測  基礎的なモデルを使用(velocity, acceleration, turn) ⎻ 後述の車載カメラ映像のデータセットを作成 ー GT ー EKF (velocity) ー EKF (velocity + turn) N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013
  25. 25. 25 DBNベースの予測手法 Context-based Pedestrian Path Prediction [Kooij et al., 2014] ⎻ Switching Linear Dynamical System (SLDS)を導入  歩行者の状態(移動・停止)を制御 ⎻ シーンから様々なコンテキストを取得  頭の向き  縁石までの距離  車〜歩行者までの距離 J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014
  26. 26. 26 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  27. 27. 27 エネルギー最小化に基づくアプローチ • 最短経路問題として経路を推定 ⎻ 2次元の格子状グラフを作成 ⎻ エッジにコストを付与 ⎻ ダイクストラ法で最短経路を推定 … 環境からの特徴抽出 start goal
  28. 28. 28 エネルギー最小化に基づく手法 1 Deep Learning Driven Visual Path Prediction [Huang et al., 2015] ⎻ Spatial Matching Network: 局所領域の報酬(コスト)を推定 ⎻ Orientation Network: 対象の向きを推定 ⎻ 報酬 + 向きから目的関数を定義 ⎻ ダイクストラ法で最短経路を推定 S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2015
  29. 29. 29 エネルギー最小化に基づく手法 2 Inferring ‘Dark Matter’ and ‘Dark Energy’ from Videos [Xie et al., 2013] ⎻ 歩行者はシーン中の目的地に向かって移動していると仮定  e.g. bending machine, chairs, exit ⎻ 目的地を中心に引き寄せられるようなエネルギー場を生成 ⎻ ダイクストラ法で各目的地へ到達する最短経路を推定 D. Xie, et al., “Inferring dark matter and dark energy from videos,” ICCV, 2013
  30. 30. 30 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  31. 31. 31 深層学習に基づくアプローチ • 過去の移動経路から未来の経路を直接推定 ⎻ 入力: 過去の移動座標 ⎻ 特徴抽出・予測: 何らかのネットワーク ⎻ 出力: 未来の移動座標 Prediction 入力 特徴抽出 予測 出力
  32. 32. 32 LSTMベースの予測手法 Social LSTM [Alahi et al., 2016] ⎻ 複数の歩行者の移動経路を同時に予測 ⎻ Social Pooling Layerを提案  周囲の歩行者の位置・中間層出力を入力  相互作用を考慮 ー GT ー SF ー Linear ー Social-LSTM A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded space,” CVPR, 2016
  33. 33. 33 CNNベースの予測手法 Pedestrian Behavior Understanding and Prediction with DNN [Yi et al., 2016] ⎻ 過去の移動経路をスパースなボリュームデータで表現 ⎻ Encoder-Decoder Networkに通すことで経路を予測 S. Yi, et al., “Pedestrian understanding and prediction with deep neural networks,” ECCV, 2016
  34. 34. 34 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  35. 35. 35 逆強化学習に基づくアプローチ (1) • 強化学習 … エージェントの行動規範を獲得 ⎻ 行動の良さを報酬で評価 ⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得 ⎻ 獲得した方策を用いてエージェントの行動を決定 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 報酬 状態遷移 迷路 例) ゴールに到達: +10 ゴールに未到達: -10
  36. 36. 36 逆強化学習に基づくアプローチ (1) • 強化学習 … エージェントの行動規範を獲得 ⎻ 行動の良さを報酬で評価 ⎻ 報酬が高くなるような方策(行動規範)を試行錯誤しながら獲得 ⎻ 獲得した方策を用いてエージェントの行動を決定 経路予測 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 報酬 状態遷移 報酬を決定するのが困難
  37. 37. 37 逆強化学習に基づくアプローチ (2) • 逆強化学習 … 「報酬」を求める ⎻ 教師データ(再現したい行動のデータ)から報酬(+方策)を学習 ⎻ 求めた方策を用いて,エージェントの動き(行動)を決定 経路予測 エージェント 方策 状態に基づき行動を決定 学習器 方策の改善 状態観測器 エージェントの状態の推定 環境 行動 状態遷移 報酬 再現したい行動データ
  38. 38. 38 Activity Forecasting • Markov Decision Process (MDP) ⎻ 現在の状態 と 行動 から状態が遷移 ⎻ 現在地 と 移動方向 から現在地が遷移 ⎻ 行動選択で移動経路が決まる • Activity Forecasting [Kitani et al., 2012] ⎻ 対象の行動を予測する問題設定 ⎻ 行動により変化した状態(座標)の系列が経路予測結果 ※ Path prediction: 各時刻の座標を直接推定・出力 状態 行動 報酬
  39. 39. 39 IRLベースの予測手法 1 Activity Forecasting [Kitani et al., 2012] ⎻ 逆強化学習を初めて導入した手法 ⎻ 周囲の環境が移動経路の決定に影響を与えていると仮定 K. Kitani, et al., “Activity forecasting,” ECCV, 2012
  40. 40. 40 IRLベースの予測手法 2 Forecasting Interactive Dynamics of Pedestrians with Fictitious Play [Ma et al., 2017] ⎻ 複数の歩行者の移動経路を同時に予測 ⎻ Fictitious Playと呼ばれるゲーム理論を導入 ⎻ 各時刻・各歩行者の行動を逐次的に推定 t = 3 t = 6 t = 9 t = 12 YellowGreenRed Forecasted distribution growswith time Agentstaketurnsforecasting sampled from U(t ) n sampled from µ(t ) ¬n n n W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017
  41. 41. 41 IRLベースの経路予測の応用例 • 海鳥の飛行経路予測 [Hirakawa et al., 2017] ⎻ 海鳥は海上のみを飛行する  環境属性に依存 ⎻ 各環境属性の影響度を教師データから学習 T. Hirakawa, et al., “Travel Time-dependent IRL for Seabird Trajectory Prediction,” ACPR, 2017 環境マップの例 メスの予測結果 オスの予測結果
  42. 42. 42 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  43. 43. 43 その他のアプローチ 1 ~Social force model~ • 相互作用を考慮したモデル ⎻ 引力や斥力のようなエネルギー ⎻ 障害物や他者との衝突を回避
  44. 44. 44 その他のアプローチ 1 ~Social force model~ • 相互作用を考慮したモデル ⎻ 引力や斥力のようなエネルギー ⎻ 障害物や他者との衝突を回避 Learning Social Etiquette [Robicquet et al., 2016] ⎻ Social Sensitivityと呼ばれる特徴を抽出  特徴に基づきクラスタを割り当てる  衝突を避ける移動経路を決定 A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
  45. 45. 45 その他のアプローチ 2 ~Data driven~ Egocentric Future Localization [Park et al., 2016] ⎻ 予測シーンに類似した学習シーンを検索 ⎻ 学習データの経路を予測シーンに転移 H.S. Park, et al., “Egocentric future localization,” CVPR, 2016
  46. 46. 46 経路予測の流れ • 環境からの特徴抽出 ⎻ シーンラベル ⎻ 局所領域のコスト ⎻ シーン全体の特徴ベクトル • 対象からの特徴抽出 ⎻ 過去の移動経路,向き ⎻ 身体的属性 ⎻ 対象の特徴ベクトル 予測 Prediction 特徴抽出 • ベイズモデル ⎻ KF, DBN • エネルギー最小化 ⎻ Dijkstra’s Algorithm • 深層学習 ⎻ CNN, LSTM • 逆強化学習 • その他 ⎻ Social force model, Data driven 入力 ⎻ 動画像 ⎻ 過去の経路 出力 ⎻ 座標 ⎻ 確率分布
  47. 47. 47 評価データセット 鳥瞰視点映像 監視カメラ映像 車載カメラ映像 一人称視点映像 視点変化無 視点変化有
  48. 48. 48 鳥瞰視点映像のデータセット 1 • UCY Dataset [Lerner et al., 2007] ⎻ 歩行者数: 786 ⎻ シーン数: 3 • ETH Dataset [Pellegrini et al., 2009] ⎻ 歩行者数: 750 ⎻ シーン数: 2 A. Lerner, et al., “Crowds by example,” Computer Graphics Forum, 2007 S. Pellegrini, et al., “You’ll never walk alone: Modeling social behavior for multi-target tracking,” ICCV, 2009
  49. 49. 49 鳥瞰視点映像のデータセット 2 • Edinburgh Informatics Forum Pedestrian Dataset [Majecka, 2009] ⎻ 歩行者数: 95,998 ⎻ シーン数: 1 • Stanford Drone Dataset [Robicquet et al., 2016] ⎻ 歩行者数: 11,216 ⎻ シーン数: 8 ⎻ その他の予測対象: car, bus, biker, skater, carts B. Majecka, et al., “Statistical models of pedestrian behavior in the forum,” PhD thesis, 2009 A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016
  50. 50. 50 監視カメラ映像のデータセット • VIRAT Video Dataset [Oh et al., 2011] ⎻ 歩行者数: 4,021 ⎻ シーン数: 11 ⎻ 追加情報: 物体の座標,行動カテゴリ • Town Centre Dataset [Benfold et al., 2009] ⎻ 歩行者数: 230 ⎻ シーン数: 1 ⎻ 追加情報: 頭部の座標 • Grand Central Station Dataset [Yi et al., 2015] ⎻ 歩行者数: 12,600 ⎻ シーン数: 1 S. Oh, et al., “A large-scale benchmark dataset for event recognition in surveillance video,” CVPR, 2011 B. Benfold, et al., “Stable multi-target tracking in real-time surveillance video,” CVPR, 2009 S. Yi, et al., “Understanding pedestrian behaviors from stationary crowd groups,” CVPR, 2015
  51. 51. 51 車載カメラ映像のデータセット • Daimler Pedestrian Path Prediction Benchmark Dataset [Schneider et al., 2013] ⎻ 歩行者数: 68 ⎻ 追加情報: ステレオカメラ • KITTI Vision Benchmark Suite [Geiger et al., 2012] ⎻ 歩行者数: 6,336 ⎻ 追加情報: ステレオカメラ,LIDAR, 地図情報 N. Schneider, et al., “Pedestrian path prediction with recursive Bayesian filters: A comparative study” GCPR, 2013 A. Geiger, et al., “Are we ready for autonomous driving? The KITTI vision benchmark suite,” CVPR, 2012
  52. 52. 52 一人称視点映像のデータセット • EgoMotion Dataset [Park et al., 2016] ⎻ シーン数: 26 ⎻ 追加情報: ステレオカメラ • First-person Continuous Activity Dataset [Rhinehart et al., 2017] ⎻ シーン数: 17 ⎻ 追加情報: 物体情報 データセットは未公開 H.S. Park, et al., “Egocentric future localization,” CVPR, 2016 N. Rhinehart, et al., “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017
  53. 53. 53 評価指標 • 座標に対する評価指標 ⎻ Average Displacement Error  各時刻での予測座標と真値とのユークリッド距離の平均値 • 確率分布に対する評価指標 ⎻ Negative Log-Loss (NLL)  推定した確率分布の元での真値の対数尤度の期待値 : 真値 : 予測値 : 真値
  54. 54. 54 まとめ • 特徴抽出法と予測手法について整理 ⎻ 特徴抽出  環境  予測対象 ⎻ 予測  ベイズモデル  エネルギー最小化  深層学習  逆強化学習 • 評価用データセットと評価指標を紹介
  55. 55. 55 今後の展望 • DLによる経路予測のための特徴抽出 ⎻ 既存手法 (FCNs) … 正しいラベルを出力するように学習 ⎻ 今後 … 正しい経路を出力するように学習 • 環境や対象の特徴を考慮し,end-to-endで学習 ⎻ 既存手法 … 座標列のみを入力とするものが多い ⎻ 今後 … シーンや対象の特徴も同時に抽出
  56. 56. 56 環境を考慮したDLによる予測手法 DESIRE [Lee et al., 2017] ⎻ DL + IRLの複合的な枠組み  RNN Enc.-Dec.: 複数の予測を生成  IRL: 予測をランク付け,Refine ⎻ Pooling無しのCNNでシーンの特徴抽出 ⎻ End-to-endで学習 N. Lee, et al., “DESIRE: Distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017 提案モデル 予測結果 ー Obs. ー GT ー Result
  57. 57. 57 本サーベイで参照した文献 ~予測手法~ N. Schneider and D.M. Gavrila, “Pedestrian path prediction with recursive bayesian filters: A comparative study,” GCPR, 2013. J.F.P. Kooij, et al., “Context-based pedestrian path prediction,” ECCV, 2014. L. Ballan, et al., “Knowledge transfer for scene-specific motion prediction,” ECCV, 2016. D. Xie, et al., “Inferring ‘Dark Matter’ and ‘Dark Energy’ from videos,” ICCV, 2013. ○ J. Walker, et al., “Patch to the future: Unsupervised visual prediction,” CVPR, 2014. S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016. S. Yi, et al., “Pedestrian behavior understanding and prediction with deep neural networks,” ECCV, 2016. ○ A. Alahi, et al., “Social LSTM: Human trajectory prediction in crowded spaces,” CVPR, 2016. T. Fernando, et al., “Soft+ hardwired attention: An LSTM framework for human trajectory prediction and abnormal event detection,” arXiv preprint, 2017 T. Fernando, et al., “Tree memory networks for modelling long-term temporal dependencies,” arXiv preprint, 2017. N. Lee, et al., “DESIRE: distant future prediction in dynamic scenes with interacting agents,” CVPR, 2017. ○ K.M. Kitani, et al., “Activity forecasting,” ECCV, 2012. N. Lee and K.M. Kitani, “Predicting wide receiver trajectories in American football,” WACV, 2016. S.Z. Bokhari and K.M. Kitani, “Long-term activity forecasting using first-person vision,” ACCV, 2016. N. Rhinehart and K.M. Kitani, “First-person activity forecasting with online inverse reinforcement learning,” ICCV, 2017. W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2016. E. Rehder, et al., “Pedestrian prediction by planning using deep neural networks,” arXiv preprint, 2017. C.G. Keller and D.M. Gavrila, “Will the pedestrian cross? a study on pedestrian path prediction,” IEEE ITS, 2014. E. Rehder and H. Kloeden, “Goal-directed pedestrian prediction,” ICCV Workshop, 2015. H.S. Park, et al., “Egocentric future localization,” CVPR, 2016. S. Su, et al., “Predicting behaviors of basketball players from first person videos,” CVPR, 2017. K. Yamaguchi, et al., “Who are you with and where are you going?,” CVPR, 2011. A. Robicquet, et al., “Learning social etiquette: Human trajectory understanding in crowded scenes,” ECCV, 2016. ○ … プログラム有
  58. 58. 58 本サーベイで参照した文献 ~特徴抽出法~ D. Munoz, et al., “Stacked hierarchical labeling,” ECCV, 2010. ○ J. Yang, et al., “Context driven scene parsing with attention to rare classes,” CVPR, 2014. ○ J. Long, et al., “Fully convolutional networks for semantic segmentation,” CVPR, 2015. ○ E. Shelhamer, et al., “Fully convolutional networks for semantic segmentation,” IEEE PAMI, 2017. S. Huang, et al., “Deep learning driven visual path prediction from a single image,” IEEE IP, 2016. ○ A. Krizhevsky, et al., “ImageNet classification with deep convolutional neural networks,” NIPS, 2012. ○ J. Bromley, et al., “Signature verification using a "siamese" time delay neural network,” NIPS, 1994. ○ N. Dalal and B. Triggs, “Histograms of oriented gradients for human detection,” CVPR, 2005. M. Enzweiler and D.M. Gavrila, “Integrated pedestrian classification and orientation estimation,” CVPR, 2010. W. Ma, et al., “Forecasting interactive dynamics of pedestrians with fictitious play,” CVPR, 2017. ○ S. Singh, et al., “Unsupervised discovery of mid-level discriminative patches,” ECCV, 2012. ○ … プログラム有
  59. 59. 59 特徴抽出法一覧 図 1 経路予測手法の処理の流れ. 文献 [9] より 改変. 表 1 経路予測に用いる特徴抽出法の分類. 抽出対象 特徴の種類 代表的な手法 環境 シーンラ ベル Stacked hierarchical labeling [10] Superpixel-based MRF [11] Fully Convolutional Networks[12], [13] コ スト Bag-of-Visual Words Spatial Matching Network [14] シーン全体の特徴ベク ト ル Pretrained AlexNet [15] Siamese Network [16] 予測対象 歩行者の位置 HOG + SVM detector [17] 対象の向き Bayesian orientation estimation [18] Orientation Network [14] 身体的属性 AlexNet-based multi-task learning [19] 対象物の特徴ベク ト ル Mid-level patch features[20] を踏まえ, 本稿ではコ ンピュ ータ ビジョ ン分野における を用いた経路予測手法についてサーベイ し , 経路予測に れる 特徴抽出及び予測のアプ ロ ーチについて体系的に 2. 1 環境属性に対する特徴抽出 予測対象が移動する際には, その周辺環境が大き く 影 いる. 例えば, 歩行者が移動する際にはシーンに存在す
  60. 60. 60 予測手法一覧
  61. 61. 61 データセット一覧
  62. 62. 62 謝辞 • 本研究の一部は科研費 (JP16H06540)の補助を受けたもの である.

×