動的環境における動作計画のための C-space の予測
- 時系列に対応した Vox2C-space -
木南貴志,坂本健太朗,山内悠嗣 ( 中部大学 )
研究背景:
提案手法:
実装:
評価実験:
動的な環境に合わせた動作計画
時系列データに対応した Vox2C-space を提案
ネットワーク構造の詳細
Vox2C-spacen の有効性を確認
- 協働ロボットの需要が拡大し,様々な分野に導入が進む
▪ 人間と同じ空間 ( 動的な環境 ) でロボットが作業
- 従来の動的環境を考慮した動作計画法
▪ ロボットの姿勢を表現した C-space が用いられる
=> C-space を作成するための計算量が多い
=> 過去から現在の動きの考慮に留まり,予測までには至ってない
動的環境に対応するために未来の C-space を予測
- 時系列データに対応した Vox2C-space
▪ C-space を生成する Vox-2C-space ネットワークを拡張
◦ 時系列データを入力して未来の C-space を予測
◦ 半リアルタイム処理が可能 (100[msec] 前後 )
◦ 従来の経路計画法をそのまま適用可能かつ,動的環境に対応
- 提案手法による学習の流れ
1. エンコーダ・デコーダ (Vox2C-space) の学習
◦ 3 次元占有グリッドマップとして表現されるボクセルデータから
C-space を生成するエンコーダ E・デコーダ D を学習
◦ 損失関数 : 正解の C-space と推定した C-space の
2 値交差エントロピー
2. GRU(Gated Recurrent Unit) の学習
◦ 連続した数フレーム分のボクセルデータを入力し,次時刻の
C-space を出力するよう GRU を学習
◦ Step2. ではエンコーダとデコーダは更新しない
◦ 損失関数 :n+1 時刻のボクセルをエンコーダに入力した際の
特徴量 z と,GRU から出力される z の差
Step1: エンコーダ・デコーダの学習
パラメータ固定
Step2 : GRUの学習
推定した C-space が正解の C-space に近づくように学習
- データセットの作成
▪ ロボットシミュレータ Gazebo を使用
◦ 2 軸アームロボット:[180, 180) の範囲で回転
◦ 2.3[m ] の空間を 4 つのデプスカメラで撮影してボクセル化
◦ 空間中を複数の動的障害物が移動
3
▪ 学習及び評価データ
◦ 学習データ:6,000 シーン,評価データ:2,000 シーン
- 実験結果
▪ IoU(Intersection over Union) による評価
◦ IoU により真値である C-space との一致具合を評価
▪ 提案手法により生成した C-space
◦ 次時刻の大まかな C-space を予測可能
◦ シーンの急激な変化には遅れが生じる
※Vox2C-space は提案手法の流れ 1. のみで構成
現時刻のボクセルデータから次時刻の C-space を予測
- 合計 21 層のネットワーク
▪ エンコーダ,GRU,デコーダで構成
次時刻の大まかな C-space を予測することが可能
時系列データから GRU により次時刻の C-space を予測
1 フレーム目 2 フレーム目 3 フレーム目 4 フレーム目 5 フレーム目 6 フレーム目
真値
真値
提案手法により生成された C-space
提案手法により生成された C-space
※Vox2C-space において現時刻の C-space を推定する問題では IoU が 0.79

動的環境における動作計画のための C-space の予測

  • 1.
    動的環境における動作計画のための C-space の予測 -時系列に対応した Vox2C-space - 木南貴志,坂本健太朗,山内悠嗣 ( 中部大学 ) 研究背景: 提案手法: 実装: 評価実験: 動的な環境に合わせた動作計画 時系列データに対応した Vox2C-space を提案 ネットワーク構造の詳細 Vox2C-spacen の有効性を確認 - 協働ロボットの需要が拡大し,様々な分野に導入が進む ▪ 人間と同じ空間 ( 動的な環境 ) でロボットが作業 - 従来の動的環境を考慮した動作計画法 ▪ ロボットの姿勢を表現した C-space が用いられる => C-space を作成するための計算量が多い => 過去から現在の動きの考慮に留まり,予測までには至ってない 動的環境に対応するために未来の C-space を予測 - 時系列データに対応した Vox2C-space ▪ C-space を生成する Vox-2C-space ネットワークを拡張 ◦ 時系列データを入力して未来の C-space を予測 ◦ 半リアルタイム処理が可能 (100[msec] 前後 ) ◦ 従来の経路計画法をそのまま適用可能かつ,動的環境に対応 - 提案手法による学習の流れ 1. エンコーダ・デコーダ (Vox2C-space) の学習 ◦ 3 次元占有グリッドマップとして表現されるボクセルデータから C-space を生成するエンコーダ E・デコーダ D を学習 ◦ 損失関数 : 正解の C-space と推定した C-space の 2 値交差エントロピー 2. GRU(Gated Recurrent Unit) の学習 ◦ 連続した数フレーム分のボクセルデータを入力し,次時刻の C-space を出力するよう GRU を学習 ◦ Step2. ではエンコーダとデコーダは更新しない ◦ 損失関数 :n+1 時刻のボクセルをエンコーダに入力した際の 特徴量 z と,GRU から出力される z の差 Step1: エンコーダ・デコーダの学習 パラメータ固定 Step2 : GRUの学習 推定した C-space が正解の C-space に近づくように学習 - データセットの作成 ▪ ロボットシミュレータ Gazebo を使用 ◦ 2 軸アームロボット:[180, 180) の範囲で回転 ◦ 2.3[m ] の空間を 4 つのデプスカメラで撮影してボクセル化 ◦ 空間中を複数の動的障害物が移動 3 ▪ 学習及び評価データ ◦ 学習データ:6,000 シーン,評価データ:2,000 シーン - 実験結果 ▪ IoU(Intersection over Union) による評価 ◦ IoU により真値である C-space との一致具合を評価 ▪ 提案手法により生成した C-space ◦ 次時刻の大まかな C-space を予測可能 ◦ シーンの急激な変化には遅れが生じる ※Vox2C-space は提案手法の流れ 1. のみで構成 現時刻のボクセルデータから次時刻の C-space を予測 - 合計 21 層のネットワーク ▪ エンコーダ,GRU,デコーダで構成 次時刻の大まかな C-space を予測することが可能 時系列データから GRU により次時刻の C-space を予測 1 フレーム目 2 フレーム目 3 フレーム目 4 フレーム目 5 フレーム目 6 フレーム目 真値 真値 提案手法により生成された C-space 提案手法により生成された C-space ※Vox2C-space において現時刻の C-space を推定する問題では IoU が 0.79