SlideShare a Scribd company logo
1 of 70
Download to read offline
確率ロボティクス読み会
2018.1-2018.5
1
この本について
ロボティクスの⼤家Sebastian Thrunによる鉄板の教科書(機械学習で⾔えば
PRML、強化学習で⾔えばSutton、神経科学で⾔えばカンデル)
● Amazon
● 本家による補⾜スライド
2
はじめに
本スライドで引⽤している本書の図表は全て、著者が公開してい
るhttp://probabilistic-robotics.informatik.uni-freiburg.de/fig.pdf
からフリーダウンロードすることができます。
読み会スケジュール
第1週 1/21 1章 緒言 p3-12 (芝)
第2週 1/28 2章 再帰的状態推定 p13-36 (芝)
3章 ガウシアンフィルタ p37-78 (芝)
4章 ノンパラメトリックフィルタ p79-106 (芝)
5章 ロボットの動作 p107-134 (芝)
6章 ロボットの知覚 p135-168 (橋本・芝)
第3週 2/4 7章前半 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 p169-192
第4週 2/11 7章後半 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 p193-212(丸中)
第5週 2/18 8章 移動ロボットの位置推定:格子表現とモンテカルロ法による表現 p213-250 (芝)
第6週 2/25 9章 占有格子地図の作成 p251-278 (近藤)
第7週 3/4 10章 姿勢と地図の同時推定 p279-304 (橋本)
第8週 3/11 11章前半 GraphSLAMアルゴリズム p305-326 (藤岡)
第9週 3/18 11章後半 GraphSLAMアルゴリズム p327-346 (芝)
第10週 3/25 14章 マルコフ決定過程 p435-460 (近藤)
第11週 4/1 15章 部分観測マルコフ決定過程 p461-489 (藤岡)
3
このスライド
6 ロボットの知覚 橋本
4
6.1 はじめに
本章ではロボットの計測モデルについて扱う
● 現実の世界で生成されたセンサ計測値の生成過程を記述
● 主に距離センサ(ソナーレンジスキャン)について説明を行う
センサからどうやって距離とかの計測値を得
ているの?という話が6章
センサー
e.g ソナーレンジスキャン
計測値
計測モデル
ソナーレンジスキャンの具体的な距離計測アルゴリズム
について記述するわけではないので注意
6 ロボットの知覚 橋本
5
計測モデル
時刻tでのロボットの姿勢(xt)・地図(m)の条件下で観測したときの観測結果(zt)は次のように表される
観測結果を確率分布で表す利点は?
● センサは距離計測を完璧に行うことができない
○ 何かしらのノイズ(センサ雑音)
○ 物理現象の複雑性
e.g. ソナーレンジスキャン
ソナーでの距離計測は基本的に発した音波とその跳ね返りであるエコーで距離を計測する
しかし,音波の跳ね返りは以下の条件で変化しうる!
● 壁面の材質
● 壁面の大きさ
● 音波の入射角度
● このような曖昧性を観測時に考慮する必要がある
センサは基本的に完璧に計測してくれるもので
はない!
センサに多少のノイズが入ることを想定して,
観測の曖昧性を許すために計測モデルを確率分
布で表す!
ちゃんと音波が返ってこない → 正しい計測ができない
これは確率分布
6 ロボットの知覚 橋本
6
6.2 地図
観測において,地図は計測対象そのものである
計測において取り扱う地図は以下の2種類
・特徴ベース
空間中の特徴的な物体・場所に着目して地図を構成
● 物体に関する情報だけ記述される
● 情報量が少なくて済む
・位置ベース
空間中のほぼ全てを地図の対象とする
● 物体以外のフリースペースも地図の対象
● 情報量が多くなる
e.g. 占有格子地図(9章)
mは次のように定式化される
m
1
m
2
m
3
m1: [位置,特徴量, etc.]
mx,y: [位置,特徴量, etc.]
観測されるものを定義しておきましょう
6 ロボットの知覚 橋本
7
計測モデルの直感的なイメージ
地図が特徴ベースの場合
m1, m2, m3 がある環境において
姿勢x (位置,向いている方向)のロボットが計測すると
Robot
m
1
m
2
m
3
多少曖昧性を含んだ観測結果zが得られる
z:(距離,方向,特徴量, etc.)
右図の赤い広がりが計測の曖昧性を表している
次のスライド(6.3)からこの広がり(ノイズ・曖昧性)
を具体的に定義していく
6 ロボットの知覚 橋本
8
6.3 レンジファインダのビームモデル
レンジファインダの近似的な物理モデルを本章で説明する計測モデルとする
本モデルでは,4種類の計測誤差を考慮する
1. 小さな計測雑音
真の距離からちょっとだけズレた誤差
1. 想定外の物体による誤差
計測範囲に急にヒトなどの物体が割り込んだ場合の誤差
1. 物体検知失敗による誤差
距離計測に完全に失敗し,外れ値的な値をとってしまったときの誤差
1. 原因不明なランダム雑音
一様に出現する原因が分からない雑音
6 ロボットの知覚 橋本
9
1. 正しい計測時の局所的な計測雑音
真の距離から少しズレた誤差はガウス分布で表現する
● ガウス分布の平均は真の距離でモデル化される
● ガウス分布のばらつきの分だけ曖昧性を許す
このガウス分布をphitとするとphitは以下のようにモデル化できる
平均:zt
k*は真の値とする
標準偏差
実際には計測距離
は有限
ちょっとしたズレはガウス分布でモデル化!
6 ロボットの知覚 橋本
10
2. 想定外の物体
想定外の物体としてはヒトなどがあげられ
静的な地図とロボットの間に入り込むことが考えられる
地図から予想される結果より
極端に短い距離を出力するという事態が発生する
この分布をpshortとするとpshortは指数分布を用いて
以下のようにモデル化できる
指数分布
入り込むのは壁な
どの間なので,最
大値は真の距離
(越えることはな
いと仮定)
ヒトが二人いた場合,近いヒトの
方の距離が計測されるので,距離
が短い方が確率が高くなるように
モデル化する
想定外の物体による誤差は真の距離を最大とした指数分布でモデル化!
6 ロボットの知覚 橋本
11
3. 計測失敗
次のような場合,障害物が全く検知されず
計測が失敗することがある
● ソナーセンサにおける鏡面反射
● レーザレンジファインダにおける黒い物体等による光の吸収
この場合,最大距離を出力して,計測が失敗したことを示す
このときの確率をpmaxとすると次のようにモデル化できる
計測が失敗したら,最大距離を出力!
6 ロボットの知覚 橋本
12
4. でたらめな計測
レンジファインダは時折,説明できない計測値を出力する
例えば次のようなときに発生する
● 壁での音波の乱反射
● 別個のソナーの混線
そのような計測の場合,センサ計測値の区間全域にわたる
一様な分布でモデル化する
このときの確率をprandとすると次のようにモデル化できる
説明できない計測値は一様な分布でモデル化!
6 ロボットの知覚 橋本
13
計測誤差を考慮した混合分布
先のスライドまでで,以下の4つの計測誤差をモデル化した
1. 小さな計測雑音
2. 想定外の物体による誤差
3. 物体検知失敗による誤差
4. 原因不明なランダム雑音
これらを4つの重みパラメータzhit, zshort, zmax, zrand(重みの合計は1)
を用いて混合分布として表す
左の式は単に以下を表している
4つの雑音を,重みとそれぞれの確率分布
を用いて線形和の混合分布として表現
6 ロボットの知覚 橋本
14
パラメータの推定
4つの計測誤差を考慮した混合分布を右図のように仮定した
よって計測すると右図の分布に従って距離が得られるはず
(サンプリング)
ここで問題となるのが,確率分布は先に定義したパラメータ
zhit, zshort, zmax, zrand, σhit, λshort(これらを以後,Θと呼ぶ)
によってその形が決まるが,そのパラメータがわからないので
なんとかして推定してやる必要があるということである
得られたデータから,もとの確率分布の形を推定する
(パラメータ推定)
6 ロボットの知覚 橋本
15
最尤推定によるパラメータ推定
尤度(尤度関数)
尤度は確率分布の尤もらしさを表したもの
この場合で言えば,観測されたデータに対して
求めたい確率分布がいかにフィットしているかを指す
尤度関数は以下のようにかける
全ての観測結果について
各観測結果を混合分布に
あてはめてみて掛け合わせる
右図のような例を考えると,尤度は上側の図のときの方が高くなる
つまり,上の方が尤もらしいといえる
尤度は,確率分布の観測データへのフィット度合いと考えられる
フィットしている
フィットしていない
パラメータΘの関数となる
6 ロボットの知覚 橋本
16
最尤推定によるパラメータ推定
対数尤度
尤度を最大化させるようなパラメータΘを求めれば,確率分布の形はデータにもっともフィットする
一般的に,対数をとっても尤度を最大化させるパラメータに変化はないため
以下のように,計算の観点で有利な対数尤度で考える
以下に対数尤度で考えるメリットを数点あげる
● かけ算を足し算に変形できる
○ 微分が扱いやすい
○ アンダーフローを防ぐことができる(確率をかけ続けると値が小さくなりすぎる)
対数尤度はかけ算を足し算に変えてくれる
足し算になる
6 ロボットの知覚 橋本
17
最尤推定によるパラメータ推定
対応関係が既知の場合
まずは簡単のため,観測されたデータが4つのうちのどのモデルから発生した観測
結果であるかを知っている場合について考える
このとき,対応関係がわかっているため,混合分布の各密度関数にかかる
重みのパラメータ,zhit, zshort, zmax, zrand は以下のように簡単に求まる
Zhit は phit で生成された観測データの数を表
す
Zshort, Zmax, Zrand も同様
全体の数
で割る
各重みは,4つのモデルのうち,各モデルに
よって発生した観測データの数の割合で決められる
それぞれ
の数を
6 ロボットの知覚 橋本
18
最尤推定によるパラメータ推定
対応関係が既知の場合
次に σhit, λshort を求める.今,対応関係が既知であるため
● σhitについては phit 単体でその尤度を最大化すればよく
● λshortについては pshort 単体でその尤度を最大化すればよい
と考えることができる
尤度の最大化
先のスライドの尤度を最大化するには,尤度関数を求めたいパラメータで偏微分して = 0 とすればよい
※最尤法の基礎的な概念についてはこちら https://mathtrain.jp/mle
6 ロボットの知覚 橋本
19
最尤推定によるパラメータ推定
対応関係が既知の場合(σhitを求める)
Zhit に対して,その対数尤度は以下のようにかける
対数尤度を最大化するには,求めたいパラメータで偏微分して,イコール0とおいてやればよいので
細かい計算は省略している
尤度関数を σhit で偏微分して = 0 とする!
zi
*は真の距離を表す
これは,地図 m から任意の姿勢 xi で計算できる
6 ロボットの知覚 橋本
20
最尤推定によるパラメータ推定
対応関係が既知の場合(λshortを求める)
Zshort に対して,その対数尤度は以下のようにかける
対数尤度を最大化するには,求めたいパラメータで偏微分して,イコール0とおいてやればよいので
細かい計算は省略している
尤度関数を λshort で偏微分して = 0 とす
る!
6 ロボットの知覚 橋本
21
最尤推定によるパラメータ推定
対応関係が未知の場合
今度は,観測されたデータが4つのうちのどのモデルから発生した観測結果であるかを
知らない場合について考える
補助変数の導入
対応関係が分からないので,どのモデルによって計測 zi が発生したかの確率を表す補助変数 ei,xを導入し,
これも一緒に推定する
対応関係が既知の場合はこの問題を考える必要がなかったが
「この観測データは,どのモデルによるものだろうか」という問題も同時に推定しなければ
ならないため,推定過程が一気に複雑になる
xは4つのモデル hit, short, max, rand を表す
ei, hitであれば,i番目のデータが hit のモデルによって発生した確率 を表す
対応関係が未知の場合,データが「どこに属しているのか」の確率も計算する
6 ロボットの知覚 橋本
22
最尤推定によるパラメータ推定
補助変数について
観測されたデータがどのモデルに属しているかの問題について
右図を用いて,もう少し補助変数の説明をしてみる
(a) 対応関係が既知の場合
(a) 対応関係が未知の場合
対応関係が既知の場合はどのモデルに所属しているかが明らかであった
対応関係が未知の場合はどのモデルに所属しているかが確率的に決まる
この最尤推定問題は解析的に解を得ることができない
繰り返し計算により,近似的に解を得る(EMアルゴリズム)
対応関係が未知の場合は,解析的に解けないので
EMアルゴリズムで近似的に解を得る!
pmax によって発生したと一意に決められ
る
どのモデルから発生したか曖昧に表現される
6 ロボットの知覚 橋本
23
最尤推定によるパラメータ推定
繰り返し計算(EMアルゴリズム)
以下の繰り返し計算を収束するまで行う
● どのモデルに所属しているの?
● 分布の形はどんなの?
● 補助変数(期待値) ei を計算するのに必要
● 適切な初期値の設定が重要
Step. 1
σhit,λshort を初期化す
る
Step. 2
補助変数 ei の計算・更
新
Step. 3
パラメータΘの計算・
更新
Step. 4
収束していれば終了
● σhit, λshort を固定して補助変数を計算
● 観測データがどこに属しているかを計算
● 補助変数を固定してパラメータΘを計算
● 分布の形が更新される
分布の形を初期化
データの所属を計算
分布の形を計算
Eステップ
Mステップ
6 ロボットの知覚 橋本
24
最尤推定によるパラメータ推定
Step. 2 補助変数の計算
σhit,λshort が分かっているので,分布の形は決まる
全体のうち,そのモデルの割合はどれくらいかで補助変数を計算する
ηが全体を表す
これを分母にして,各モデルが
占める割合を計算する
6 ロボットの知覚 橋本
25
最尤推定によるパラメータ推定
Step. 3 パラメータΘの計算
各観測データでの補助変数を足し合わせて,観
測データ数で割ると, zhit, zshort, zmax, zrand が得
られる
こっちは対応関係が既知の場合とほとんど同じ
割合しか分からないので,
全体に割合をかける形になる
以上で,観測データからパラメータの推定ができた
6 ロボットの知覚 橋本
26
6章前半(6.3まで)まとめ
6章前半は,センサから計測値を得るときに用いる計測モデルについて書かれている
● 計測にはノイズがつきものだが,その曖昧性を確率で表現できる
● 本章ではレンジファインダのビームモデルについて取り扱った
○ 仮定したノイズは以下の4つ
■ 小さな計測雑音
■ 想定外の物体による誤差
■ 物体検知失敗による誤差
■ 原因不明なランダム雑音
● 計測モデルの確率分布を仮定したら,そのパラメータを推定する必要がある
● 観測データが十分得られていれば,繰り返し計算でパラメータを推定できる
6 ロボットの知覚 橋本
27
参考文献
● 事後確率と事前確率について
袋から赤い玉か白い玉かを取り出す例で説明されています
非常に理解しやすいです
https://bellcurve.jp/statistics/course/6446.html
● Pattern Recognition and Machine Learning [Christopher M. Bishop]
パラメータ推定において,第9章 混合ガウス分布とEM (Mixture Models and EM) が
大変参考になります
SlideShare も数多くあがっているのでそちらも参考になるかと思います
以下,参考にさせていただいた SlideShare です
https://www.slideshare.net/TakayukiYagi1/em-66114496
https://www.slideshare.net/takao-y/20131113-em
● EMアルゴリズムについて
繰り返し計算の概念や計算式などが詳細に説明されています
https://qiita.com/kenmatsu4/items/59ea3e5dfa3d4c161efb#21-k-meansの概要
6 ロボットの知覚 芝
28
6.4 レンジファインダの尤度場
尤度場モデルについて記述する。 意味のある モデルというよりも、アドホックに 作ってみた もの。
しかし、割とよく機能する。
尤度場のコアな考え方は、「センサスキャンzの端点を、地図のグローバル座標空間中に投影する」
● 地図グローバル座標 ←→ ロボットの局所座標 の変換
● センサビームがロボットのどこから、どの向きに出ているのか
が必要な情報。
ロボットの向きに対す
るセンサビームの向き
ロボットの位置に対す
るセンサビームの位置
グローバル座標での計
測値端点の位置
ロボットのグローバル
座標での位置 計測値(zmaxだった時には無視)
6 ロボットの知覚 芝
29
6.4 レンジファインダの尤度場
尤度場モデルでは、ビームモデルに似て3種類の計測誤差を考慮する
1. 計測雑音
真の距離からズレた誤差 phit
1. 計測失敗
計測値zがzmaxだった時は、何も計測できていないものとして扱う。pmax
1. 説明できない誤差
その他の誤差をここにまとめて入れている。一様分布 prand とする。
これらを混合して、次の確率分布が尤度場の計測誤差。(zは混合パラメータ)
6 ロボットの知覚 芝
30
1. 計測雑音
センサ計測値と、地図中でもっとも近い障害物と
の距離をdistとすると、センサ雑音は以下のよう
に平均0のガウス分布で表現できる。
2. 3. は詳細前ページ参照
もっとも近い障害物までの距離が既知な環境で、phitを計算する必要がある
計測値からもっとも近
い障害物までの距離
6 ロボットの知覚 芝
31
6.4 レンジファインダの尤度場
3つの誤差を混合して、次の確率分布が尤度場の計測誤差。(zは混合パラメータ)
pmax
prand(一様)
横軸は計測ビームの距離
phit
6 ロボットの知覚 芝
32
6.4 レンジファインダの尤度場
モデルの計算と更新のアルゴリズム
最大距離ではない時、
座標変換し、
phitの距離を計算し
尤度を計算する
6 ロボットの知覚 芝
33
6.4 レンジファインダの尤度場
尤度場モデルの利点
● ユークリッド距離が滑らかで、ロボットの小さな姿勢変化が与える影響が小さい
● 事前計算が二次元空間になり、計算量が小さくなる。
尤度場モデルの欠点
● 移動体等を明示的にモデルに組み込めていない
● 壁があってもその先を「透視」できるかのような関数になってしまう
● 地図がない領域で扱うことができない
欠点をなくす拡張
● 例)地図上の領域を、占有、フリーだけでなく、未知にも分類(未完成なモデルを許容する)
phitの計算で、もっとも近い障害物という情報を使うため
6 ロボットの知覚 芝
34
6.5 相関ベースの計測モデル
相関ベースのモデルは、計測と地図の相関を測る(マップマッチング)
計測値をローカル地図に編集し、ローカル地図とグローバル地図の相関を計算する。
相関係数(-1から+1の間をとる)を、ローカル地図の確率(尤もらしさ)と解釈する。
利点
● フリースペースについて明示的に考慮することができる
欠点
● もっともらしい物理的説明が存在せず、ただ相関を取るだけ
相関の計算
平均地図
6 ロボットの知覚 芝
35
6.6 特徴ベースの計測モデル
これまでの全てのモデルは、計測値をそのまま扱ってきたが、計測値から特徴を抽出して次元を削減して
も良い。特徴抽出の方法についての詳細説明は本書の範囲を超える。特徴は例えば、
● いわゆるコンピュータビジョンでの、特徴点
● 木や建物、ドア、窓などのランドマーク
などが挙げられるだろう。これらは、距離r、方向φ、特徴量のベクトルとともに求められる。
このベクトルに対して、同様に誤差をモデル化して計算すれば良い。
特徴抽出器
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
ローカライゼーション(位置推定)
−与えられた環境中の地図に対してロボットの姿勢を決定する問題
36
地図
環境の知覚
自身の動き
地図上での位置
正確な地図が利用可能
であると仮定
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
地図の種類
・特徴ベース :地図上に特徴点(ランドマーク)が存在
・位置ベース :格子地図などのように環境構造のみを記述
37
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
7.1 位置推定問題の分類
位置推定の難易度に多大な影響を与える要因4つ
1. 局所的/大域的位置推定
・位置追従 :ロボットの初期姿勢が既知
姿勢誤差が小さいという仮定に依存
姿勢の不確かさはユニモーダルな分布(ガウス分布)などで近似
姿勢追従問題は局所的な問題
・大域的位置推定 :ロボットの初期姿勢が未知
姿勢誤差が有界であるという仮定は不可能
ユニモーダルな確率分布の使用は不適当
位置追従問題を包含
・誘拐ロボット問題 :大域的位置推定の変化形
ロボットが誘拐されて別位置に移動(テレポーテーション)
自身の場所を知らないのに、知っていると信じてしまっている
大域的位置推定の失敗からの回復能力を測定可能 38
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
7.1 位置推定問題の分類
2. 静的/動的環境
・静的環境 :変化できる量(状態)がロボットの姿勢のみ
・動的環境 :ロボットの他に、位置やコンフィギュレーションを時間変化する物体が存在
39
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
7.1 位置推定問題の分類
3. 受動的/能動的アプローチ
・受動的位置推定 :ロボット動作の観測のみで推定
・能動的位置推定 :ロボットの動作の観測 + ロボット制御
−位置推定の誤差や、位置推定が不確かなロボットが
危険な場所に行くコストを最小化できる
40
例:コースタルナビゲーション
対称環境における膠着状態の回避
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
7.1 位置推定問題の分類
4. 単数/複数ロボット
・単独ロボットの位置推定 :全データが一台のロボットで収集される
通信問題を考慮しなくて良い
・複数ロボットの位置推定 :ロボット同士の相対位置の知識を利用できるなら、
一台のロボットの信念を別ロボットの信念に反映可能
41
計測モデル
動作モデル
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
42
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
7.2、7.3 マルコフ位置推定
43
● 移動ロボットの位置推定の例
3つの区別のできないドアが存在する通路上で、
自身の位置を見つける。
一様分布
計測モデル
動作モデル
計測モデル
動作モデル反映⇒シフト・平坦化
自己位置に自信あり
右に運動
さらに右に運動
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
44
7.4 EKF(拡張カルマンフィルタ)位置推定
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
45
予測ステップ
修正ステップ(計測更新)
計測の尤度
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
46
予測ステップ
動作モデルの線形化近似
動作更新
7. それに対応する誤差楕円
6. 動作の後に予測される姿勢
4. 動作雑音の写像(制御空間→状態空間)
に用いる線形近似用
5. 制御空間の動作雑音
3. 動作モデルの線形近似用
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
47
計測モデルの線形化近似
15. カルマンゲイン
−計測を新たな状態推定にどの程度反映させるかを決定
14. 予測される計測 の不確かさ
時刻tに観測された全ての特徴i に対してループ
12. 予測される計測
13. 計測モデルのヤコビ行列
8. 計測空間の計測雑音
修正ステップ(計測更新)
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
48
推定更新
時刻tに観測された全ての特徴i に対してループ
修正ステップ(計測更新)
16 17. ひとつの特徴に対して1回ずつ更新
姿勢推定
19 20. 新たな姿勢推定
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
49
得られた計測のもっともらしさ
・EKFの更新では不要
・アウトライアー(外れ値)の排除目的や、
対応関係が未知の場合に有効
計測の尤度
尤度に閾値を設け、ランドマークを選別
→ロバストなEKF位置推定が可能に
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
50
実環境を想定した実装
以下の環境でロボットは、
固有のペイントがされた、フィールドの周囲にある6個のマーカを用いて自己位置推定する
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
51
予測ステップ
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
高戸
52
予測ステップ
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
53
誤差楕円
以前の位置推定の
不確かさ
動作雑音による推定の
不確かさ
制御空間における動作雑音
動作雑音未考慮のため
誤差楕円は四つの図で全て同じ
並進速度に誤差大
→進行方向の不確かさ大
回転の誤差大
→ロボットの方向と直交する方向への
不確かさ大
以前のロボットの位置における
動作の関数のヤコビ行列
動作関数の
動作制御に対するヤコビ行列
予測ステップ
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
54
修正ステップ:計測予測
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
55
修正ステップ:計測予測
計測予測全体の
不確かさ
計測雑音に よる
不確かさ
ロボット位置に対する
不確かさ
ロ ボット位置に対する
計測関数のヤコビ行列
白矢印:イノベーションベクトル
(計測値に対する観測と予測の差)
イノベーションベクトルが短→計測はより尤もらしい
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
56
修正ステップ:推定更新
イノベーションベクトルと計測予測の不確かさに基づいて
位置の推定値が更新
白矢印:
計測のイノベーションベクトル
白矢印:
修正ベクトル
計測のイノベーションベクトルを
状態空間に写像
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
57
修正ステップ:推定更新
イノベーションベクトルの長さを調節し、
計測予測の不確かさを反映
(観測がより確か→カルマンゲインはより大)
7移動ロボットの位置推定:マルコフ位置推定とガウス表現分布
58
シーケンス例
計測の不確かさ小
計測の不確かさ大
観測の不確かさが互いに異なる、二つのEKF更新のシーケンスの例
誤差楕円がより小
推定誤差もより小
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
乗り遅れつつある人へ
多変量の正規分布の解説ページ
http://s0sem0y.hatenablog.com/entry/2016/10/06/111153
↑確率変数の線形変換に対して、分散共分散行列がどう変換されるのかの参考になると思います。
59
ここ
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
以下本題。
60
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
EKF位置推定(既出)をよく見ると...
61
計測された特徴z_tと地図mとの対応c_tがわかっている前
提。
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
この節でやるのは...
62
計測された特徴z_tと地図mとの対応c_tがわからない前提。
?????
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
どうやって対応づける?? → 最尤推定法
https://ja.wikipedia.org/wiki/%E6%9C%80%E5%B0%A4%E6%8E%A8%E5%AE%9A
つまり、最ももっともらしいものを正しいと思うことにする。
63
(一番似てる
ね。)
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
どうやって最尤な対応を計算するのか?
常套手段: 個別のz_t^iに対しての最尤を全体の最尤の近似とする(局所最適)
(式7.16も参照; 特徴の雑音が独立であることを仮定せねばならない!) 64
個々のc_t^iの全ての組み合わせを考える必要がある…
→ O((特徴の数)!)
1個の特徴に対して(特徴の数)通りを全ての特徴に対して考える
→O((特徴の数)^2)
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
多変量正規分布の式に当てはめると…
つまり…
地図のk番目の特徴を平均とする、計測雑音まで含めた分散のガウス分布における、
実測のi番目の特徴の尤もらしさを計算し、
最も尤もらしいkを、i番目の特徴に対する地図の対応j(i)とする。
65
実際に計測された特徴の情
報
事前信念 に対する地図のk番目の特徴 の計測の期待値
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
その他は、対応c_tがわかっている時のアルゴリズムと同じ。
66
ここに置き換わっただ
け。
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
ナイーブなEKF位置推定アルゴリズムの難点と解決法
● 探索が非効率的: 地図の全てのランドマークに対する繰り返し演算 (合計O((特徴の数)^2))
→ 簡単なテストアルゴリズムで演算対象を減らす。
例: 計測値をxy空間に投影して、考慮に値しないようなあり得ない対応候補を最初か
ら除外する。
● 相互排他性を初めから考慮できない:
相互排他性とは、互いに異なる2つの観測対象が、互いに異なる2つの地図上のランドマークに対
応するという
性質(当たり前の原理!)。
だが、
では重複が発生しうることは明らか。
→ ひととおり上の式で対応を決めた後、重複しているものを変化させる「修復」手続きを行う。67
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
ナイーブなEKF位置推定アルゴリズムの難点と解決法(続き)
● アウトライアー(外れ値)を考慮していない: ある特徴の計測値が外れ値となった場合も、必ず地図上の
ひとつのランドマークに対応させてしまう
→ アウトライアーの起こる事前確率 (Nは特徴の数)を設定しておき、尤度がそれを下回
った場合は、
地図のN+1番目(外れ値枠)に対応させることにする。
68
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
7.6 複数仮説追従 Multi-Hypothesis Tracking (MHT)
60ページの、複数仮説拡張カルマンフィルタと同じ考え方。
信念を、複数のガウス分布(トラック)の重み付き和として保持することによって精度を上げる。
各l番目のトラックに対して、異なる対応付け を保持することになる。
重みの更新は:
全数計算すると時間とともにトラック数が指数関数的に増加する(すみません、よく理解できません…)ので
枝刈りする:
相対混合重み が閾値 を下回ったトラックlは棄却。
69
7 移動ロボットの位置推定:マルコフ位置推定とガウス表現分布 丸中
7.7 アンセンテッドカルマンフィルタ(UKF)位置推定
3.4章のUKFに、地図mを加えたもの
状態を、制御と計測の雑音も含めた高次元に拡張する:
シグマ点を取り(7∼9行目)、UKFと同様の計算を行う(∼10行目)
要約すると: 線形でない動作モデルgに対して、
平均と分散をなるべく正確なものにするために、
サンプリング点を複数取っている。 70

More Related Content

What's hot

3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理Toru Tamaki
 
Open3DでSLAM入門 PyCon Kyushu 2018
Open3DでSLAM入門 PyCon Kyushu 2018Open3DでSLAM入門 PyCon Kyushu 2018
Open3DでSLAM入門 PyCon Kyushu 2018Satoshi Fujimoto
 
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日Kitsukawa Yuki
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII
 
マハラノビス距離を用いた異常値検知
マハラノビス距離を用いた異常値検知マハラノビス距離を用いた異常値検知
マハラノビス距離を用いた異常値検知Yuto Mori
 
Cartographer と Autoware を用いた自律走行
Cartographer と Autoware を用いた自律走行Cartographer と Autoware を用いた自律走行
Cartographer と Autoware を用いた自律走行Yoshitaka HARA
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII
 
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎yohei okawa
 
確率ロボティクス第12回
確率ロボティクス第12回確率ロボティクス第12回
確率ロボティクス第12回Ryuichi Ueda
 
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成MobileRoboticsResear
 
確率ロボティクス第五回
確率ロボティクス第五回確率ロボティクス第五回
確率ロボティクス第五回Ryuichi Ueda
 
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A SurveyAkira Taniguchi
 
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose TrackingDeep Learning JP
 
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object DetectionDeep Learning JP
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチHironobu Fujiyoshi
 
3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)Toru Tamaki
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解Koji Terada
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化TaroSuzuki15
 

What's hot (20)

3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
3次元レジストレーションの基礎とOpen3Dを用いた3次元点群処理
 
Open3DでSLAM入門 PyCon Kyushu 2018
Open3DでSLAM入門 PyCon Kyushu 2018Open3DでSLAM入門 PyCon Kyushu 2018
Open3DでSLAM入門 PyCon Kyushu 2018
 
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
NDTスキャンマッチング 第1回3D勉強会@PFN 2018年5月27日
 
Visual slam
Visual slamVisual slam
Visual slam
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
マハラノビス距離を用いた異常値検知
マハラノビス距離を用いた異常値検知マハラノビス距離を用いた異常値検知
マハラノビス距離を用いた異常値検知
 
Cartographer と Autoware を用いた自律走行
Cartographer と Autoware を用いた自律走行Cartographer と Autoware を用いた自律走行
Cartographer と Autoware を用いた自律走行
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎SLAM入門 第2章 SLAMの基礎
SLAM入門 第2章 SLAMの基礎
 
確率ロボティクス第12回
確率ロボティクス第12回確率ロボティクス第12回
確率ロボティクス第12回
 
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
大域マッチングコスト最小化とLiDAR-IMUタイトカップリングに基づく三次元地図生成
 
確率ロボティクス第五回
確率ロボティクス第五回確率ロボティクス第五回
確率ロボティクス第五回
 
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
論文紹介 Semantic Mapping for Mobile Robotics Tasks: A Survey
 
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
[DL輪読会]LightTrack: A Generic Framework for Online Top-Down Human Pose Tracking
 
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
[DL輪読会]YOLOv4: Optimal Speed and Accuracy of Object Detection
 
PCL
PCLPCL
PCL
 
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチMIRU2013チュートリアル:SIFTとそれ以降のアプローチ
MIRU2013チュートリアル:SIFTとそれ以降のアプローチ
 
3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)3次元レジストレーション(PCLデモとコード付き)
3次元レジストレーション(PCLデモとコード付き)
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解
 
複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化複数のGNSSを用いたポーズグラフ最適化
複数のGNSSを用いたポーズグラフ最適化
 

Recently uploaded

モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 

Recently uploaded (9)

モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 

Probabilistic Robotics: Chapter 6-7