Submit Search
Upload
粒子フィルターによる自動運転
•
0 likes
•
1,190 views
M
Masato Nakai
Follow
This slide shows auto driving model by particle filter.
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 12
Download now
Download to read offline
Recommended
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
学生向けの解説
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
NIPS2017論文読み会@クックパッドで発表した資料です
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
京都大学人環セミナー(20171218)および東京大学大学院工学系研究科 國吉研オムニバス講義(20171226; 脳型情報処理機械論 http://www.isi.imi.i.u-tokyo.ac.jp/lectures/BIP/)で行ったトークで使ったスライドを(多少編集した上で)アップロードしました。タイトルは「感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)」です。
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
Recommended
最尤推定やベイズ推定の基本がようやく理解できたため,かみ砕いて説明したプレゼンを作りました.
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
Akira Masuda
学生向けの解説
【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
NIPS2017論文読み会@クックパッドで発表した資料です
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
NIPS2017読み会 LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Takami Sato
Rで階層ベイズモデル
Rで階層ベイズモデル
Yohei Sato
京都大学人環セミナー(20171218)および東京大学大学院工学系研究科 國吉研オムニバス講義(20171226; 脳型情報処理機械論 http://www.isi.imi.i.u-tokyo.ac.jp/lectures/BIP/)で行ったトークで使ったスライドを(多少編集した上で)アップロードしました。タイトルは「感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)」です。
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and ...
Masatoshi Yoshida
ベイズ統計学の基礎概念からW理論まで概論的に紹介するスライドです.数理・計算科学チュートリアル実践のチュートリアル資料です.引用しているipynbは * http://nhayashi.main.jp/codes/BayesStatAbstIntro.zip * https://github.com/chijan-nh/BayesStatAbstIntro を参照ください. 以下,エラッタ. * 52 of 80:KL(q||p)≠KL(q||p)ではなくKL(q||p)≠KL(p||q). * 67 of 80:2ν=E[V_n]ではなくE[V_n] → 2ν (n→∞). * 70 of 80:AICの第2項は d/2n ではなく d/n. * 76 of 80:βH(w)ではなくβ log P(X^n|w) + log φ(w). - レプリカ交換MCと異なり、逆温度を尤度にのみ乗することはWBIC導出では本質的な仮定となる.
ベイズ統計学の概論的紹介
ベイズ統計学の概論的紹介
Naoki Hayashi
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
2019/09/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Lasso, R package, rigorous Lasso, Oracle property
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2017/12/12 強化学習アーキテクチャ勉強会の資料
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
CVPR 2018 完全読破チャレンジ報告会 cvpaper.challenge 勉強会@Wantedly白金台オフィス cvpaper.challenge はコンピュータビジョン分野の今を映し、創り出す挑戦です。論文読破・まとめ・アイディア考案・議論・実装・論文執筆(・社会実装)に至るまで広く取り組み、あらゆる知識を共有しています。 http://xpaperchallenge.org/cv/
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
cvpaper. challenge
Presentation at TokyoWebmining 2016/10/29
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
Shota Yasui
『トピックモデルによる統計的潜在意味解析』読書会ファイナル ~佐藤一誠先生スペシャル~ LT 資料 http://topicmodel.connpass.com/event/27999/
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
2017/11/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
WACODE 3rdの資料
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
6/9 (木) 14:15~14:45 メイン会場 講師:加藤 大晴 氏(株式会社Preferred Networks) 概要: 点群/メッシュ/ボクセルなどの従来的な3D表現に代わってニューラルネットによる陰関数で三次元データを表してしまう手法が近年登場し、様々なタスクで目覚ましい成果を挙げ大きな注目を集めている。この表現は、計算コストが高い代わりに柔軟性が高くさまざまなものをシンプルかつコンパクトに表現できることが知られている。本講演では、その基礎、応用、最先端の状況について、代表的な研究を広く紹介する。
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
社内の勉強会で発表した、ベータ分布を直感的に理解する試みを紹介します。
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
db analytics showcase Sapporo 2017 発表資料 http://www.db-tech-showcase.com/dbts/analytics
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
モメンタム、Nesterov accelerated gradientとAdagrad, Adadelta, Adamについて解説しました。
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
ブースティングはアンサンブル学習の一つです。アンサンブル学習では、性能の低い学習器を組み合わせて、高性能な学習器を作ります。教師あり機械学習の問題設定の復習から始めて、バギングやブースティングのアルゴリズムについて解説します。 レトリバセミナーで話したときの動画はこちらです: https://www.youtube.com/watch?v=SJtdG62691g
ブースティング入門
ブースティング入門
Retrieva inc.
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
Neural Network with Attention Mechanism for Natural Language Processing: survey
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
This slides are description for paper of Generating Natural language by VAE an GANs
Vae gan nlp
Vae gan nlp
Masato Nakai
This slide are about site of AI papers for AI study group.
Ai論文サイト
Ai論文サイト
Masato Nakai
More Related Content
What's hot
2019/09/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
Lasso, R package, rigorous Lasso, Oracle property
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Satoshi Kato
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2017/12/12 強化学習アーキテクチャ勉強会の資料
GAN(と強化学習との関係)
GAN(と強化学習との関係)
Masahiro Suzuki
CVPR 2018 完全読破チャレンジ報告会 cvpaper.challenge 勉強会@Wantedly白金台オフィス cvpaper.challenge はコンピュータビジョン分野の今を映し、創り出す挑戦です。論文読破・まとめ・アイディア考案・議論・実装・論文執筆(・社会実装)に至るまで広く取り組み、あらゆる知識を共有しています。 http://xpaperchallenge.org/cv/
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
cvpaper. challenge
Presentation at TokyoWebmining 2016/10/29
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
Shota Yasui
『トピックモデルによる統計的潜在意味解析』読書会ファイナル ~佐藤一誠先生スペシャル~ LT 資料 http://topicmodel.connpass.com/event/27999/
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
2017/11/06 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
WACODE 3rdの資料
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
2017/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
6/9 (木) 14:15~14:45 メイン会場 講師:加藤 大晴 氏(株式会社Preferred Networks) 概要: 点群/メッシュ/ボクセルなどの従来的な3D表現に代わってニューラルネットによる陰関数で三次元データを表してしまう手法が近年登場し、様々なタスクで目覚ましい成果を挙げ大きな注目を集めている。この表現は、計算コストが高い代わりに柔軟性が高くさまざまなものをシンプルかつコンパクトに表現できることが知られている。本講演では、その基礎、応用、最先端の状況について、代表的な研究を広く紹介する。
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
社内の勉強会で発表した、ベータ分布を直感的に理解する試みを紹介します。
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
db analytics showcase Sapporo 2017 発表資料 http://www.db-tech-showcase.com/dbts/analytics
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
モメンタム、Nesterov accelerated gradientとAdagrad, Adadelta, Adamについて解説しました。
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
nishio
ブースティングはアンサンブル学習の一つです。アンサンブル学習では、性能の低い学習器を組み合わせて、高性能な学習器を作ります。教師あり機械学習の問題設定の復習から始めて、バギングやブースティングのアルゴリズムについて解説します。 レトリバセミナーで話したときの動画はこちらです: https://www.youtube.com/watch?v=SJtdG62691g
ブースティング入門
ブースティング入門
Retrieva inc.
最新版のスライドは http://www.akihironitta.com/slides/ で公開しています。 The latest version of this slides is available at http://www.akihironitta.com/slides/.
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Akihiro Nitta
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
Neural Network with Attention Mechanism for Natural Language Processing: survey
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
What's hot
(20)
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
Optimizer入門&最新動向
Optimizer入門&最新動向
GAN(と強化学習との関係)
GAN(と強化学習との関係)
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
教師なし画像特徴表現学習の動向 {Un, Self} supervised representation learning (CVPR 2018 完全読破...
計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
ベータ分布の謎に迫る
ベータ分布の謎に迫る
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
勾配降下法の最適化アルゴリズム
勾配降下法の最適化アルゴリズム
ブースティング入門
ブースティング入門
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
Active Learning 入門
Active Learning 入門
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Viewers also liked
This slides are description for paper of Generating Natural language by VAE an GANs
Vae gan nlp
Vae gan nlp
Masato Nakai
This slide are about site of AI papers for AI study group.
Ai論文サイト
Ai論文サイト
Masato Nakai
This explains about theoretical background of word2vec by the paper of PMI embeddings Analysis.
Word2vecの理論背景
Word2vecの理論背景
Masato Nakai
Genral Knowledge about Machine Learning
機械学習の全般について 4
機械学習の全般について 4
Masato Nakai
https://arxiv.org/pdf/1702.08835.pdfを解説しました
Deep forest
Deep forest
naoto moriyama
This slide explain about identification between various points cloud that is generated by Leaser scanning. The identification is made by ICP(Interactive Closed Point) which uses SVD method.
Icpによる原画像推定
Icpによる原画像推定
Masato Nakai
Describe 3 methods for inference Bayesian Network from data and compare each other by example of Kaggle problem.
Inference Bayesian Network from data
Inference Bayesian Network from data
Masato Nakai
コンピュータビジョン最先端ガイド5 複数画像からの三次元復元 3.2節あたり
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
kanejaki
Neural Turing Machineの進化版に当たるDifferentiable Neural Computersとその元論文であるHybrid computing using a neural network with dynamic external memoryを解説してみました。
Differentiable neural conputers
Differentiable neural conputers
naoto moriyama
We show general purpose reinforcement sarsa model by only appropriate features according to the purpose.
強化学習の汎用化Sarsa
強化学習の汎用化Sarsa
Masato Nakai
Microsoft HoloLens,Magic Leap,ハンドジェスチャー認識,SLAM(Simultaneous Localization and Mapping)について調べたので公開しておきます. 自分用に作ったのでリンクの羅列ですがよしなに〜
拡張現実に必要な技術
拡張現実に必要な技術
Ryo Nakamura
第28回コンピュータビジョン勉強会@関東
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
nonane
DeepMind社より発表されたNeural Turing Machineをまとめてみました
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
お仕事で作った資料。 全体紹介の資料としてはバランス悪いですが、どなたかのお役に立てれば。
非技術者でもわかる(?)コンピュータビジョン紹介資料
非技術者でもわかる(?)コンピュータビジョン紹介資料
Takuya Minagawa
2016年5月25日開催した「はじめてのコンピュータビジョン ~画像認識の仕組みとビジネス事例~」というセミナーで使用した資料です(一部割愛)。
20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョン
Takuya Minagawa
PRMLの5章前半
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
word2vecについての概要説明
自然言語処理 Word2vec
自然言語処理 Word2vec
naoto moriyama
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
. .
入門向けに自然言語処理の歴史を超ざっとまとめました
自然言語処理
自然言語処理
naoto moriyama
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
takaya imai
Viewers also liked
(20)
Vae gan nlp
Vae gan nlp
Ai論文サイト
Ai論文サイト
Word2vecの理論背景
Word2vecの理論背景
機械学習の全般について 4
機械学習の全般について 4
Deep forest
Deep forest
Icpによる原画像推定
Icpによる原画像推定
Inference Bayesian Network from data
Inference Bayesian Network from data
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
第28回コンピュータビジョン勉強会@関東(kanejaki担当分)
Differentiable neural conputers
Differentiable neural conputers
強化学習の汎用化Sarsa
強化学習の汎用化Sarsa
拡張現実に必要な技術
拡張現実に必要な技術
関東コンピュータビジョン勉強会
関東コンピュータビジョン勉強会
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
非技術者でもわかる(?)コンピュータビジョン紹介資料
非技術者でもわかる(?)コンピュータビジョン紹介資料
20160525はじめてのコンピュータビジョン
20160525はじめてのコンピュータビジョン
PRML Chapter 5
PRML Chapter 5
自然言語処理 Word2vec
自然言語処理 Word2vec
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
『予測にいかす統計モデリングの基本』の売上データの分析をトレースしてみた
自然言語処理
自然言語処理
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
More from Masato Nakai
This slides are presented for data analytics environment that is aimed at cooperation between user side and data scientists.
Padoc_presen4R.pdf
Padoc_presen4R.pdf
Masato Nakai
This slide is explanation for padoc as factor analysis tool
Factor analysis for ml by padoc 6 r
Factor analysis for ml by padoc 6 r
Masato Nakai
Reinforcement Learning with few reward is challenge subject. This slide provides same method for reinforce learning with few reward and some latent variable model by VAE.
報酬が殆ど得られない場合の強化学習
報酬が殆ど得られない場合の強化学習
Masato Nakai
This document is prepared for the data analysis tool PADOC.
Padocview anonimous2
Padocview anonimous2
Masato Nakai
this slide is presentation for data analysis tool PADOC
presentation for padoc
presentation for padoc
Masato Nakai
This document is described for explanation of Hassabis@DeepMind survey paper [Neuroscience Inspired Artificial Intelligence].
Ai neuro science_pdf
Ai neuro science_pdf
Masato Nakai
This slids are Inverse Reinforcement Learning Experiment for 16 Gridword by C language.
Deep IRL by C language
Deep IRL by C language
Masato Nakai
Discription of Time Analysis for bascket ball free throw by Openpose
Open pose時系列解析7
Open pose時系列解析7
Masato Nakai
AI for logic and bussiness
Team ai 3
Team ai 3
Masato Nakai
Discription For Kingma's VAE
Semi vae memo (2)
Semi vae memo (2)
Masato Nakai
This slide is expolanation about OpenPose Model which realtime recognise poses of multiple people.
Open posedoc
Open posedoc
Masato Nakai
Dr.Raio's papers at AI paper reader Meating
Dr.raios papers
Dr.raios papers
Masato Nakai
This is explanation about Energy-Based GaN by Bengio
Deep genenergyprobdoc
Deep genenergyprobdoc
Masato Nakai
this slides are description about [a connection between GAN and IRL]
Irs gan doc
Irs gan doc
Masato Nakai
Discript for SEMI-VAE
Semi vae memo (1)
Semi vae memo (1)
Masato Nakai
This slides explain about scanning picture feature points that is made by SIFT(Scale Invariant Feature Transform) which uses Gaussian Filter Difference Logic (DoG).
Siftによる特徴点抽出
Siftによる特徴点抽出
Masato Nakai
This is explanation about robotics with visiomotor policy control which is published in ICML 2016 journal.
End to end training with deep visiomotor
End to end training with deep visiomotor
Masato Nakai
Summary about Machine Learning with model example
機械学習の全般について
機械学習の全般について
Masato Nakai
Generalize for Reinforcement Algorithm by Feature Approximate
強化学習の汎用化Ai
強化学習の汎用化Ai
Masato Nakai
reinforcement learning for robotics
強化学習の汎用化Ros
強化学習の汎用化Ros
Masato Nakai
More from Masato Nakai
(20)
Padoc_presen4R.pdf
Padoc_presen4R.pdf
Factor analysis for ml by padoc 6 r
Factor analysis for ml by padoc 6 r
報酬が殆ど得られない場合の強化学習
報酬が殆ど得られない場合の強化学習
Padocview anonimous2
Padocview anonimous2
presentation for padoc
presentation for padoc
Ai neuro science_pdf
Ai neuro science_pdf
Deep IRL by C language
Deep IRL by C language
Open pose時系列解析7
Open pose時系列解析7
Team ai 3
Team ai 3
Semi vae memo (2)
Semi vae memo (2)
Open posedoc
Open posedoc
Dr.raios papers
Dr.raios papers
Deep genenergyprobdoc
Deep genenergyprobdoc
Irs gan doc
Irs gan doc
Semi vae memo (1)
Semi vae memo (1)
Siftによる特徴点抽出
Siftによる特徴点抽出
End to end training with deep visiomotor
End to end training with deep visiomotor
機械学習の全般について
機械学習の全般について
強化学習の汎用化Ai
強化学習の汎用化Ai
強化学習の汎用化Ros
強化学習の汎用化Ros
粒子フィルターによる自動運転
1.
粒子 自動運転 2017/05/30 mabonki0725
2.
自律 自律 自分 状況認識
最適行動 行 • 自律 必要 – 状況認識 環境 観測 自己 状態 推定 • 観測 z 条件 自己 状態x 推定 確率 • 統計 観測 実態 探 – 最適行動 将来 報酬 累計 最大 様 次 行 動選択 • 強化学習 統計 粒子 SLAM 自動走行
3.
確率 • LandMark 位置 –
判明時 粒子 • LandMark 位置 – 不明時 SLAM 地図 自己位置同 時認識 ROS 粒子 SLAM 図 最適経路 提供
4.
粒子 確実 無 世界
統計 位置 識別 • T 走行距離r 走行角 走行 – 誤差 走行距離r 平均±0.1 誤差 – 感度 誤差 走行角 平均±3° 誤差 • 箇所 信号 距離d1 d4 T毎 観測 – 観測距離d1 d4 平均±0.1 誤差 • 信号到達距離 限界 超 観測
5.
粒子 位置推定 • 自己位置
T毎 粒子 100個 飛 各粒子 尤度p 推定 – 前 位置 移動(r, ) 点回 100個粒子 撒 x[i] i=1 100 – 各粒子 観測距離 尤度p[i] 計算 p[i] = N(x[i] / d1, ,d4) i=1 100 • 自己位置 推定 – X= x[i] * p[i] • 粒子 大 調整 – Resampling 粒子位置 尤度 関係
6.
実際 粒子 計算結果 •
観測経路 粒子 推定経路 一致
7.
観測距離 短縮 • 観測可能範囲
逸脱 推定誤差 拡大 – 各 観測範囲20 5 縮小
8.
自動運転 計算結果 • 回
自動運転 1. 反時計回 4点 指定 2. 自己位置 走行方向 推 定 向 LandMark 距離 尤度計算 3. 目標 角度 走行 角度 角度 微調整(10%) 調整角度=( - )/10 4. 近傍 達 次 向
9.
Resampling 増加 増加 大 尤度 粒子
分割 消滅 粒子 補 尤度p
10.
自動運転 統計 • 統計
観測 実態 要因 予測 – 実態 挙動z 分 観察 予測 易 観測 得 実態z 不明 事 多 – 観測 x 実態 挙動z 条件付 確率p(z|x) 求 – p(z|x) 定理 展開 計算 – p(z|x) 求 観測 x 場合 最 期待 分 – 今回 場合 • zi:自動車 撒 粒子 位置 i=1 100 • i 粒子 観測距離 • 自動車 位置 粒子 平均位置 推定= 粒子 位置 p(zi|xi) 定理 推定 易
11.
粒子 https://github.com/mabonki0725/particleNavi
12.
• 走行距離 走行方向
誤差 距離観測d 誤差 粒子 自己位置推定 出来 分 • 距離観測 自己位置 • 目標 点 指定 自動 走行 分 • 謝辞 下記 参照 – http://myenigma.hatenablog.com/entry/20140628/1403956852
Download now