SlideShare a Scribd company logo
Pre-Survey 2020
2020-04-27 ~ 2020-05-03
Robotpaper.Challenge
> Paper-URL list on this survey
1. https://ieeexplore.ieee.org/document/8968468
2. https://ieeexplore.ieee.org/document/8968161
3. https://ieeexplore.ieee.org/document/8968454
4. https://arxiv.org/abs/1909.04312
5. http://ais.informatik.uni-freiburg.de/publications/papers/wirnshofer19iros.pdf
6. https://www.researchgate.net/publication/338945760_GQ-STN_Optimizing_One-Shot_Grasp_Detection_based_on_Robustnes
s_Classifier
7. https://ieeexplore.ieee.org/abstract/document/8770077
Near-contact grasping strategies from awkward poses:
When simply closing your fingers is not enough
Yi Herng Ong, John Morrow, Yu Qiu, Kartik Gupta, Ravi Balasubramanian, Cindy Grimm
- 人間による操作を元に劣駆動ハンドの把持姿勢を決定する戦略の提案
- 擬似的なハンドを人間が直接操作して関節角度を記録するやり方と関節角度をコントローラで操作するや
り方で,把持姿勢を教示している.
- 人間による把持戦略を観察すると,把持の予備動作として指の接触を多くするような配置にして,同時に指
が接触するように動かすという方針をとっている.
- BarrettHandを用いて矩形,円筒物体を把持する時に,人間による直接的な教示の手法が高い把持成功
率を出すことができている.
まとめた人:makihara
Dynamic Flex-and-Flip Manipulation of Deformable Linear Objects
Chunli Jiang, Abdullah Nazir, Ghasem Abbasnejad, and Jungwon Seo
- 開ループ制御とコンプライアンス機構のハンドを使うシステムで柔軟性のある薄い物体の曲げとめくり操作
を行う.
- ハンドの指先の曲率を変えることによって指先力を変化させることができ,この力や摩擦係数と薄い物体
の変形やの関係性を導出して操作戦略を立てる.
- 様々なハンドの位置姿勢から操作を行い,最適な操作開始姿勢の候補を決定した.
- ハンドに対して比較的大きな紙に対して曲げやめくり操作の実験を行い,複雑な操作手順が必要なページ
めくりにも成功している.
まとめた人:makihara
An assisted telemanipulation approach:
combining autonomous grasp planning with haptic cues
Maxime Adjigble, Naresh Marturi, Valerio Ortenzi, Rustam Stolkin
- マスタースレーブ方式を使ったマニピュレータの遠隔操作に把持計画を導入した操作支援を行うシステム
の提案.
- カメラで取得したPoint Cloudから物体の特徴量の Local Contact Moment(LoCoMo) を抽出して最適な把
持姿勢を決定する.また,マニピュレータの手先の移動による Point Cloudの動的な変化に対応し,最適な
把持候補姿勢を更新していく.
- 目標の把持姿勢に向かうような手先軌道になるようにスレーブに対して触覚フィードバックと手先姿勢の自
動補正をする.
- 乱雑に未知物体が積み重なっている状態からの把持の操作において,把持計画の支援ありの手法の方
が把持成功までの時間が短縮されている.
まとめた人:makihara
Learning Actions from Human Demonstration Video for Robotic Manipulation
Shuo Yang, Wei Zhang, Weizhi Lu, Hesheng Wang, and Yibin Li
- マニピュレーションのための動画キャプション付けを,二つの深層学習モデルを使って行う
- grasp detection network(GNet)では,動画中の物体のマスク領域を取り出して,カテゴリ認識と物体領域
を表す最小矩形を割り出した把持位置姿勢を推定する.
- video captioning network(CNet)では,LSTMに局所(動画中の物体)特徴を入力に加えることでキャプショ
ン付けを行なっている.
- 一連の手法を,異なる色,形状や重さの物体とその配置が変化するという想定で実験を行い,従来手法よ
りも精度が向上している.
まとめた人:makihara
Robust, Compliant Assembly with Elastic Parts and Model Uncertainty
Florian Wirnshofer, Philipp S. Schmitt, Philine Meister, Georg v. Wichert, and Wolfram Burgard
- robustなAssembly taskにする為に、モーション生成にダイナミクスや摩擦を考慮する手法が用いられるが,計算が複雑にな
り、時間も掛かる.また、実際にreal worldで行った場合と比較して動作が,再現出来るとは限らない.
- そこで,モデルパラメータの不確かさにを持つ柔軟な物体へのアプローチを提案する.物体の内部状態と,同様に不確かな
パラメータをbelief-parameter-spaceでの検索木を構築することによってロバスト性を向上させる.その為、モデルがおおざっ
ぱで良く、詳細なパラメータチューニングを省略することが可能になる.
- 4つのアセンブリタスクで実験して,2つの先行手法(EST, B-EST)と比較した結果,アセンブルの成功率が向上した.
まとめた人:souta hriose
GQ-STN: Optimizing One-Shot Grasp Detection
based on Robustness Classifier
Alexandre Gari´epy, Jean-Christophe Ruel, Brahim Chaib-draa and Philippe Gigu`ere
- Graspingは、家庭用ロボットの普及や倉庫の自動化を進めるために必要なロボットの基本的な作業である.しかし、real time
(frame rate)で把持検出を行うことができるアプローチは少ない.そこでone-shotで把持検出が可能なネットワークである
GQ-STNを提案.このネットワークでは、Spatial Transformer Network (STN)をベースにしており、把持形状を生成するだけでな
く、その形状を中心としたDepth画像を直接出力することが可能.
- Dex-Net 2.0データセットのDepth画像上で、92.4%の精度でロバストな把持検出を確認した.また,real-worldでの検証では、
我々の手法が従来のサンプリングベースの手法よりも多くの頻度でロバスト把持を提案できることを実証し、60倍以上の高速化を
観測した.
まとめた人:souta hriose
Toward Affordance Detection and Ranking on Novel Objects
for Real-world Robotic Manipulation
Fu-Jen Chu, Ruinian Xu, Landan Seguin and Patricio A. Vela
- 新規オブジェクトの affordanceを検出し、ランク付けする frameworkの提案.このframeworkでは、地域ベースのア affordance segmentationを用
いて、見たことのないオブジェクトの affordance mapを区別する.
- 検出されたaffordanceは初期状態を定義し、そこから Planning Domain Definition Language (PDDL)を介してmanipulationのためのprimitive
actionを生成する. カテゴリーにとらわれない affordance segmentation approarchは、instance maskの二値分類を利用することで、学習していな
いオブジェクトを学習することが可能.
- KL-divergence loseを利用することで、単一 pixel上でのaffordance分布出力を可能とし、物体の部分的な複数の機能を予測することが可能
- 評価には、最新の手法との比較のために、新しいカテゴリ分割を用いた UMDデータセットを用い、単一アフォーダンスと複数アフォーダンスの両
方のメトリクスを評価した
まとめた人:souta hriose

More Related Content

More from robotpaperchallenge

Icra2020 v1
Icra2020 v1Icra2020 v1
Icra2020 v1
robotpaperchallenge
 
Icra2020 v2
Icra2020 v2Icra2020 v2
Icra2020 v2
robotpaperchallenge
 
強化学習勉強会_No3
強化学習勉強会_No3強化学習勉強会_No3
強化学習勉強会_No3
robotpaperchallenge
 
強化学習勉強会_No2
強化学習勉強会_No2強化学習勉強会_No2
強化学習勉強会_No2
robotpaperchallenge
 
強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研
robotpaperchallenge
 
Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10
robotpaperchallenge
 
robotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixirobotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixi
robotpaperchallenge
 
Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2
robotpaperchallenge
 
Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08
robotpaperchallenge
 
RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07
robotpaperchallenge
 

More from robotpaperchallenge (10)

Icra2020 v1
Icra2020 v1Icra2020 v1
Icra2020 v1
 
Icra2020 v2
Icra2020 v2Icra2020 v2
Icra2020 v2
 
強化学習勉強会_No3
強化学習勉強会_No3強化学習勉強会_No3
強化学習勉強会_No3
 
強化学習勉強会_No2
強化学習勉強会_No2強化学習勉強会_No2
強化学習勉強会_No2
 
強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研強化学習勉強会_No1@産総研
強化学習勉強会_No1@産総研
 
Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10Robotpaper.Challenge 2019-10
Robotpaper.Challenge 2019-10
 
robotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixirobotpaper.Challenge概略_v2@mixi
robotpaper.Challenge概略_v2@mixi
 
Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2Robotpaper.Challenge 2019-09 ver2
Robotpaper.Challenge 2019-09 ver2
 
Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08Robotpaper.Challenge 2019-08
Robotpaper.Challenge 2019-08
 
RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07RobotPaperChallenge 2019-07
RobotPaperChallenge 2019-07
 

Pre-Survey 2020 04-27:2020-05-03

  • 1. Pre-Survey 2020 2020-04-27 ~ 2020-05-03 Robotpaper.Challenge
  • 2. > Paper-URL list on this survey 1. https://ieeexplore.ieee.org/document/8968468 2. https://ieeexplore.ieee.org/document/8968161 3. https://ieeexplore.ieee.org/document/8968454 4. https://arxiv.org/abs/1909.04312 5. http://ais.informatik.uni-freiburg.de/publications/papers/wirnshofer19iros.pdf 6. https://www.researchgate.net/publication/338945760_GQ-STN_Optimizing_One-Shot_Grasp_Detection_based_on_Robustnes s_Classifier 7. https://ieeexplore.ieee.org/abstract/document/8770077
  • 3. Near-contact grasping strategies from awkward poses: When simply closing your fingers is not enough Yi Herng Ong, John Morrow, Yu Qiu, Kartik Gupta, Ravi Balasubramanian, Cindy Grimm - 人間による操作を元に劣駆動ハンドの把持姿勢を決定する戦略の提案 - 擬似的なハンドを人間が直接操作して関節角度を記録するやり方と関節角度をコントローラで操作するや り方で,把持姿勢を教示している. - 人間による把持戦略を観察すると,把持の予備動作として指の接触を多くするような配置にして,同時に指 が接触するように動かすという方針をとっている. - BarrettHandを用いて矩形,円筒物体を把持する時に,人間による直接的な教示の手法が高い把持成功 率を出すことができている. まとめた人:makihara
  • 4. Dynamic Flex-and-Flip Manipulation of Deformable Linear Objects Chunli Jiang, Abdullah Nazir, Ghasem Abbasnejad, and Jungwon Seo - 開ループ制御とコンプライアンス機構のハンドを使うシステムで柔軟性のある薄い物体の曲げとめくり操作 を行う. - ハンドの指先の曲率を変えることによって指先力を変化させることができ,この力や摩擦係数と薄い物体 の変形やの関係性を導出して操作戦略を立てる. - 様々なハンドの位置姿勢から操作を行い,最適な操作開始姿勢の候補を決定した. - ハンドに対して比較的大きな紙に対して曲げやめくり操作の実験を行い,複雑な操作手順が必要なページ めくりにも成功している. まとめた人:makihara
  • 5. An assisted telemanipulation approach: combining autonomous grasp planning with haptic cues Maxime Adjigble, Naresh Marturi, Valerio Ortenzi, Rustam Stolkin - マスタースレーブ方式を使ったマニピュレータの遠隔操作に把持計画を導入した操作支援を行うシステム の提案. - カメラで取得したPoint Cloudから物体の特徴量の Local Contact Moment(LoCoMo) を抽出して最適な把 持姿勢を決定する.また,マニピュレータの手先の移動による Point Cloudの動的な変化に対応し,最適な 把持候補姿勢を更新していく. - 目標の把持姿勢に向かうような手先軌道になるようにスレーブに対して触覚フィードバックと手先姿勢の自 動補正をする. - 乱雑に未知物体が積み重なっている状態からの把持の操作において,把持計画の支援ありの手法の方 が把持成功までの時間が短縮されている. まとめた人:makihara
  • 6. Learning Actions from Human Demonstration Video for Robotic Manipulation Shuo Yang, Wei Zhang, Weizhi Lu, Hesheng Wang, and Yibin Li - マニピュレーションのための動画キャプション付けを,二つの深層学習モデルを使って行う - grasp detection network(GNet)では,動画中の物体のマスク領域を取り出して,カテゴリ認識と物体領域 を表す最小矩形を割り出した把持位置姿勢を推定する. - video captioning network(CNet)では,LSTMに局所(動画中の物体)特徴を入力に加えることでキャプショ ン付けを行なっている. - 一連の手法を,異なる色,形状や重さの物体とその配置が変化するという想定で実験を行い,従来手法よ りも精度が向上している. まとめた人:makihara
  • 7. Robust, Compliant Assembly with Elastic Parts and Model Uncertainty Florian Wirnshofer, Philipp S. Schmitt, Philine Meister, Georg v. Wichert, and Wolfram Burgard - robustなAssembly taskにする為に、モーション生成にダイナミクスや摩擦を考慮する手法が用いられるが,計算が複雑にな り、時間も掛かる.また、実際にreal worldで行った場合と比較して動作が,再現出来るとは限らない. - そこで,モデルパラメータの不確かさにを持つ柔軟な物体へのアプローチを提案する.物体の内部状態と,同様に不確かな パラメータをbelief-parameter-spaceでの検索木を構築することによってロバスト性を向上させる.その為、モデルがおおざっ ぱで良く、詳細なパラメータチューニングを省略することが可能になる. - 4つのアセンブリタスクで実験して,2つの先行手法(EST, B-EST)と比較した結果,アセンブルの成功率が向上した. まとめた人:souta hriose
  • 8. GQ-STN: Optimizing One-Shot Grasp Detection based on Robustness Classifier Alexandre Gari´epy, Jean-Christophe Ruel, Brahim Chaib-draa and Philippe Gigu`ere - Graspingは、家庭用ロボットの普及や倉庫の自動化を進めるために必要なロボットの基本的な作業である.しかし、real time (frame rate)で把持検出を行うことができるアプローチは少ない.そこでone-shotで把持検出が可能なネットワークである GQ-STNを提案.このネットワークでは、Spatial Transformer Network (STN)をベースにしており、把持形状を生成するだけでな く、その形状を中心としたDepth画像を直接出力することが可能. - Dex-Net 2.0データセットのDepth画像上で、92.4%の精度でロバストな把持検出を確認した.また,real-worldでの検証では、 我々の手法が従来のサンプリングベースの手法よりも多くの頻度でロバスト把持を提案できることを実証し、60倍以上の高速化を 観測した. まとめた人:souta hriose
  • 9. Toward Affordance Detection and Ranking on Novel Objects for Real-world Robotic Manipulation Fu-Jen Chu, Ruinian Xu, Landan Seguin and Patricio A. Vela - 新規オブジェクトの affordanceを検出し、ランク付けする frameworkの提案.このframeworkでは、地域ベースのア affordance segmentationを用 いて、見たことのないオブジェクトの affordance mapを区別する. - 検出されたaffordanceは初期状態を定義し、そこから Planning Domain Definition Language (PDDL)を介してmanipulationのためのprimitive actionを生成する. カテゴリーにとらわれない affordance segmentation approarchは、instance maskの二値分類を利用することで、学習していな いオブジェクトを学習することが可能. - KL-divergence loseを利用することで、単一 pixel上でのaffordance分布出力を可能とし、物体の部分的な複数の機能を予測することが可能 - 評価には、最新の手法との比較のために、新しいカテゴリ分割を用いた UMDデータセットを用い、単一アフォーダンスと複数アフォーダンスの両 方のメトリクスを評価した まとめた人:souta hriose