7. 自動運転ソフトウェア Autoware
Machine Learning/Deep Learning
Many-Core CPUs GPUs
Embedded OS RTOS and Real-Time Linux
ROS
CUDA
ECU
ECU
ECU
ECU
CAN
Camera GNSS
LIDAR
Radar
OpenCV
PCL
Monitoring
ADAS Safety
Control
Control
Control
Control
Perception Planning Control
Autonomous Driving System
Vehicular System
Driver Interface
Car
Driver
Distributed
Data
Proceesing
Large-scale
DBMS
In-memory
DBMS
Pedestrian
FPGAs
Statistical Analysis
https://github.com/autowarefoundation/autoware
2015年に名古屋大が公開
※AutowareはThe Autoware Foundationの登録商標です
84. TIER IV
PointRCNN [1]
PointPillars
SECOND
VoxelNet
STD [2] 3DSSD [3]
SA-SSD
PV-RCNN
LiDAR-based 3D Detection
VoxelNet-based approaches
PointNet-based approaches
[1] Shi, Shaoshuai, Xiaogang Wang, and Hongsheng Li. "Pointrcnn: 3d object proposal generation and detection from point cloud." Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition. 2019.
[2] Yang, Zetong, et al. "Std: Sparse-to-dense 3d object detector for point cloud." Proceedings of the IEEE International Conference on Computer Vision. 2019.
[3] Yang, Zetong, et al. "3dssd: Point-based 3d single stage object detector." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern
Recognition. 2020.
CenterPoint
計算コストと精度を両立
85. TIER IV
CenterPoint
Yin, Tianwei, Xingyi Zhou, and Philipp Krähenbühl. "Center-based 3d object detection and tracking." arXiv preprint arXiv:2006.11275 (2020).
Ge, Runzhou, et al. "Afdet: Anchor free one stage 3d object detection." arXiv preprint arXiv:2006.12671 (2020).
点群をBEVの特徴量画像に変換 物体の中心を当てに行き、大きさ姿勢も同時に出力
Lang, Alex H., et al. "Pointpillars: Fast encoders for object detection from point clouds." Proceedings of the IEEE/CVF Conference on Computer Vision
and Pattern Recognition. 2019.
87. TIER IV
Data Augmentationによる汎化性能向上
Train: nuScenes without DA
Inference: TIER IV
Train: nuScenes with DA
Inference: TIER IV
Data Augmentation
X軸・Y軸反転
スケーリング
- 原点中心・Z軸方向
回転
- Z軸・X軸・Y軸方向
平行移動
- z方向
点群のダウンサンプル
点群のノイズ
- 疑似的な雨や霧
物体のコピー&ペースト
88. TIER IV
実環境で精度を出すためのその他の手段
Domain Adaptationの活用
Synthetic Dataの活用
自前データセットの作成
研究段階で実応用はこれから
- 例: ST3D++(Unsupervised Domain Adaptation)
Train: Waymo
Evaluation: KITTI
CAR AP(0.7)
easy medium hard
Without Domain Adaptation 12.50 12.85 13.87
With Domain Adaptation 70.85 63.49 64.52
※各スライドでの評価結果とは評価データ
セットが異なるためあくまでもスライド内
における相対指標となります
89. TIER IV
CenterPointの改善の一部の例
BEVベースでは情報の損失が大きく、立体的な情報が失われる
- BEVではトラックと壁の区別がつきにくい
Single Frameでは精度が出ない
点群をBEVの特徴量画像に変換
CenterPoint
YOLO Range Image based
Semantic Segmentation
PointPaintingによるCamera画像やLiDARのRangeImageの活用
※今回はCamera画像を話します
Multi FrameによるDensification
(副効果として物体の速度出力も可能)
90. TIER IV
CenterPointの改善の一部の例
BEVベースでは情報の損失が大きく、立体的な情報が失われる
- BEVではトラックと壁の区別がつきにくい
Single Frameでは精度が出ない
点群をBEVの特徴量画像に変換
CenterPoint
YOLO Range Image based
Semantic Segmentation
PointPaintingによるCamera画像やLiDARのRangeImageの活用
※今回はCamera画像を話します
Multi FrameによるDensification
(副効果として物体の速度出力も可能)
91. TIER IV
PointPainting
off-the-shelf
off-the-shelf
with camera
calibration params
Vora, Sourabh, et al. "Pointpainting: Sequential fusion for 3d object detection." Proceedings of the IEEE/CVF Conference on Computer Vision and
Pattern Recognition. 2020.
97
利点
いろいろな手法を取り込みやすい
- Cameraの2Dの検出器やLiDARのSemantic Segmentationなど
異なるセンサーをフュージョンする際にキャリブレーション結果はパラメータとして追い出せる
92. TIER IV
mAP CAR AP Pedestrian AP Cyclist AP
CenterPoint 60.58 73.56 53.00 38.89
CenterPoint with
PointPainting
GT 71.13 74.32 59.95 61.90
yolov4 (COCO
dataset)
68.11 74.62 57.27 55.99
PointPaintingによるCamera画像の活用 ※各スライドでの評価結果とは評価データ
セットが異なるためあくまでもスライド内
における相対指標となります
93. TIER IV
mAP CAR AP Pedestrian AP Cyclist AP
CenterPoint 60.58 73.56 53.00 38.89
CenterPoint with
PointPainting
GT 71.13 74.32 59.95 61.90
yolov4 (COCO
dataset)
68.11 74.62 57.27 55.99
PointPaintingによるCamera画像の活用
94. TIER IV
CenterPointの改善の一部の例
BEVベースでは情報の損失が大きく、立体的な情報が失われる
- BEVではトラックと壁の区別がつきにくい
Single Frameでは精度が出ない
点群をBEVの特徴量画像に変換
CenterPoint
YOLO Range Image based
Semantic Segmentation
PointPaintingによるCamera画像やLiDARのRangeImageの活用
※今回はCamera画像を話します
Multi FrameによるDensification
(副効果として物体の速度出力も可能)