ICCV 2019無人駕駛研究成果大總結(含大量論文及項目數據)

本文授權轉載自:智車科技

感知

【Fast PointR-CNN】

論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Chen_Fast_Point_R-CNN_ICCV_2019_paper.pdf

簡介:騰訊和香港大學聯合發表的論文基於KITTY提出了一種新的使用激光雷達技術的快速三維檢測方法。它將立體像素和點雲表示合併在一個兩階段的方法中,以利用兩者的優勢:立體像素表示用於初始提案,點雲表示用於細化階段。

【Range Adaptation for 3D Object Detection in LiDAR】

論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf

簡介:沃爾沃與杜克大學聯合發表的文章表示隨着激光雷達輸入變得更加稀疏,現有的三維檢測網絡的性能隨着距離的增加而降低。為此,本文提出了一種基於距離的神經網絡性能改進方法,以提高對遠距離目標的性能。

【M3D-RPN:Monocular 3D Region Proposal Network for Object Detection】

論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Wang_Range_Adaptation_for_3D_Object_Detection_in_LiDAR_ICCVW_2019_paper.pdf

項目代碼:

https://github.com/garrickbrazil/M3D-RPN

簡介:密歇根州立大學的文章提出一種新的單鏡頭單目三維目標檢測方法,極大地提高了基於KITTY數據集的技術水平。

【VehicleDetection With Automotive Radar Using Deep Learning on Range-Azimuth-DopplerTensors】

論文:http://openaccess.thecvf.com//content_ICCVW_2019/papers/CVRSUAD/Major_Vehicle_Detection_With_Automotive_Radar_Using_Deep_Learning_on_Range-Azimuth-Doppler_ICCVW_2019_paper.pdf

簡介:美國高通公司的團隊探索了一種通過雷達輸出探測車輛的方法。與其他方法不同的是,作者提出了處理原始傳感器測量數據以提高性能。

【JointMonocular 3D Vehicle Detection and Tracking】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Hu_Joint_Monocular_3D_Vehicle_Detection_and_Tracking_ICCV_2019_paper.pdf

項目代碼:

https://github.com/ucbdrive/3d-vehicle-tracking

簡介:加州大學伯克利分校表示檢測和跟蹤任務通常在一個模塊化的反病毒堆棧中相互獨立建模。這項工作提出了一種端到端的神經網絡,它只使用一個攝像頭就能學會兩者。

【How Do NeuralNetworks See Depth in Single Images?】

論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/van_Dijk_How_Do_Neural_Networks_See_Depth_in_Single_Images_ICCV_2019_paper.pdf

簡介:荷蘭代爾夫特理工大學近年來從單一圖像的深度方法有顯着提高。作者研究了這些方法是如何工作的,得出的結論是它們過度適合物體在圖像中的垂直位置。如果攝像頭安裝在車上的不同位置可能會導致錯誤。

【Robust Multi-Modality Multi-Object Tracking】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhang_Robust_Multi-Modality_Multi-Object_Tracking_ICCV_2019_paper.pdf

項目代碼:

https://github.com/ZwwWayne/mmMOT

簡介:南洋理工大學的多模態感知(在激光雷達和攝像頭中檢測和跟蹤目標)通常是通過模塊化的、多階段的方法實現的,每個方法都有自己的假設。該方法允許將這些單獨的步驟合併到一個端到端可訓練的系統中,從而提高的性能。

感知&規劃

【Exploring theLimitations of Behavior Cloning for Autonomous Driving】

論文:http://openaccess.thecvf.com/content_ICCV_2019/papers/Codevilla_Exploring_the_Limitations_of_Behavior_Cloning_for_Autonomous_Driving_ICCV_2019_paper.pdf

項目代碼:

https://github.com/felipecode/coiltraine/blob/master/docs/exploring_limitations.md

簡介:豐田研究所表示目前自動駕駛汽車(AVs)的軌跡規劃仍然主要是手工工作。使用機器學習解決這個問題的方法之一是模仿現有的驅動程序。作者研究了這種方法的局限性,並提出了一個新的數據集來評估學習策略的性能。

【TowardsLearning Multi-Agent Negotiations via Self-Play】

論文:

http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Tang_Towards_Learning_Multi-Agent_Negotiations_via_Self-Play_ICCVW_2019_paper.pdf

簡介:蘋果公司表示強化學習可能是機械人在沒有人工編碼的情況下學習如何行動的一種強有力的方式,但在現實的機械人技術中很難應用。在本論文中,作者使用模擬來評估一個基於強化學習的系統。

【PIE: ALarge-Scale Dataset and Models for Pedestrian Intention Estimation andTrajectory Prediction】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Rasouli_PIE_A_Large-Scale_Dataset_and_Models_for_Pedestrian_Intention_Estimation_ICCV_2019_paper.pdf

項目數據集:

http://data.nvision2.eecs.yorku.ca/PIE_dataset/

簡介:約克大學提出了一個新的數據集來預測行人的意圖和未來的軌跡。作者還為這些任務提供了基線模型。

建圖&定位

【DAGMapper:Learning to Map by Discovering Lane Topology】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Homayounfar_DAGMapper_Learning_to_Map_by_Discovering_Lane_Topology_ICCV_2019_paper.pdf

簡介:Uber ATG為自動駕駛汽車創建了高清語義映射工作,提出了一種自動生成語義地圖的方法,實現了89%的正確拓撲。

【GSLAM: AGeneral SLAM Framework and Benchmark】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Zhao_GSLAM_A_General_SLAM_Framework_and_Benchmark_ICCV_2019_paper.pdf

項目代碼:

https://github.com/zdzhaoyong/GSLAM

簡介:中國西北工業大學表示SLAM系統在過去十年中得到了顯著的發展,在此基礎上,提出了一個統一的框架來比較現有方法的不同組成部分,並幫助開發新的方法。

【LPD-Net: 3DPoint Cloud Learning for Large-Scale Place Recognition and Environment Analysis】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Liu_LPD-Net_3D_Point_Cloud_Learning_for_Large-Scale_Place_Recognition_and_ICCV_2019_paper.pdf

簡介:香港中文大學在預先構建的地圖中,基於雷達的本地化是自動駕駛汽車視覺堆棧的關鍵組成部分。在這篇論文中,作者提出了一個全局學習描述符來識別車輛在地圖的哪個部分。

【SemanticKITTI:A Dataset for Semantic Scene Understanding of LiDAR Sequences】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Behley_SemanticKITTI_A_Dataset_for_Semantic_Scene_Understanding_of_LiDAR_Sequences_ICCV_2019_paper.pdf

網址:

http://www.semantic-kitti.org/

項目代碼:

https://github.com/PRBonn/semantic-kitti-api

簡介:德國波恩大學提出了一種新的數據集,它提供了所有KITTY序列中點雲的語義注釋。以此來開發地圖和感知系統的語義分類。

自動駕駛數據管理

【DBUS: HumanDriving Behavior Understanding System】

論文:

http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Li_DBUS_Human_Driving_Behavior_Understanding_System_ICCVW_2019_paper.pdf

簡介:滴滴出行聯合南加利福尼亞大學表示Crowd-sourcing是一種收集大量人類駕駛數據來訓練自動駕駛系統的方法。使這些數據可搜索且有用。為了解決這個問題,作者提出了一個端到端系統,該系統允許處理、索引和查詢大量的驅動數據,以檢索相關的場景。

【Large ScaleMultimodal Data Capture, Evaluation and Maintenance Framework for AutonomousDriving Datasets】

論文:

http://openaccess.thecvf.com//content_ICCVW_2019/papers/AUTONUE/Lakshminarayana_Large_Scale_Multimodal_Data_Capture_Evaluation_and_Maintenance_Framework_for_ICCVW_2019_paper.pdf

項目代碼:

https://github.com/intel/driving-data-collection-reference-kit

簡介:因特爾公司表示自動駕駛不僅是對人工智能的挑戰,也是一個重大的工程和數據管理挑戰。本文描述了一個存儲和處理大量自動駕駛數據的案例研究和所涉及的挑戰。

【Meta-Sim:Learning to Generate Synthetic Datasets】

論文:

http://openaccess.thecvf.com/content_ICCV_2019/papers/Kar_Meta-Sim_Learning_to_Generate_Synthetic_Datasets_ICCV_2019_paper.pdf

項目代碼:

https://github.com/nv-tlabs/meta-sim

簡介:NVIDIA聯合多倫多大學在具有挑戰性的條件下綜合數據是訓練或測試自動駕駛堆棧的方法之一。本文提出了一種基於用戶文本輸入的場景生成模型。

【Advanced Pedestrian Dataset Augmentation for Autonomous Driving】

論文:

http://openaccess.thecvf.com//content_ICCVW_2019/papers/ADW/Vobecky_Advanced_Pedestrian_Dataset_Augmentation_for_Autonomous_Driving_ICCVW_2019_paper.pdf

簡介:布拉格捷克理工大學在具有挑戰性的條件下綜合數據是訓練或測試自動駕駛堆棧的方法之一。作者提出了使用GANs來生成行人檢測問題的數據。