自動駕駛方案試駕及感知相關問題總結

  • 2021 年 6 月 8 日
  • AI

最近試駕了兩台車的自動駕駛,一個新勢力,一個傳統主機廠。剛好可以從半個從業者的角度看看視覺感知的問題。

感測器上,都是依靠 毫米波+視覺 的思路。 從視覺的角度來看基本功能主要兩個:

  1. 目標檢測
  2. 車道檢測

暴露問題

目標檢測

1. 識別不連續的情況偶有發生

這個問題從目標檢測的情況下是難以避免的,都是靠跟蹤濾波演算法盡量讓目標穩定。不過,這會加重下面識別延遲的問題。

想要盡量緩解這個問題,除了最粗暴的刷指標,可以從多幀融合的角度來考慮(不單是網路結構和預測階段考慮,訓練階段也可以利用多幀之間的關係)。
多相機之間目標進出也可能帶來不穩定,這個可以通過多相機的融合,讓神經網路可以進一步擴寬視野,讓目標在更大的角度、更遠的距離上被捕獲。

2. 識別速度不足,速度較快的進入識別範圍的車輛會有可以感知到的延遲

識別延遲的問題來源可能有兩個:

  • 本身的識別演算法性能不足
  • 跟蹤、濾波演算法對高速移動物體處理能力不足

現在的量產車似乎一直在強調自己的攝影機像素xxx萬像素,比如現在的PPT一般都在8m像素。然而,實際上從自動駕駛感知的技術角度來看,在滿足了一定像素後,高幀率相機配合高幀率演算法才是一個更加務實的選擇。

對於像素,可以很簡單的估計一個相機系統數據頻寬。一般自動駕駛的車輛都會布置 8+ 相機,如果是8m像素,那麼大致相當於 8路以上的 4K 影片的頻寬。對於感知演算法來說,這個解析度基本都是浪費,算力支撐不起來在這個像素水平上的演算法。

即使可以用滿頻寬,車載算力平台也可能無法保證所有相機的穩定幀率。與其如此,還不如換個幀率稍高、像素稍低的(畢竟8m相機很有可能只有20FPS)相機,在演算法性能上再考慮優化。

3. 主要限定在某些特定場景上,場景外的情況表現都明顯有下滑

這個和數據採集相關,不多說。當然,限定場景也是因為目前網路很難解決長尾問題,只能通過限定區域來減少長尾案例的出現概率。


4.
大型車輛近距離識別問題

本身確實是一個難點,尺寸過大帶來攝影機無法看到完整物體。尤其是大卡車,側向的攝影機可能只能看到車身紋理資訊了。雖然這種情況也可以檢出有物體存在,但是由於缺少邊緣,會無法判斷物體的尺度、距離。給下游的決策和控制帶來難度。
這裡可以嘗試的也只能是通過擴大攝影機的視角範圍,盡量拼湊出物體的邊緣。或者折中,盡量獲得地面資訊,這樣可以更加容易判斷大車的運動趨勢。

5. 擁堵的時候,跟車目標判斷上會有混亂情況發生

難解問題,擁堵之後會缺少車道線資訊,很難判斷那輛車是本車道內。尤其是,面對併入車道、彎道場景,外界的車輛軌跡在變,本車的車頭方向也可能有變化。這個之前自己做ADAS的時候,也遇到過前車判斷邏輯會容易跳目標。

不過這個問題一般發生在慢速情況下,所以即使有跳變問題也不大。

車道檢測

最明顯的:不能處理匝道、彎道、路口等等車道線比較異常的情況。

這個可以說是場景限制帶來的。實際上是,在這些案例上很難做好,只能放棄。而且,目前的很多車道線方案本身就不具備解決這些場景的能力。包括試乘的新勢力的車,明顯的不能處理橫向車道的能力,所以完全不具備路口能力。

車道檢測的問題依靠逆向來猜測感知能力相對比較難,目前已知的也就是這個比較明顯。

Tesla FSD

FSD 在YouTube上已經有很多車主的影片了,相對比來看,Tesla確實是量產目標裡面做的最全面的一個了。尤其是考慮 Tesla 的感測器/地圖方案的激進,能做到目前的水平已經是難度很大了。因為各種原因,FSD 似乎被非議比較多,但是目前進度上,從量產目標角度看,Tesla其實是走的最遠的。