最近有一個熱點事件,有個人開車到墓地,車內屏幕顯示周圍有十幾個行人,甚至還有一個騎自行車的,而當時的墓地道路上空無一人。
居然在墓地看到了『鬼影』,這個消息一下子就火爆全網了,說啥的都有。
汽車廠家作出了回應,稱采用的是激光雷達和視覺攝像頭融合感知,受限於當前市場傳感器識別能力的局限性,出現了識別偏差,後續會升級改進。
那問題就來了,不同廠家使用的傳感器性能相當,是否在同樣情況下是也會出現鬼影呢?『鬼影』背後的技術原因是什麼?如何才能解決?這些問題都值得深究。
01
不同廠家的傳感器
有什麼不同?
現在用於輔助駕駛的車載傳感器主要有三種,分別是視覺攝像頭、毫米波雷達和激光雷達。
視覺攝像頭類似於人的眼睛,善於識別物體的形狀和顏色,但不具備測距能力,夜晚的識別能力會大幅下降。
毫米波雷達對目標的位置和速度非常敏感,而且抗幹擾能力很強,對煙霧和塵埃穿透能力很好,但它對目標的形狀和性質卻無能為力。
激光雷達的測距能力強,多線激光雷達還可以描繪目標的輪廓。
但它不能區分顏色,而且受煙霧和塵埃的影響很大。
三種傳感器的原理和能力非常不同,分別適用於不同的場景,各有優長和短板。
將三種傳感器采集到的信息進行整合,取長補短,發揮 1+1+1>3 的優勢,這叫作『多傳感器信息融合』,是門非常高深的信息技術。
白天多依賴視覺傳感器,霧霾天多依賴毫米波雷達,晚上多依賴激光雷達,這種定性說法很好理解,但如何對環境進行定量分析,三種信息的置信度和權值該如何確定,這是很復雜的系統工程。
好比是你戴一塊手表,看時間沒有問題,讓你戴三塊手表,就不會看時間了。
可有人精通三塊手表的誤差特性,通過補差校準後,能得出比戴任何一塊表都更精準的時間。
但是,如果補差校準《即多傳感器信息融合》的方法不對,把三塊表的時間進行一番加減乘除,就可能得出一個遠離正確時間的數據,這就悲劇了。
02
為什麼車載電腦會顯示『鬼影』?
我曾從事多年的雷達相關工作,對『多傳感器信息融合』的感觸很深。
用三部雷達觀測同一批空情目標,會得到三個不同的航跡,這就需要用很復雜的技術方法進行航跡融合。
融合好了,航跡精度會比單部雷達高,融合不好,航跡精度反而比單部雷達低。
所以說,並不是傳感器越多精度就越高,『多傳感器信息融合』的能力才是關鍵,如果能力不夠,效果反而更糟。
某國外著名新能源車采用的是『純視覺方案』,其實就是隻戴一塊表,避開了『多傳感器信息融合』的難題,成本低這頭先占上了,而且現階段的識別能力更穩定。
從長遠看,汽車的多傳感器信息融合是必然趨勢,但現階段的能力還有待觀察。
回到墓地鬼影事件,廠家的解釋是『采用的是激光雷達和視覺攝像頭融合感知,受限於當前市場傳感器識別能力的局限性,出現了識別偏差』。
當前市場傳感器的性能是一致的,激光雷達和視覺攝像頭融合感知也是各廠家的普遍做法。
如果其他廠家在相同場景不出現鬼影的話,那問題就出在了『多傳感器信息融合』方面,而不是傳感器性能本身。
通過傳感器識別車外目標,並通過車載電腦顯示出來,這需要對車外目標進行模式識別,『模式識別』是人工智能的重要內容,也是近年來很熱門的研究方向。
車外環境目標大體有六種,分別為卡車、大客車、小客車、摩托車、自行車和行人。
如果傳感器的探測規則是:高度 1~2.5 米,寬度 <1 米,速度 <2 米/秒,就判定為行人,而不是卡車等其他五種目標。
這是一個很合理的模式識別方法,但樣本隻有 6 個,空間實在是太小了。
如果按照上述的規則,路邊的垃圾桶、郵筒都會被顯示成行人。
好比是一個人隻見過蘋果和香蕉,你給他橘子、鴨梨、石榴,他都會判定為蘋果。
很明顯,墓地墓碑等景物,並沒有被該廠家納入到樣本空間。
除了樣本空間要大,還要增加一個『負邏輯』。
以行人為例,不僅要有符合哪些標準就可以判定為行人的正邏輯,還要有符合哪些標準就可以判定不是行人的負邏輯。
例如,路邊有個塑料的衣服模特,高度、寬度、速度都符合行人標準,但它沒有頭,就可以判定它不是行人。
沒頭的就不是行人,這就是一條很重要的負邏輯。
那該如何改進呢?有簡單和復雜兩種方法。
簡單方法就是提高判決閾值,即在原有基礎上,縮小判定為行人的數值范圍,墓碑等就不會被顯示成行人了,但有些正常行人就會顯示不出來了。
這就是通過提高『漏報率』的方法來降低『誤報率』,本質就是拆東墻補西墻,這種簡單方法不是正路。
復雜方法,就是不斷提高『多目標信息融合』和『模式識別』的能力,不斷增加樣本空間,不斷充實正負邏輯,從而從根本上提升目標識別的能力。
這是一條艱辛的道路,但它是能獲得真正技術進步的正路。
作者:張弛
審核:劉紅梅 中國傳媒大學電視學院副研究員
來源:科普中國
-點擊閱讀更多科學家的故事-
科技發展的背後離不開科技工作者的奉獻
閱讀『科技工作者』
了解更多科學背後的故事