高級輔助駕駛系統(tǒng):駕駛員應知應會
雨刮器很久沒有工作了,您感覺前面就像涂了泥一樣昏暗,路邊的陰影也好像擋在了路中央。在朦朧中,您意識到車的盲點范圍里有一輛沒開大燈的車,您打著轉向燈,摸索著向中間車道行駛。突然,您想起了自己的車里應該有先進的主動安全系統(tǒng)。
近期可能出現(xiàn)的三種結果
這個故事可能有三種不同的結果,技術取勝,人戰(zhàn)勝機器,還有可能發(fā)生事故??赡苁沁@樣的:在您認識到將要發(fā)生什么之前,轉向燈已經(jīng)開始閃爍,自己的車稍稍向中間車道加速,然后,輕輕的剎車,避開了附近看不到的行人,也提醒了后面的車輛。
也可能是這樣:當車輪轉向時,您感覺到汽車的車道保持功能在起作用,把車拉回到原來的車道。但是,您仍然繼續(xù),打著轉向燈,安全的并線,對其他車輛刺耳的喇叭聲不聞不問。而此時,行人從路邊冒出,前擋風玻璃前視顯示系統(tǒng)沒有讓您及時看到這個人。好在您躲開了他。
或者,可能這樣:您轉向時,您聽到了不熟悉但是非常刺耳的報警聲。在您還沒有搞明白怎么回事時,一輛車從盲點里鳴著喇叭沖出來—現(xiàn)在,您沒有別的選擇,只能慌亂的剎車停下來。防抱死剎車功能在濕滑的路面上起作用了,讓您感到恐慌,車子終于緊挨著受驚嚇的行人停下來了。在極度驚恐中,您瞥了一眼儀表盤,知道了瘋狂報警的原因—高級輔助駕駛系統(tǒng) (ADAS) 關閉了。
這就是同一個場景三種完全不同的結果。這源于三種完全不同的 ADAS 。為說明這些不同,理解其影響,我們將詳細研究 ADAS 的實現(xiàn)。在今年的設計自動化大會上,舉行了一次主題研討和公開論壇,對此很好的進行了闡述。
從傳感器開始
ADAS 系統(tǒng)是邏輯流水線,要理解它最好從寬輸入范圍入手。福特汽車電子和電氣系統(tǒng)研究主任兼研究員 James Buczkowski 說:“隨著向自動化方向的發(fā)展,難點在于僅采用一種傳感器是遠遠不夠的?!?/P>
在公開論壇上,主持人是 Cadence 總編輯 Brian Fuller ,他也要求專家們研討一下 ADAS 傳感器。傳感器系統(tǒng)供應商 Nuvation 首席設計工程師 Edward Ayrapetian 認為,“目前我們使用了多種類型的傳感器。一般而言,您會看到激光雷達、普通雷達和高分辨率視頻攝像機的組合使用。但是隨著圖像處理算法的改進,所有一切都在不斷變化?!?/P>
Ayrapetian 解釋說,每一類傳感器都有其優(yōu)缺點,其他專家對此也表示同意。例如,激光雷達是谷歌 “無人駕駛” 汽車研究平臺的主要傳感器。這一技術的標志是激光器和旋轉的鏡子構成的半個圓球。激光雷達比較擅長勾勒出物體的外形,并提供距離數(shù)據(jù)—這些都是目標識別算法所必須的。而且,激光雷達對背景光線也不太敏感。
Ayrapetian 提醒說,“但是谷歌使用的激光雷達傳感器價格高達 10 萬美元?!?而且,在有霧或者下雪等低能見度的時候,從物體表面反射回來的光束所攜帶的信息量很少,激光雷達就不太好用了。Ayrapetian 提到了非常著名的加州沙漠聚會,“我們把自動駕駛卡車開向‘火人’。我們所知道的是,激光雷達無法識別一大片塵霧和磚墻?!?/P>
而雷達在一定程度上是非常好的互補技術。如果您仔細選好了頻率、波形和接收信號處理功能,那么,雷達不會受到干擾的影響,實際上在低能見度和光照條件下都能正常工作。大陸汽車系統(tǒng)和技術公司 ADAS 業(yè)務部主任 Christian Schumacher 補充說:“雷達能夠很好的獲得距離數(shù)據(jù)。但是,雷達不擅長識別物體?!?不太理想的外形數(shù)據(jù),而且沒有紋理或者顏色信息,這讓物體識別算法無法工作。
因此,我們使用了攝像機。隨著低成本高分辨率攝像機的出現(xiàn),視頻成為 ADAS 的關鍵傳感器技術,為物體識別提供了豐富的數(shù)據(jù)。多攝像機系統(tǒng)能夠避開某些視覺障礙,提供雖然有限但是足夠用的基于視差的距離信息。但是攝像機也有其問題,能見度差的時候無法工作。Schumacher 提醒說:“攝像機對光照要求很高。我們需要找到平衡點—一種在所有駕駛條件下都非常高效的系統(tǒng),但是不能有太多的傳感器。”
通過采用更好的算法來互相補充,以減少傳感器。Ayrapetian 說:“我們要考慮傳感器所面臨的問題及其關鍵程度來定制傳感器。如果把需求縮窄,就能夠改進算法。我們基本能夠采用更好的視頻流圖像處理算法來替代激光雷達?!?/P>
傳感器融合
即使在圖像處理技術上有所突破,大家一致認為仍然需要先進的傳感器融合技術才能從幾種不同類型的數(shù)據(jù)中,獲得車輛周圍環(huán)境正確的信息:物體,其速度和加速狀態(tài),以及可能的行為等。一個重要而且復雜的問題是,在系統(tǒng)中要進行多少次處理。有可能是將所有的原始數(shù)據(jù)送入融合引擎—例如,卡爾曼濾波器或者深度學習神經(jīng)網(wǎng)絡,看一看能夠得出什么。這種想法有一定的可行性,例如實際上有一類特殊的網(wǎng)絡,卷積網(wǎng)絡,它用在物體識別時的性能非常好。
但是,設計人員更傾向于采用他們在操作層面上能夠理解的系統(tǒng)。在5月份舉行的嵌入式視覺大會的一次研討中,谷歌自動駕駛汽車團隊的技術主任 Nathaniel Fairfield 說:“我們的策略是開發(fā)簡單的系統(tǒng)來處理傳感器數(shù)據(jù),然后,以更抽象的方式來融合經(jīng)過預處理的數(shù)據(jù)。我們更愿意通過一個大濾波器來運行所有一切。”
一種簡化的方法是對處理步驟進行邏輯排序 (圖1)。每一個傳感器都會進行本地信號調理,甚至可能根據(jù)下游的反饋來自動適應。然后,每一個傳感器會在本地根據(jù)其掌握的信息進行物體估算,為推斷出的這些物體附加一些屬性。
圖1. 您可以把ADAS看成是處理器流水線,越來越抽象的看待汽車周圍的環(huán)境。
例如,激光雷達能夠確定地面 030 方向有一個物體,從右向左移動,距離大概 20.24 米。雷達也會報告,在同一位置,地面噪聲背景上可能有一個物體。一對高分辨率攝像機會看清楚這一物體—看起來非常像一頭金色獵犬,方向在 025 至 035 之間,大概 15 米之外。
這些信息會被傳送至融合引擎,接收有物體存在這一主視圖,附加上最可靠的屬性—例如,位置、速度、大小和顏色。這些信息隨后會被送至一個分類引擎,將其標示為一條狗—例如,位置、速度、大小和顏色。這些信息隨后會被送至一個分類引擎,將其標示為一條狗
這看起來很有邏輯性,但卻不能解決問題。甚至在每一階段采用哪類算法都沒有達成一致。Schumacher 觀察到:“目前,大部分步驟都是基于規(guī)則的。但是,基于規(guī)則的系統(tǒng)需要很多支持。我們會看到一些算法采用了人們不好解釋的方法?!?
評論