新聞中心

EEPW首頁 > 汽車電子 > 市場分析 > 承認特斯拉自動駕駛標桿的地位很難嗎?

承認特斯拉自動駕駛標桿的地位很難嗎?

作者: 時間:2024-08-16 來源:EEPW 收藏

在過去幾年的時間里,始終引領著自動駕駛技術路線的轉變。2021 年,從基于CNN 的機器視覺到基于Transformer 的BEV,2022 年,從BEV 矢量空間到感知粒度更精細的OCC 占位空間,到這里,自動駕駛系統(tǒng)中的感知模塊基本完成了端到端,2023 年,實現決策規(guī)劃端到端,并再度轉向全鏈路端到端,每一次,都走在了國內友商的前列腺上面。

本文引用地址:http://www.butianyuan.cn/article/202408/462114.htm

感性的人不服氣,華為、小鵬們?yōu)槭裁匆冯S特斯拉的技術路線,就不能特立獨行一點,走出屬于自己的一片天?理性的人在思考,為什么每一次技術路線切換的發(fā)起者都是特斯拉,難道馬斯克坐著時光機到未來旅行過嗎?

1723819380983322.png

圖片來源:特斯拉

感性可以幫助人們發(fā)泄情緒,理性可以幫助我們更好地認識世界、解決問題,今天,咱們就從理性的角度出發(fā),捋一捋在過去的幾年中智能駕駛行業(yè)發(fā)生的歷次技術路線轉變及其背后的時間線。

1723819454176622.png

圖片來源:吉利

1 相機視圖到BEV視圖

據說,人類一思考,上帝就發(fā)笑,所以,人人都可以事后諸葛亮,卻不可能事中擁有上帝視角。人類的世界是這樣,機器的世界卻未必然也。在諸多傳感器加持之下的自動駕駛汽車,雖不能耳聽八方,卻可以眼觀六路,妥妥地具有了上帝視角。

這個上帝視角便是三維空間下的BEV、鳥瞰視圖。BEV之前的感知算法依靠深度卷積神經網絡完成在各個攝像頭的二維圖像中進行圖像分割、語義識別,然后進行后融合,這種算法很難精確辨別時空交織環(huán)境下各個交通參與者之間的關聯(lián),難以識別暫時被遮擋的車輛、行人,這就導致了自動駕駛功能橫向(設計運行域)和縱向(功能集)擴展上的困難,直到2017 年Transformer大模型的問世,可以在空間上有效地對各個攝像頭的多尺度圖片特征進行匹配,在時間上對前后幀進行時序上的匹配。才解決了四維(空間三維+ 時間)空間下交通環(huán)境的有效感知。

1723819493685241.png

圖片來源:特斯拉

至于為何基于Transformer架構的BEV的量產落地被特斯拉搶了先,現在來看,大致有兩個方面的原因。

其一,特斯拉率先洞察了Transformer架構的價值。有例為證,據事后披露,當時的OpenAI首席科學家IIya(被馬斯克挖來的)在Transformer 架構剛問世就直覺性地意識到了這種模型架構的巨大價值,并開始基于Transformer架構做大語言模型,作為OpenAI 聯(lián)合創(chuàng)始人的馬斯克與OpenAI當時正處于蜜月期。

1723819569366482.png

圖片來源:元戎啟行

其二, 與CNN 相比,Transformer 大模型非常消耗算力,非普通芯片所能承擔。特斯拉2019 年量產的HW3.0算力已經達到了144TOPS,時隔兩年后,國內車企依賴的英偉達芯片Xavier的算力還只有30TOPS。大概也正是這么個原因,直到更高算力的Orin在2022年批量供貨后,國內車企才最終實現了BEV。

落后的不只是蔚小理這類本土車企,國內的頭部智能駕駛方案供應商也是在2022 年走向了BEV前融合的范式。

1723819658964304.png

圖片來源:百度風投

當然,落后的還有華為。說起華為,它落后的原因有些令人心酸。要知道,華為MDC平臺依靠的車端推理芯片是2018 年推出的晟騰310,單顆FP16 算力只有8TOPS,各個芯片之間依賴現在來看非常落后的PCIe 3.0進行互聯(lián),算力比特斯拉落后了整整一個數量級。不過,它能在如此這般落后的算力平臺上將BEV 的落地時間縮短到不足一年,說明華為的工程實現能力不是一般地強大。華為之前(現在應該有新芯片了)如何依靠多個單顆算力只有8TOPS 的晟騰310 做出國內領先的自動駕駛系統(tǒng),至今也是一個迷。

2 BEV矢量空間到OCC占用空間

和基于CNN 的相機視圖后融合路線相比,基于Transformer 的BEV 前融合在交通場景(靜態(tài)的道路結構和動態(tài)的交通參與者)的感知上有了巨大的進步,但是,BEV 依靠大量數據訓練識別白名單障礙物的能力,在白名單思想的限制下,無法被BEV 有效識別的物體就有可能造成碰撞隱患,而在車輛行駛過程中,優(yōu)先級最高的任務就是防撞。

1723819789119619.png

圖片來源:小鵬汽車

一個顯而易見的解決方案是通過立體障礙物的檢測識別交通環(huán)境中BEV 無法正確感知的通用障礙物,標識出可通行的道路空間,保證自動駕駛中優(yōu)先級最高的子任務- 防撞- 可以發(fā)揮兜底作用。這個障礙物檢測在特斯拉那里叫做Occupancy Network 占用網絡,在華為那里叫做GOD 網絡。和BEV 算法相比,占用網絡利用特征向量表達空間中的每一個體素,感知顆粒度更精細,通過空間占位的檢測,可以識別白名單障礙物之外的通用障礙物,保證行車的安全。

3 分模塊到端到端

現實真的很魔幻,起步太早,容易成為先烈,變成后來者的墊腳石,時機掌握的恰到好處,才能成為先驅。明明是英偉達早在2016 年就開始率先探索轉到端技術方案,但是人們卻把鮮花和掌聲送給了2023 年將端到端自動駕駛方案落地車端的特斯拉。

早在2016 年,頭號智駕芯片供應商英偉達就開始研究端到端方案,不過,因為算力不足、數據有限等一系列原因,最終無功而返,于2020 年放棄了在這條技術路線上的探索。所以,在FSD V12 橫空出世之前,幾乎所有人都認為端到端方案“固然是極好的”,水論文、發(fā)Paper、做Demo 都沒問題,但要工程落地到可以大規(guī)模量產推廣的程度,難度實在是太大了。

蜀道難,難于上青天,比上青天更難的是端到端。早在幾年前就把一輛Roadster 發(fā)射上天的硬核特斯拉,可是從來都不信邪的。是端到端真的不行還是你不行?老馬大腿一拍,做一下實驗,燒了幾億美金之后,證明了這是一條可以工程落地、具備更高性能天花板、具有更為出色的持續(xù)學習能力的技術路線,從此引發(fā)了自動駕駛行業(yè)這一年來的飛速裂變。

特斯拉并不是“端到端”技術路線的始作俑者,但是,是特斯拉推動著端到端從學術研究進入了工程實現的層面,所以業(yè)界普遍認為,自動駕駛算法團隊只有兩三百人的特斯拉又雙叒叕地開啟了自動駕駛技術路線的又一次轉變。

目前,國內新勢力車企基本已經實現了感知層的端到端,目前正在奮力實現(口頭上已經實現)決策層的端到端。按照小鵬汽車對XNet、XPlanner、XBrain 的介紹,小鵬汽車的端到端目前停留在分模塊階段。

至于傳統(tǒng)車企這邊,它們目前的主要發(fā)力方向是BEV+ 占用網絡,只有將這兩者打磨成熟之后,將動態(tài)BEV、靜態(tài)BEV 和通用障礙物占用網絡三網合一,才能實現感知層的端到端,之后才是 AI 和編碼結合的決策層全面神經網絡化,實現決策層的端到端,如此實現分模塊的端到端方案之后,才能考慮向全鏈路端到端的轉換。當然,作為下一代技術路線,傳統(tǒng)車企肯定也在密切關注端到端的進展。

4 結束語

歷數這幾年來智能駕駛技術路線的三次轉換,BEV思想可以追溯到原本利用相機物理原理通過幾何投影將透視圖轉換成俯視圖的傳統(tǒng)方法中,占用網絡的思想提出時間是2019 年,至于端到端,如前文所述,英偉達早在2016 年就開始了探索。所以,特斯拉并非BEV、OCC、端到端技術路線的原創(chuàng)者,發(fā)明家的帽子另有所屬,特斯拉斷不會張冠李戴。

但是,在現實的工程世界里,并非條條大路通羅馬,在過去的幾年中,特斯拉確實充當了技術路線的探索者和排頭兵,給國內的友商提前探明了好多坑,從這個角度,尊稱特斯拉一句行業(yè)標桿也不太過分吧。

(本文來源于《EEPW》



評論


相關推薦

技術專區(qū)

關閉