百度在CES Asia上都展示哪些自動(dòng)駕駛成果?
近日,百度智能汽車(chē)事業(yè)部總經(jīng)理顧維灝在 CES Asia 上帶來(lái)了主題為《自動(dòng)駕駛新浪潮》。在演講中,顧維灝詳解了百度在自動(dòng)駕駛領(lǐng)域的兩大亮點(diǎn)成果——端到端的自動(dòng)駕駛模型 Road Hackers, 以及與德賽西威、聯(lián)合汽車(chē)電子分別開(kāi)發(fā)的、國(guó)內(nèi)首個(gè)可量產(chǎn)的自動(dòng)駕駛計(jì)算平臺(tái) BCU(Baidu Computing Unit)。
本文引用地址:http://butianyuan.cn/article/201706/360389.htm
長(zhǎng)城汽車(chē)提供底盤(pán)控制技術(shù),英偉達(dá)提供 DRIVE PX2 計(jì)算平臺(tái),百度提供自動(dòng)駕駛技術(shù)
百度還在場(chǎng)館外進(jìn)行了自動(dòng)駕駛車(chē)輛的測(cè)試,該車(chē)最大亮點(diǎn)是采用了基于單目攝像頭、端到端深度學(xué)習(xí)自動(dòng)駕駛解決方案。百度一位工程師向我們透露,除了此次與長(zhǎng)城汽車(chē)合作的兩款車(chē)型外,今年 8月,百度還將展示第三輛自動(dòng)駕駛汽車(chē)——具備自定位、環(huán)境感知能力和決策控制能力。
今年 3 月,百度通過(guò)內(nèi)部郵件宣布,對(duì)現(xiàn)有業(yè)務(wù)及資源進(jìn)行整合,成立智能駕駛事業(yè)群組(IDG),由自動(dòng)駕駛事業(yè)部(ADU)、智能汽車(chē)事業(yè)部(L3)、車(chē)聯(lián)網(wǎng)業(yè)務(wù)(Car Life etc.)共同組成。作為百度智能駕駛事業(yè)群組的事業(yè)部之一,本屆 CES Asia 可以看成是智能汽車(chē)事業(yè)部(L3)整體發(fā)展成果的一個(gè)展示窗口。眼下,百度的阿波羅計(jì)劃依舊沒(méi)有太多實(shí)質(zhì)性的消息公布。在這次長(zhǎng)達(dá) 45 分鐘的演講中,關(guān)于阿波羅計(jì)劃」的介紹也僅在最后的 5 分鐘:阿波羅計(jì)劃是一套開(kāi)放、完整,安全的生態(tài)系統(tǒng)和架構(gòu),它包含了四個(gè)層次:參考汽車(chē)層,參考硬件層,軟件平臺(tái)層、云服務(wù)層。
顧維灝表示,演講中的內(nèi)容對(duì)于整個(gè)阿波羅計(jì)劃來(lái)說(shuō)只是冰山一角。盡管如此,顧此次的演講依然值得咀嚼,他代表的是百度另一種自動(dòng)駕駛解決方案的思路:如何用低成本、成熟的傳感器和端到端的深度學(xué)習(xí)實(shí)現(xiàn)自動(dòng)駕駛。以下是顧維灝在 CES Asia 的演講,我們?cè)诓桓淖冊(cè)獾幕A(chǔ)上做了編輯與刪減:
自動(dòng)駕駛仿真技術(shù)
在這次展會(huì)上,除了高精地圖外,我們還帶來(lái)了更多面向智能汽車(chē)、自動(dòng)駕駛或智能駕駛的新產(chǎn)品。如果你到我們展臺(tái),會(huì)發(fā)現(xiàn)有一個(gè)互動(dòng)的大屏,它展示的是自動(dòng)駕駛仿真技術(shù),這項(xiàng)技術(shù)主要解決的是自動(dòng)駕駛測(cè)試問(wèn)題。
我們相信未來(lái)的自動(dòng)駕駛,它的能力一定會(huì)超過(guò)人類(lèi)。但是,如何超過(guò)人類(lèi)?我們需要在真實(shí)的道路和環(huán)境上實(shí)踐多少才能達(dá)到人類(lèi)的水平?有很多論文都在研究這個(gè)問(wèn)題。其中我看到一篇比較著名的論文,通過(guò)各種可信度和置信度的計(jì)算,在理想情況下,汽車(chē)需要行駛兩億英里才能夠達(dá)到人類(lèi)的水平。而特斯拉通過(guò)自己的計(jì)算,需要六億英里。
對(duì)中國(guó)來(lái)講,路況更加復(fù)雜,我們需要測(cè)試多少里程才能讓自動(dòng)駕駛車(chē)輛趕上或者超過(guò)人類(lèi)的水平?這是一個(gè)非常艱巨的任務(wù)。所以我們展示一個(gè)仿真的環(huán)境:將高精地圖灌入到仿真環(huán)境里,再建立一個(gè)虛擬現(xiàn)實(shí)的 3D 環(huán)境。同時(shí),我們把自動(dòng)駕駛算法、車(chē)輛控制動(dòng)力模型也加入到仿真器里——它可以隨時(shí)地、不停歇地進(jìn)行測(cè)試。有了這個(gè)仿真器,我們實(shí)際上就能更快、更好地加速自動(dòng)駕駛的測(cè)試過(guò)程。
深度學(xué)習(xí)
當(dāng)我們?cè)谡勅斯ぶ悄艿臅r(shí)候,我認(rèn)為有最關(guān)鍵的兩點(diǎn):第一,有沒(méi)有足夠多的數(shù)據(jù),這是人工智能基礎(chǔ);第二,有沒(méi)有能力將這些數(shù)據(jù)轉(zhuǎn)化為知識(shí)。語(yǔ)音識(shí)別把聲音轉(zhuǎn)化成文字,這是一種知識(shí)能力的轉(zhuǎn)化,我們從圖像里去識(shí)別貓狗、汽車(chē),這也是知識(shí)的轉(zhuǎn)化。所以,只有具備了數(shù)據(jù),又有將數(shù)據(jù)轉(zhuǎn)化為知識(shí)能力,才能稱(chēng)得上人工智能。
過(guò)去十幾年,我們一直是最好的中文搜索引擎,也積累了大量的文本結(jié)構(gòu)數(shù)據(jù)。現(xiàn)在的互聯(lián)網(wǎng)或者過(guò)去十幾年在互聯(lián)網(wǎng)上存在的每一個(gè)網(wǎng)頁(yè),我們數(shù)據(jù)里都有存載。
有這么大的數(shù)據(jù)后,如何將這些數(shù)據(jù)通過(guò)搜索引擎的排序算法,更好的展現(xiàn)給不同的搜索者?隨著人們對(duì)搜索的要求越來(lái)越高,我們對(duì)搜索引擎的算法也提出了更多要求。百度是最早引入機(jī)器學(xué)習(xí)算法作為搜索引擎的主算法,同時(shí)加入了個(gè)性化——我們叫做點(diǎn)擊調(diào)臺(tái)的能力,使得每個(gè)人看到的、搜索的結(jié)果,都會(huì)有針對(duì)個(gè)人特點(diǎn)的不同排序。
我們之所以說(shuō)過(guò)去一段時(shí)間,識(shí)別的效果或搜索算法不好,是因?yàn)槲覀冊(cè)诿鎸?duì)有限計(jì)算資源時(shí),要做很多 trade off(取舍):主動(dòng)進(jìn)行剪枝,讓搜索空間變小,更快拿出準(zhǔn)確的結(jié)果,但這樣我們可能就會(huì)喪失一些好的結(jié)果。隨著計(jì)算能力的提升,包括 FPGA,GPU、CPU 的發(fā)展,這個(gè)搜索空間可以變得更大,這個(gè)時(shí)候好的結(jié)果被砍掉的機(jī)率會(huì)變小,更相關(guān)的結(jié)果就排到了前面。所以,我們?cè)谒阉饕娣矫娴哪芰Ψe累,現(xiàn)在也應(yīng)用在自動(dòng)駕駛領(lǐng)域。
自動(dòng)駕駛需要新的算法
搜索面臨的是一個(gè)結(jié)構(gòu)化的文本數(shù)據(jù),但自動(dòng)駕駛面對(duì)的環(huán)境更復(fù)雜,遇到的也是完全不一樣的數(shù)據(jù):更多圖像,更多傳感器回傳的復(fù)雜數(shù)據(jù)。比如 Lidar(激光雷達(dá)),傳回來(lái)的激光點(diǎn)云;radar (雷達(dá))傳回來(lái)的是探測(cè)結(jié)果數(shù)據(jù);camera (攝像頭)傳回的影像數(shù)據(jù)。更多現(xiàn)實(shí)環(huán)境的數(shù)據(jù)引入,讓整個(gè)數(shù)據(jù)變得更加復(fù)雜,規(guī)模更大,所需的計(jì)算資源也更多。這時(shí)候我們需要更多、更新、更快的新的深度學(xué)習(xí)算法。在過(guò)去的一兩年,我們看到自動(dòng)駕駛所需要的數(shù)據(jù)、算法和計(jì)算的能力,都在不斷地提高,這也讓自動(dòng)駕駛更快速進(jìn)入這個(gè)時(shí)代。
針對(duì)自動(dòng)駕駛,有很多新的算法出現(xiàn),百家爭(zhēng)鳴,各不相同。但我認(rèn)為現(xiàn)在自動(dòng)駕駛還處在一個(gè)相對(duì)比較早期的階段。如果對(duì)這個(gè)行業(yè)有所關(guān)注,你可能會(huì)看到不管是創(chuàng)業(yè)公司還是成熟公司,他們都演示過(guò)自己的自動(dòng)駕駛技術(shù)。他們?cè)谲?chē)上搭載的傳感器都不相同:激光雷達(dá)、毫米波雷達(dá)、超聲波雷達(dá)、前視攝像頭、環(huán)視攝像頭、黑白攝像頭、彩色攝像頭等等。各種傳感器不同,數(shù)量也不一。你會(huì)發(fā)現(xiàn)這些自動(dòng)駕駛汽車(chē)與現(xiàn)實(shí)世界的汽車(chē)非常不同。當(dāng)然,不同場(chǎng)景所需要的傳感器、所要求的算法復(fù)雜度或者算法的種類(lèi)也不同。比如,以圖像為主的解決方案,要處理圖像的數(shù)據(jù),我們會(huì)選擇更加主流的卷積神經(jīng)網(wǎng)絡(luò),它對(duì)圖像定型計(jì)算、目標(biāo)識(shí)別、語(yǔ)義分割比較在行。
對(duì) Lidar、radar 這種數(shù)據(jù)量要求更大的傳感器,我們肯定需要不同的深度學(xué)習(xí)算法。但如果我們的目標(biāo)是希望自動(dòng)駕駛盡快到來(lái),就必須考慮一個(gè)非?,F(xiàn)實(shí)的問(wèn)題:用什么樣的傳感器才能讓自動(dòng)駕駛更快到來(lái)?我們的一個(gè)答案是:用更便宜、更成熟的傳感器,用更先進(jìn)的深度學(xué)習(xí)算法來(lái)實(shí)現(xiàn)自動(dòng)駕駛。
Road Hackers:阿波羅計(jì)劃的一部分
我們?cè)谶@方面的實(shí)踐: Road Hackers,這是基于深度學(xué)習(xí)的自動(dòng)駕駛解決方案。我們的目標(biāo)是通過(guò)一個(gè)消費(fèi)級(jí)攝像頭、深度學(xué)習(xí)算法實(shí)現(xiàn)自動(dòng)駕駛。當(dāng)然,這是我們最苛刻的一次實(shí)踐。我們不可能只依賴(lài)這一個(gè)方案實(shí)現(xiàn)自動(dòng)駕駛,未來(lái)我們還是需要雷達(dá)或者其他傳感器。但如果我們今天對(duì)最苛刻的環(huán)境,實(shí)踐得更多,要求得更嚴(yán),那在未來(lái),自動(dòng)駕駛對(duì)整個(gè)汽車(chē)的安全和擴(kuò)展性也會(huì)更方便。所以我介紹的這個(gè)實(shí)踐,就是通過(guò)一個(gè)傳感器、深度學(xué)習(xí)的算法和過(guò)去我們積累的大數(shù)據(jù)來(lái)實(shí)現(xiàn)自動(dòng)駕駛的。秉著這樣一個(gè)想法,我們?cè)谌ツ觊_(kāi)始了一系列調(diào)研工作。在這個(gè)過(guò)程中,我們發(fā)現(xiàn)在過(guò)去的積累中,我們做了一件非常了不起的事。
2013 年,當(dāng)時(shí)我還在百度地圖部門(mén),那時(shí)我們升級(jí)了所有的地圖采集車(chē)輛,讓所有的地圖采集車(chē)輛都用上了最先進(jìn)的傳感器設(shè)備。在地圖采集的過(guò)程中,我們記錄了所有影像,記錄了采集車(chē)上司機(jī)所有的駕駛行為,包括轉(zhuǎn)方向盤(pán)、踩油門(mén)、踩剎車(chē)的行為。去年,我們發(fā)現(xiàn)了這個(gè)寶藏。
紅色的線代表方向盤(pán)轉(zhuǎn)向的角度。綠色的線代表用算法預(yù)測(cè)出的司機(jī)對(duì)方向盤(pán)的轉(zhuǎn)動(dòng)
我們每天都有幾百輛采集車(chē)在全國(guó)各地行駛,每年整體的采集里程達(dá)到數(shù)百萬(wàn)公里。我們開(kāi)始用深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的算法去挖掘這些數(shù)據(jù)和行為。這是我們?cè)诮衲?1 月份美國(guó)拉斯維加斯的 CES 上正式發(fā)布的視頻(如上圖)。在這張圖上,我們預(yù)測(cè)的行為和司機(jī)實(shí)際駕駛行為,在方向盤(pán)轉(zhuǎn)角上已經(jīng)相對(duì)接近。
當(dāng)然,我們也意識(shí)到,這樣的寶藏只靠我們?nèi)ネ诰蚝蛯?shí)現(xiàn)是有限的,我們的速度還不夠快。所以我們將這套數(shù)據(jù)開(kāi)放出去:今年 1 月,我們開(kāi)放一萬(wàn)公里的 Road Hackers 原始數(shù)據(jù),包含了采集車(chē)上收集到的所有數(shù)據(jù),遇到的所有天氣:不管是晴天、雨天、陰天、雪天;不管是在一條揚(yáng)長(zhǎng)大路、一條曲徑小路、風(fēng)景秀麗的景區(qū)、還是在滿地都是泥濘的道路。
評(píng)論