特斯拉 vs 司機(jī):是誰在“自動”駕駛?
要“酷”,還是要命?
——
文|杜晨 編輯|VickyXiao
特斯拉最近又出了個大新聞:被美國國家公路交通安全管理局(NHTSA)要求在美國召回近5.4萬輛汽車。
為啥?
這又是它的完全自動駕駛(Full Self-Driving)軟件惹的禍:它有可能讓汽車在路口的停車標(biāo)志前緩慢前行,而不是完全停止。
在美國,所有司機(jī)都知道,一旦看到路口有停車標(biāo)志,不管有沒有看到其他車輛或者行人,司機(jī)都要先完全停下車,再繼續(xù)前行。所以,特斯拉自動駕駛里的這個功能妥妥地違反了不少州的法律,而且有可能會增加車禍風(fēng)險。
為什么特斯拉號稱全智能的自動駕駛,在現(xiàn)實里,卻這么多bug?當(dāng)這些bug造成嚴(yán)重后果,承擔(dān)責(zé)任的,是它,還是相信了特斯拉所描述的美好場景的司機(jī)?
司機(jī)or汽車:誰的錯?
上個月,全球第一樁涉及到特斯拉 Autopilot 的嚴(yán)重刑事起訴,浮出水面。
此案當(dāng)中的事故,發(fā)生在2019年的洛杉磯郊區(qū) Gardena.
2019年12月29日深夜,司機(jī) Kevin Riad 駕駛一輛特斯拉 Model S,從高速公路下匝道時,以較高的速度闖了紅燈,并且撞上一輛正常行駛通過路口的本田小轎車。事故導(dǎo)致本田車上兩人當(dāng)場死亡,Riad 和特斯拉車上另一名女性乘客受到輕傷,目前已恢復(fù)。兩輛汽車均已報廢。
事后,美國公路交通安全管理局 NHTSA 宣布派出特別調(diào)查組。在此之前,這支特別調(diào)查組已經(jīng)對十多起和特斯拉 Autopilot 功能相關(guān)的車禍?zhǔn)录归_了調(diào)查。
去年10月,加州檢方正式對 Riad 發(fā)起了重罪指控 (felony charge),包括兩項交通肇事致人死亡 (vehicular manslaughter) 的罪名。首次開庭安排在今年2月23日。
需要明確的是,本案的被告人是當(dāng)時肇事車輛的司機(jī)。
盡管 Autopilot 技術(shù)無疑在事故中扮演了關(guān)鍵的角色,并且也將在本案的審理過程中被著重提及——但該技術(shù)本身,以及特斯拉公司,并非本案的被告。
(不過,美國聯(lián)邦和各地監(jiān)管部門,同時也在就 Autopilot 功能對特斯拉公司展開調(diào)查。)
此案也是目前全美已知的第一起涉及 Autopilot 功能,并且起訴對象為肇事駕駛員的重罪案件。這也意味著:即使司機(jī)認(rèn)為汽車在“自動駕駛”,司機(jī)自己仍然是事故的責(zé)任人。
多位自動駕駛相關(guān)法律事務(wù)專家,包括南卡羅萊納州大學(xué)法學(xué)教授 Briant W. Smith,和律師 Donald Slavik 等表示,這次加州公訴 Riad 一案,是第一樁涉及相關(guān)輔助/自動駕駛功能致人死亡的嚴(yán)重刑事訴訟案件。
除此之外車禍?zhǔn)芎φ叩募胰?/span>也已經(jīng)分別向肇事司機(jī)和特斯拉公司發(fā)起了民事訴訟。受害者 Lopez 的家人在起訴書宣稱,那輛 Model S 在事故發(fā)生時“突然加快到無法控制的速度”,并且指控肇事者 Riad 本人此前的駕駛記錄非常不干凈,屬于“危險駕駛者”。這些民事起訴將作另案審理,和本次的加州公訴暫時無關(guān)。
自動駕駛 or 輔助駕駛?
如果你對電動車本身以及相關(guān)的技術(shù)行業(yè)有足夠多的了解,你可能會知道,被特斯拉命名為“Autopilot”的這一功能,并非真正的“自動駕駛”系統(tǒng)。
本質(zhì)上,Autopilot 就是很多汽車都有的輔助巡航功能的“升級版”,可以實現(xiàn)定速巡航、跟隨車道、調(diào)整車速等操作。該功能從2019年4月之后的車型開始標(biāo)配,無需額外付費;2016-2019年的車型均包含了 Autopilot 所需的硬件,需要付費才能激活。
按照行業(yè)廣泛接受的國際汽車工程師協(xié)會 (SAE International) 標(biāo)準(zhǔn),Autopilot 處于 L2-L3 之間,并未達(dá)到公認(rèn)的“自動駕駛”的水平。
比方說,SAE 標(biāo)準(zhǔn)(見下圖)對于 L3 的一個重要指標(biāo),就是在特定情況下駕駛員可以無需關(guān)注路況;而特斯拉在功能說明和教學(xué)的時候也會告知車主,即使開始了 Autopilot 功能,駕駛員也仍需要保持注意力。
Autopilot 還有一個 FSD 模式,可以自動進(jìn)行轉(zhuǎn)換車道、根據(jù)周圍交通情況自動調(diào)整車速、變換車道、駛?cè)腭偝鲈训?、自動泊車、根?jù)信號燈/停車指示牌完成操作等更多功能。
FSD 的全稱是 Full Self-Driving(完全自主駕駛),其中大部分功能均已商業(yè)化;少數(shù)功能仍處于公測階段 (Beta),但也對市售車型的消費者開放,只要付費升級 FSD,即可開啟。
然而,監(jiān)管部門似乎并不認(rèn)同特斯拉的說法和做法。
在加州公訴 Riad 一案中,NHTSA 直接發(fā)表聲明,宣稱:
1)盡管許多車輛都有輔助駕駛功能,在法律上,只有駕駛者本人才是責(zé)任主體。
2)所有的汽車,不管是否有部分自動駕駛功能,這些功能是否開啟,都要求駕駛者必須保持全程的控制。(every vehicle requires the human driver to be in control at all times.)
3)沒有任何的市售汽車能夠?qū)崿F(xiàn)自動駕駛。(no vehicle on sale that can drive itself.)
從 NHTSA 的表態(tài)中可以我們可以明確:截至目前,對于涉及到 Autopilot 以及類似輔助駕駛功能的交通事故案件,這些功能的確是事故發(fā)生的直接誘因。然而,監(jiān)管部門的思路,仍然是將肇事司機(jī)作為責(zé)任主體和懲治對象。
不過,就前述的第三條來看,考慮到特斯拉公司和其高管過去曾在許多場合嚴(yán)重夸大 Autopilot 功能的實際能力和特斯拉自動駕駛技術(shù)的先進(jìn)性——NHTSA 的聲明,也直接駁斥了他們的口徑。
2016年5月7日,美國俄亥俄州,一輛開啟了 Autopilot 功能的 Model S 撞上一輛卡車。駕駛員當(dāng)場死亡,Autopilot 在美國奪走了第一條生命。當(dāng)時,該功能剛剛上線半年之久。
根據(jù)硅星人統(tǒng)計,自從該功能發(fā)布以來,全球已知確認(rèn)與 Autopilot 功能相關(guān)的交通事故已經(jīng)造成至少6人死亡、多人嚴(yán)重受傷。
美國國家運輸安全委員會 NTSB(一個政府屬性的民用交通事故調(diào)查機(jī)構(gòu)),已經(jīng)對至少28起特斯拉電動車傷亡事故展開特別調(diào)查。這些事故涉及包括 Autopilot、電池起火、剎車失靈等諸多因素。
去年,NHTSA 發(fā)布政府簡報,宣布正式就11起涉及 Autopilot 的具體事故,對特斯拉公司,以及其推出的 Autopilot、交通感知巡航系統(tǒng) (TACC) 等功能的設(shè)計能力,展開更加詳盡的調(diào)查。
而在歐洲,特斯拉的過度宣傳問題已經(jīng)受到政府重視了。比如在德國,反不正當(dāng)競爭監(jiān)管機(jī)構(gòu)在2020年起訴了特斯拉,指責(zé) Autopilot、FSD 的命名和宣傳行為構(gòu)成了誤導(dǎo)公眾的行為,并且道路運行車輛開啟這些功能,違反交通安全法規(guī)。
該案中,法院判定特斯拉敗訴。從此,特斯拉被禁止在德國使用 Autopilot、FSD 之類的字眼,并且在營銷宣傳內(nèi)容中也不得繼續(xù)誘導(dǎo)消費者相信其在“自動駕駛”方面的能力。
要酷 or 要命?
很多硅星人的讀者應(yīng)該記得,在2018年,101高速的 Mountain View 路段,華人車主 Walter Huang 駕駛一輛 Model X ,在正常前進(jìn)行駛中突然撞上了混凝土隔離帶,不幸殞命。
當(dāng)時,車上就開啟了 Autopilot 功能,然而這輛高配 Model X 搭載的諸多強(qiáng)大的的傳感器,和先進(jìn)的道路掃描軟件算法,都沒能及時發(fā)現(xiàn)前方道路收窄,導(dǎo)致了事故發(fā)生。
相關(guān)調(diào)查顯示,這位車主在生前已經(jīng)幾次對自己的妻子、家人和其它 Model X 車主吐槽過 Autopilot 功能不好用。具體來說, Autopilot 已經(jīng)好幾次把車往他后來喪命的那條隔離護(hù)欄上拐了。
Huang 生前在蘋果擔(dān)任工程師,然而就連他都沒能對 Autopilot 功能局限有足夠清楚的認(rèn)識,就更別提那些非科技從業(yè)者,對電動車和輔助/自動駕駛技術(shù)不夠熟悉的普通車主了。
很多車主選擇特斯拉,看中的正是它的高科技屬性,給人很“酷”的感覺。而 Autopilot,又似乎是人們期待已久的自動駕駛技術(shù),在大規(guī)模市售車型中的最早也最高調(diào)的應(yīng)用
結(jié)果就是,某些壓根沒有達(dá)到自動駕駛標(biāo)準(zhǔn)的輔助駕駛技術(shù),包裝在自動駕駛的假面之下,非但沒有讓道路交通更加安全,反而釀成了更多事故。
歐盟新車安全評鑒協(xié)會成員、英國汽車安全專家 Matthew Avery 接受當(dāng)?shù)孛襟w采訪時曾表示,特斯拉在 Autopilot、FSD 等功能的宣傳上極具誤導(dǎo)性,容易讓那些對技術(shù)不太熟悉的消費者,誤以為他們花錢升級了 Autopilot/FSD 之后,自己的汽車就獲得完全自動駕駛的能力了。
“Autopilot 導(dǎo)致的許多事故都是致命的。這些司機(jī)究竟是在鬧著玩,或者因為更糟糕的情況——他們真的相信 Autopilot 就是完全自動駕駛——我們無從得知?!?/span>
去年,特斯拉向一部分車輛推送了 FSD beta 9 測試版軟件,讓這部分車主給特斯拉提供路測數(shù)據(jù)。
但是一些車主很快發(fā)現(xiàn),這一版本的 FSD 非常不穩(wěn)定、不安全,會把月亮當(dāng)成信號燈,還會時不時竄入自行車道。如果真的讓這些車上路,它們毫無疑問將會成為嚴(yán)重的道路安全隱患。
消費者權(quán)益機(jī)構(gòu)《消費者報告》(Consumer Reports) 發(fā)布了調(diào)查報告,宣稱特斯拉推送的 FSD 測試軟件缺乏安全防護(hù),對其它道路參與者帶來嚴(yán)重風(fēng)險。
近日,一家名為 The Dawn Project 的社會公益機(jī)構(gòu),在《紐約時報》上刊登了一則整版廣告,題為“不要成為特斯拉碰撞測試假人”,指責(zé) FSD 功能的技術(shù)可靠性、安全性非常糟糕,特斯拉面向市售車型提供該功能,讓車主成為路測“小白鼠”的做法是在草菅人命。
“一家《財富》500強(qiáng)公司,銷售的數(shù)千輛汽車,運行著最糟糕的軟件,在公開道路上行駛,而我們的家人將成為這些汽車碰撞測試的假人——這不是我們想要的,”廣告寫道。
賣了這么多年,特斯拉電動車的普及程度現(xiàn)如今已經(jīng)非了,它的獨特感、科技感,給車主身份增添的“酷”的標(biāo)簽,也不如從前了。
而我們在今天觀察到的是:Autopilot、FSD 等實際是輔助駕駛,卻被宣傳夸大為自動駕駛的功能,正在延續(xù)著特斯拉作為一個“酷”品牌的生命。
然而,讓車主對這些功能產(chǎn)生錯覺,進(jìn)而誘發(fā)更多的交通事故、生命和財產(chǎn)損失——這件事,可一點都不酷。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。