事故頻發(fā) 特斯拉Autopilot尚存局限性
1 月 9 日訊,據(jù)外媒報道,美汽車安全監(jiān)管機(jī)構(gòu)將對去年 12 月 29 日特斯拉在南加州發(fā)生的致命車禍展開調(diào)查,這起事故可能與特斯拉的高級 Autopilot 駕駛輔助系統(tǒng)有關(guān)。
日前,據(jù)報道,美國汽車安全監(jiān)管機(jī)構(gòu)表示,將對 2019 年 12 月 29 日特斯拉在南加州發(fā)生的致命車禍展開調(diào)查。
本月初,美國國家公路交通安全管理局(下稱 NHTSA)表示,該機(jī)構(gòu)正在對特斯拉汽車發(fā)生的第 12 起交通事故展開調(diào)查,這起事故可能與特斯拉的高級 Autopilot 駕駛輔助系統(tǒng)有關(guān)。此前,一輛特斯拉 Model 3 與一輛停放在路邊的警車追尾。
NHTSA 目前尚未確定 29 日發(fā)生在洛杉磯加迪納的車禍?zhǔn)欠衽c Autopilot 有關(guān)。
據(jù)洛杉磯電視臺 KTLA 報道,司機(jī)從加德納 91 高速公路下來時闖了紅燈,撞上一輛 2006 年型本田思域,造成對方車內(nèi)兩名乘客死亡。洛杉磯警方稱,特斯拉車內(nèi)的兩名人員已入院治療,目前沒有生命危險。
自 2016 年以來,Autopilot 至少卷入三起特斯拉致命車禍。美國國家交通安全委員會批評 Autopilot 缺乏安全保障,并在去年 9 月對 2018 年加州卡爾弗市特斯拉事故的調(diào)查中表示,該系統(tǒng)的設(shè)計“讓司機(jī)脫離駕駛?cè)蝿?wù)”。
特斯拉和 NHTSA 都建議司機(jī)在使用 Autopilot 時必須把手放在方向盤上,并時刻保持注意力集中。特斯拉表示,Autopilot 具有車道內(nèi)自動轉(zhuǎn)向、加速和剎車等功能,但不會讓汽車自動駕駛。
但有部分特斯拉司機(jī)表示,在使用該系統(tǒng)時,他們會在較長的一段時間保持脫手狀態(tài)。
上個月,美國參議員埃德·馬基表示,特斯拉在沒有采取新的安全措施之前應(yīng)該禁用 Autopilot,以防止司機(jī)在使用這一輔助駕駛系統(tǒng)時打瞌睡。
此前 NHTSA 曾對特斯拉多起撞車事故展開特別調(diào)查,但在本月初之前尚未披露調(diào)查事故總量。該機(jī)構(gòu)此前還就另一起被疑與 Autopilot 有關(guān)的特斯拉事故發(fā)起調(diào)查,但最終排除了這一可能性。
特斯拉 Autopilot 事故頻發(fā),從中我們能總結(jié)出什么經(jīng)驗(yàn)教訓(xùn)?
最近特斯拉 Autopilot 系統(tǒng)和其他一些公司的駕駛輔助系統(tǒng)可是惹出了不少是非,雖然事故調(diào)查結(jié)果還未完整出爐,但從一系列曝光的細(xì)節(jié)我們已經(jīng)能大致對這些系統(tǒng)有些了解。從技術(shù)的角度來看,它們依然限制多多,只能算是自動駕駛時代到來前的過渡品。
《消費(fèi)者報告》汽車測試主管 Jake Fisher 指出,駕駛員輔助系統(tǒng)正逐漸成為現(xiàn)代車輛的標(biāo)配,它們不但能讓車輛緊跟車流行駛,還能讓車輛不會偏離車道。
不過,這些貼心功能的出現(xiàn)可把駕駛員們慣壞了,他們開始相信有了類似系統(tǒng)車輛就能獨(dú)立運(yùn)作了。事實(shí)上,駕駛員們依然不能放松警惕。
“這些系統(tǒng)的功能越強(qiáng),他們就越危險。”Fisher 說道。“一旦駕駛員在輔助系統(tǒng)身上嘗到了甜頭,他們就會因?yàn)檩p信技術(shù)而忘記看路,這也是人之本性?!?/p>
今年還沒過半,就有兩輛特斯拉追尾了停著的消防車,另一輛 Model X 則一頭撞向隔離帶變得粉身碎骨,駕駛員也跟著一塊送了命,這三起事故中,車主無一例外都開啟了 Autopilot 系統(tǒng)。今年 3 月,Uber 的自動駕駛測試車則“殺死”了一位正在過路的行人。
雖然我們可以從技術(shù)的角度解讀這些安全輔助系統(tǒng)的局限,但最近的幾起車禍卻扎扎實(shí)實(shí)給人類駕駛員上了一課:那些喜歡依賴自動剎車和自適應(yīng)巡航等功能的人必須吸取點(diǎn)教訓(xùn)。
經(jīng)驗(yàn)教訓(xùn)
駕駛員們注意了:那些使用類似 Autopilot 等高級駕駛員輔助系統(tǒng)的人必須時刻注意路況。
前不久美國國家運(yùn)輸安全委員會(NTSB)的初步報告就顯示,在剎車、轉(zhuǎn)向或加速這三個動作上,Autopilot 并不值得用戶依賴,因?yàn)樗凶约旱木窒扌?。雖然名字里帶著“Auto”的字樣,但它且始終只是輔助功能罷了。
玩駕駛員輔助系統(tǒng)的可不只特斯拉,凱迪拉克。英菲尼迪、奔馳、日產(chǎn)和沃爾沃等公司都有類似的系統(tǒng),只是名字和特斯拉不一樣而已。
這些系統(tǒng)在日常駕駛中確實(shí)能提升車主的駕乘體驗(yàn),但也容易讓人麻痹大意。因此,車主在開啟此類系統(tǒng)后,一定不能分心,必須注意看路。值得一提的是,凱迪拉克的 Super Cruise 貼心的設(shè)計了“盯著”司機(jī)的攝像頭,如果你駕駛時精神不集中,它就會給出警告。
行人探測上依舊要下功夫:這項重要的技術(shù)依舊處在起步階段,發(fā)生致死事故的 Uber 自動駕駛測試車就是典型的例子。據(jù)悉,Uber 的軟件將過路的女性識別成了物體,她推著的自行車則被識別成了汽車。雖然這輛改裝沃爾沃 SUV 的自帶系統(tǒng)識別到前方有物體,但卻沒有警告安全司機(jī),自己也沒有及時剎車。
自動緊急剎車(AEB)也有軟肋:雖然在某些情況下很有效,但該功能無法保證每次都能力挽狂瀾。舉例來說,高速行駛時該功能就會成為一個擺設(shè),它只能降低車速,降低撞擊的傷害。雖說這對救人也有一定作用,但它無法防止碰撞事故發(fā)生。因此,關(guān)鍵時刻還是得靠自己,AEB 并不是司機(jī)的保護(hù)傘。
突然地變化會將司機(jī)置于險境:最近的一些特斯拉事故都有著類似的場景。發(fā)生事故前,那輛特斯拉肯定是在巡航控制模式下跟車,結(jié)果它跟著的那輛車卻突然變現(xiàn)來躲避前方的靜止或慢速物體。最后面對道路上突然出現(xiàn)的物體,Autopilot 沒時間反應(yīng),隨之而來的就是追尾事故。
自適應(yīng)巡航可“聽話”了:這句話雖然略帶諷刺,但從某些角度來看并沒有問題。使用駕駛員輔助系統(tǒng)的車輛確實(shí)會在前方慢速車輛離開車道后加速到司機(jī)此前的預(yù)設(shè)速度,即使是前方有障礙物。當(dāng)然,如果這套系統(tǒng)能探測到障礙物就另當(dāng)別論。NTSB 對于 Model X 致命事故的初步調(diào)查就顯示,那輛車在撞擊路障前突然加速。
見到了路上的測試車可要小心:Uber 的這起致命事故就給大家敲響了警鐘,自動駕駛測試車的水平可是良莠不齊,測試遵循的安全標(biāo)準(zhǔn)和政府的管理也不盡相同。
對于去年的那起 Model X 致命事故,NTSB 發(fā)布的初步報告顯示,38 歲的司機(jī) Walter Huang 在事發(fā)前共在 Autopilot 模式下行駛 19 分鐘,而且正在碰撞發(fā)生前 6 秒鐘內(nèi)車輛處于“雙手丟把”狀態(tài)。不過,在出事前一分鐘,Huang 倒是斷斷續(xù)續(xù)的握了 34 秒的方向盤。
在這起事故中,也出現(xiàn)了前車變道的情況。前車在碰撞前四秒離開車道,結(jié)果一秒后這輛 Model X 就從 62 英里 / 小時加速到了 70.8 英里 / 小時并一頭撞向隔離帶,車輛沒有任何預(yù)先剎車或躲避障礙的跡象。
倒霉的是,原本用于吸能的路障卻因?yàn)榇饲暗囊淮问鹿食霈F(xiàn)了破損,最終導(dǎo)致車輛嚴(yán)重撕裂。雖然有人在車輛著火前及時將 Huang 從駕駛艙中拉了出來,他也沒能挺過來,車輛碰撞時速度太快了。
2016 年在首次發(fā)生事故后,特斯拉就警告駕駛員,Autopilot 只是一套輔助系統(tǒng),并非完整的自動駕駛系統(tǒng),開車時駕駛員還是要把雙手放在方向盤上并實(shí)時注意路況,關(guān)鍵時刻得自救。不過在警告系統(tǒng)上特斯拉做得卻很一般,NTSB 的報告就指出,即使 Huang 頻繁脫手方向盤,在最后 15 分鐘內(nèi) Autopilot 也沒有履行自己的警告任務(wù)。
技術(shù)瓶頸
許多廠商在自動駕駛技術(shù)的開發(fā)上都篤信多傳感器的冗余,它們認(rèn)為攝像頭、雷達(dá)和激光雷達(dá)協(xié)同工作能排除各種假陽性狀況,以保證車輛安全。
特斯拉卻是廠商中的異類,與其他玩家的三保險策略不同,它們認(rèn)為攝像頭和雷達(dá)就夠用了。特斯拉 CEO Elon Musk 就多次在公開場合表達(dá)自己對激光雷達(dá)的不屑,他認(rèn)為這種傳感器價格貴還不說,其有效性也被夸大了。因此,特斯拉也是唯一一個在售車輛完全滿足自動駕駛硬件標(biāo)準(zhǔn)的廠商,它們只需一個軟件推送,就能畢其功于一役。
不過,特斯拉追尾路邊消防車的事故卻著實(shí)打了臉,看來攝像頭和雷達(dá)的組合還是有自己的天花板??突仿〈髮W(xué)(自動駕駛的黃埔軍校)互聯(lián)和自動駕駛聯(lián)合研究實(shí)驗(yàn)室主管 Raj Rajkumar 就表示,基于攝像頭的系統(tǒng)需要訓(xùn)練才能認(rèn)出某些特殊的物體,如果在現(xiàn)實(shí)世界它們遇見了不會的“題”,就會把責(zé)任都推給雷達(dá)。
“消費(fèi)者對于廠商的承諾可不能全信,里面的宣傳成分很高的?!盧ajkumar 說道。
建立邊界
去年,NTSB 終于完成了 2016 年的一次特斯拉致命事故調(diào)查。當(dāng)時一輛處于 Autopilot 模式下的 Model S 撞上了佛羅里達(dá)高速上的一輛半掛車。NTSB 發(fā)現(xiàn),這套系統(tǒng)存在缺陷,它無法識別路上停著的大型物體。
通用的解決方案就有所不同,Super Cruise 非常保守,它們只能在美國和加拿大的高速上使用(可用路段共 13 萬英里),而這些路段都有通用精心制作的高清地圖。
《消費(fèi)者報告》宣傳部門分析師兼車輛和產(chǎn)品政策主管 David Friedman 就指出,特斯拉從未提供過詳細(xì)數(shù)據(jù),讓車主知道 Autopilot 到底在哪使用才是安全的。
“特斯拉的輔助駕駛系統(tǒng)即使在感知、驗(yàn)證和反應(yīng)上都不夠可靠時也能使用,在 NTSB 幫它們挑出許多毛病后,Musk 也沒有整改到位?!盕riedman 說。
各家公司的回應(yīng)
測試車發(fā)生重大事故后,Uber 的自動駕駛測試進(jìn)入停擺狀態(tài),它甚至直接放棄了亞利桑那州的測試工作,未來的重心只會放在加州和賓夕法尼亞。同時,Uber 還雇傭了 NTSB 前主席 Christopher Hart 做公司的安全顧問。
特斯拉則承認(rèn) Autopilot 有局限性,自適應(yīng)巡航和自動緊急剎車都沒有車主自己的操作靠譜。
首先,自適應(yīng)巡航功能在面對靜止車輛時,無法自動剎車或加速,特別是在時速超過 50 英里 / 小時(約合 80 公里 / 小時)時。其次,特斯拉還表示,緊急自動剎車的初衷則是降低碰撞的嚴(yán)重程度而并非避免碰撞。此外,自動轉(zhuǎn)向也無法驅(qū)動車輛繞過己方車道上的車輛。
在回應(yīng) NTSB 的初步報告時,特斯拉發(fā)言人表示:“用戶安全是特斯拉的第一要務(wù),這也是我們積極與調(diào)查部門協(xié)作的原因,我們想知道到底發(fā)生了什么,未來如何去做來防范悲劇再次發(fā)生。特斯拉 Autopilot 不能避免所有事故,100% 安全的標(biāo)準(zhǔn)不太現(xiàn)實(shí)。但毫無疑問的是,對于駕駛員、行人和騎行者來說,這套系統(tǒng)確實(shí)讓這個世界變得更加安全了?!?/p>