特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

文/宋雙輝

如果說最近國內的

特斯拉

總是和剎車失靈扯上關係,那在美國,特斯拉的麻煩主要出在AutoPilot自動輔助駕駛系統上。

特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

4月17日,休斯敦發生一起“離奇”事故,一輛特斯拉車毀人亡,而車上兩名死者都不在駕駛席上。警方認為事故與AutoPilot系統有關,但特斯拉則反駁稱出事車輛未開啟這一功能。

尷尬的是,就在這起事故發生後,特斯拉例行公佈了季度汽車安全報告,顯示啟用了AutoPilot的特斯拉發生事故的機率比普通車低了10倍。

資料顯示,第一季度那些使用了AutoPilot功能的特斯拉,平均每行駛419萬英里會發生一次事故;沒有開啟AutoPilot但是開啟了主動安全功能的特斯拉車輛,平均每行駛205萬英里會發生一次事故;既沒有使用AutoPilot也沒有使用主動安全防護的特斯拉,平均每行駛97。8萬英里就會發生一次事故。

相比之下,美國國家公路交通安全管理局的最新資料顯示,美國平均每行駛48。4萬英里會發生一次交通事故。

雖然特斯拉堅稱AutoPilot讓駕駛更安全,但無數起事故卻在唱反調,對此,谷歌母公司旗下的自動駕駛公司Waymo新任聯合CEO發表了自己的看法。

特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

Tekedra Mawakana談到了多起疑似與AutoPilot有關的特斯拉事故時表示,這些事故讓人悲傷,這就是我們要完善自動駕駛技術,以阻止類似事故再次發生的原因,這樣的事故會衝擊消費者對自動駕駛技術的信心。

她還強調了一點,現階段消費者會把某種自動駕駛輔助系統與自動駕駛混淆,這也是有風險的,Waymo對此感到擔憂。

其實Waymo的態度一直很明確,現在車企們都在搞所謂的L2、L2。5、L3級自動駕駛技術,一步步提升自動駕駛等級,讓人類駕駛員的參與度不斷降低,但這種做法是否就是正確的,有待商榷。

特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

Waymo一上來就明確了,直接做L4以上的自動駕駛,不需要人類駕駛員操控的這種,就是因為相比機器,人類更不可控。

比如讓聯邦安全機構對特斯拉展開調查的這起最新事故中,就有目擊者作證,說兩名死者上車前和他們說了,要展示一下如何在無人狀態下讓特斯拉自己駕駛,這也解釋了為什麼事故發生時駕駛席上並沒有人。

特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

雖然特斯拉否認AutoPilot開啟了,但是美國《消費者報告》做了試驗證實了,即便人在副駕,也能啟動AutoPilot,並透過方向盤控制車輛,讓特斯拉“自己開”。

儘管特斯拉反覆強調,AutoPilot並非真的自動駕駛,駕駛員應該始終操控方向盤,但是出於各種各樣的原因,依然有很多人喜歡嘗試讓特斯拉自動駕駛,而且技術上也完全可行。

但是這種危險駕駛行為導致的結果就是,許多起致命的交通事故因此發生了。

儘管資料報告證實了,AutoPilot確實會讓開車變得更安全,但是這裡面有個前提,就是駕駛者遵守了法規,只是把AutoPilot當做輔助工具,而不是放任不管。

正是因為人類駕駛員的不可控因素,Waymo直接跨過了L2和L3,去做真正的自動駕駛甚至無人駕駛技術了。

特斯拉自動駕駛事故頻發,谷歌:人類駕駛員搞不清狀況

Tekedra Mawakana的觀點就是,“自動駕駛技術在研發、部署和推廣方面沒有第二次機會可言,你必須在第一次時就做到最好。你必須幫助公眾打造信心並提升接受度,你還必須確保該技術和產品得到合適的監管。這樣才能推出成功的自動駕駛服務並將其不斷推廣。”

代價就是,這樣的自動駕駛商業化程序會慢很多,不會像激進的特斯拉這般普及效率如此高。

但是安全和效率,永遠就是不能兼得的。

相關文章