自動駕駛技術一度被認為是當前交通出行領域智能化和網聯化發展的主要方向,但,自動駕駛真的比人駕駛更安全嗎?
據美聯社 1 月 18 日報道,日前,美國加州檢察官對特斯拉司機 Kevin George Aziz Riad 提出兩項“車輛過失殺人罪”的重罪指控,原因是其不當使用 L2 輔助駕駛導致發生車禍。這是全美第一起因為使用 L2 輔助駕駛系統致人死亡而被控重罪的案例。
據悉,該起車禍事件發生于 2019 年 12 月 29 日。當時,豪華轎車服務司機 Riad 駕駛的特斯拉 Model S 開啟了 Autopilot(自動輔助駕駛)系統,在遇到紅燈時,Autopilot 沒有及時識別紅燈并剎車,Riad 也沒有及時接管車輛,最終導致 Model S 與一輛本田思域相撞。思域車上的兩名乘客 Gilberto Alcazar Lopez 和 Maria Guadalupe Nieves-Lopez 當場身亡,Riad 和同車的一名女子也因受傷被送醫治療,不過二人并沒有生命危險。
事故發生后,死者家屬分別起訴特斯拉和 Riad,他們指控稱,由于 Riad 的疏忽,且特斯拉銷售有缺陷的車輛,造成突然加速且自動緊急制動沒有開啟,最終導致嚴重事故。
美國國家公路交通安全管理局(NHTSA)調查后認為,Riad 確實在事故發生時開啟了 Autopilot 功能,但因為駕駛員需要始終對駕駛負責,因此不管開啟與否,都需要對這起事故負責。
法庭記錄顯示,州檢察官去年 10 月對 Riad 提出了指控,不過詳細的文件直到最近才公布。 Riad 面對這些指控表示不認罪,并在案件調查期間獲得保釋。據悉,該起案件的初步聽證會定于 2 月 23 日舉行。
根據汽車工程師協會的定義,自動駕駛技術一共分為六個級別:
L0:人類司機掌控所有駕駛功能;
L1:某種程度的駕駛輔助(可以是自適應巡航或路線保持/居中);
L2 :部分自動駕駛(同時具備自適應巡航和路線居中),但司機必須保持控制狀態(手放在方向盤上,雙眼注視路線,或者兩者皆有);
L3:有條件的自動駕駛(特定條件下司機可以雙手離開方向盤做自己的事情,但收到車輛提示時必須介入控制);
L4:高度自動駕駛(在特定場景下,如指定城市街道和/或校園道路上,司機不需要介入控制);
L5:完全自動駕駛(不需要人類介入控制)。
目前,市場上大多數自動駕駛汽車實際上都處于 L2 階段,這個階段的車輛主要是利用車載傳感器收集車內外環境數據,為駕駛員提供危險預警等功能,實現部分自動化駕駛,一般可以提供自動泊車系統、緊急自動剎車、車身穩定系統、自動巡航、十字路口輔助、車道保持等功能。
這也意味著,司機在使用 L2 輔助駕駛時,必須不斷監控道路并做好隨時接管控制車輛的準備。而在不少自動駕駛引發的交通事故中可以發現,很多司機過度依賴 L2 輔助駕駛,疏忽大意,從而導致事故發生。另一方面,汽車廠商對于自動駕駛的過度營銷也是悲劇發生的原因之一。一些自動駕駛汽車廠商在宣傳時,過度營銷無人駕駛,未明確提及相應危險,從而讓用戶陷入認知誤區。
此前,特斯拉 Autopilot 軟件負責人就曾對加州機動車管理局(DMV)表示,該公司 CEO 埃隆·馬斯克一直以來都夸大了其高級駕駛輔助系統的能力。2021 年 3 月 9 日,加州 DMV 與特斯拉代表舉行了電話會議,會議的備忘錄顯示:“馬斯克所發布的推文,與工程現實不符。特斯拉目前處于 L2 級自動駕駛階段。”所謂 L2 級,是指需要人工監測和干預的半自動駕駛系統。
正如特斯拉副總法律顧問 Eric Williams 此前所言,“Autopilot 和 FSD 都不是自動駕駛系統,目前沒有任何一個系統可以讓我們的車輛實現自動駕駛。”換句話說,特斯拉的測試版 FSD 只是名字讓人聯想到了自動駕駛而已。
2019 年, 特斯拉的 Autopilot 還不能及時識別紅綠燈,雖然在 2020 年,Autopilot 在識別城市信號燈方面取得了關鍵進步,但自動駕駛系統(ADS)要想進一步提高自動化程度,必須要解決包括常識推理、計算機視覺系統在內的諸多問題,否則很可能會被一些人類能正常識別的情況愚弄。
例如,研究人員證明,限速標志的微小變化可能會讓機器學習系統認為該標志顯示的是 85 英里/小時而不是 35 英里/小時。類似的,一些黑客使用鮮艷的貼紙制造出假車道,欺騙特斯拉的自動駕駛改變車道。在這兩種情況下,這些變化都愚弄了汽車,但愚弄不了人。
自動駕駛汽車看待世界的方式與人類存在很多差異,而這些差異引發的擔憂遠不止遭受黑客利用這一種。
雖然我們有充分的理由假設自動駕駛汽車將比人類駕駛更安全。畢竟它們從不疲倦,不會在開車時發短信,或酒后駕車。但同樣,我們也有充分的理由假設它們不會更安全。