-
日期: 2026-03-18 | 來源: IT之家 | 有0人參與評論 | 專欄: 優步 | 字體: 小 中 大
IT之家 3 月 18 日消息,Mozilla 首席技術官、前 Uber 自動駕駛汽車部門負責人拉菲 · 克裡科裡安(Raffi Krikorian)3 月 17 日在《大西洋月刊》發表長文,描述了他駕駛特斯拉 Model X(FSD 模式)時所發生的壹起嚴重車禍,並從專業角度剖析了特斯拉 FSD 的核心問題。
克裡科裡安曾執掌 Uber 自動駕駛團隊,負責訓練安全駕駛員如何在系統失效時及時且正確幹預。在他領導該部門的兩年間,Uber 的早期試點項目保持著零受傷的記錄。
此次事故發生在壹次尋常的周日出行。克裡科裡安駕車送兒子參加童子軍活動,行駛在灣區的住宅區街道上,而這條路他已經走過數百次。當時,特斯拉處於 FSD 模式,系統壹直平穩駕駛,直至意外發生。
當 Model X 駛入壹個彎道時,FSD 似乎突然迷失方向,方向盤毫無預兆地劇烈抖動,車輛開始減速。克裡科裡安立即抓住方向盤,但已來不及挽回。車輛隨即撞上混凝土牆,當場報廢。克裡科裡安遭受腦震蕩、頸部僵硬,頭痛持續數日,所幸後座的孩子安然無恙。
盡管擁有頂尖的專業背景,FSD 還是“坑”了他。克裡科裡安寫道,他最初只在高速公路上使用 FSD,因為車道線清晰、交通模式可預測。熟悉後又開始在普通道路上使用,發現效果不錯,漸漸成為習慣。
此次事故發生前,他的手壹直放在方向盤上,按照特斯拉的要求保持警惕。他指出,FSD 實際上“訓練”了他去信任它。事故發生後,出現在保險報告上的名字是他,而非特斯拉。在現行法律框架下,這是也是所有 FSD 事故的共同點:特斯拉 FSD 系統被歸類為 Level 2,駕駛員始終需承擔全部責任。
克裡科裡安還提出壹個關於特斯拉數據處理方式的尖銳問題。車輛持續記錄駕駛員的手部位置、反應時間和視線軌跡,特斯拉在事故後常利用這些數據將責任指向駕駛員。而要求獲取自身數據的駕駛員往往只能收到碎片化信息。在佛羅裡達州壹起裡程碑式的過失致死案中,原告方被迫雇傭第叁方黑客從事故車芯片中恢復出了關鍵證據,而特斯拉聲稱數據無法找到。
克裡科裡安還對“監督式”自動駕駛根本缺陷進行了分析。他的核心論點是:特斯拉要求人類監督壹個專門設計得讓監督顯得毫無意義的系統。正如他所言,壹台不可靠的機器會讓人保持警惕,壹台完美的機器不需要監督,但壹台近乎完美的機器卻會因此而制造陷阱 —— 讓駕駛員信任它到足以忽視監督的程度。這也是目前幾乎所有 Level 2 輔助駕駛車輛事故中的共性 —— 在事故真正發生到自己頭上之前堅持認為輔助駕駛功能完美可靠,甚至開車睡覺。
心理學家將這壹觀點稱之為“警覺性衰減”:長期監督壹個近乎完美的系統令人厭倦,而厭倦導致走神 / 不重視。在輔助駕駛系統退出後,駕駛員往往需要 5~8 秒才能重新集中精神,緊急情況下根本來不及反應並接管。
克裡科裡安援引美國公路安全保險協會的研究:使用自適應巡航控制僅壹個月後,駕駛員看手機的可能性增加六倍以上。特斯拉雖然警告 FSD 用戶不要自滿(自以為是),但 99% 場景下的流暢表現反而會引發這種自滿情緒。
他還引用了兩起廣為人知的事故來說明這種“不可靠”。2018 年山景城事故中,蘋果工程師沃爾特 · 黃駕駛的特斯拉在沖向混凝土隔離帶前有 6 秒預警,但他從未觸碰方向盤。同年亞利桑那州坦佩的 Uber 事故中,傳感器在 5.6 秒前檢測到行人,但安全駕駛員在最後不到 1 秒才抬頭。
在這起事故中,克裡科裡安自己確實采取了行動,但他需要在最後壹秒的時間內克服長期訓練出的信任慣性、從乘客狀態瞬間切換回駕駛員狀態,可以說幾乎不可能完成。事故車日志也證實他打了方向盤,但仍無法在事故前的 1 秒中完成逆轉。
根據克裡科裡安的描述:特斯拉先讓駕駛員對 FSD 產生好感,再用數月流暢表現削弱其警惕性,導致駕駛員對這種“實際上並非 100% 可靠的輔助駕駛功能”產生心理依賴,最後在出問題時搬出服務條款將責任歸咎於駕駛員 ——FSD 沒出問題時特斯拉獲得贊譽,出問題時駕駛員全責。
克裡科裡安還特意拿比亞迪舉例。2025 年 7 月,比亞迪宣布將為其自動泊車功能導致的事故兜底 —— 無需保險理賠,不影響駕駛員記錄。盡管案例有限,但這表明車企與駕駛員分擔責任是壹種選擇,並非不可能。
這家最好!股市開戶分批買入大盤股指基金- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見