-
日期: 2026-04-01 | 來源: 新浪財經 | 有0人參與評論 | 字體: 小 中 大
今年2月,洛杉磯(专题)暴雨中,兩輛Waymo在洪水中“趴窩”,被網友調侃為“Waymo water than I was expecting”。
壹起起事故證明,Robotaxi的“集體趴窩”已經成為壹個跨地域、跨平台、跨技術路線的普遍現象。
舊金山停電致使Waymo趴窩事件,意外引爆了壹場關於技術路線的大討論。
CEO埃隆·馬斯克第壹時間在X平台上發文嘲諷:“特斯拉Robotaxi未受到舊金山停電影響。”這句話的潛台詞是:依賴高精地圖和人工規則的Waymo不行,而采用端到端神經網絡架構的特斯拉FSD才是未來。
地平線創始人兼CEO余凱也加入論戰:
這場論戰的本質,是兩種技術路線的對決。
壹種是以Waymo、百度為代表的“規則AI派”:通過高精地圖、數拾個傳感器、預編程規則來實現自動駕駛。這套體系的優勢是確定性,只要場景被提前定義過,系統的表現就可預測。致命弱點是“脆弱性”,糟糕的天氣環境、因停電無法工作的交通燈,導致依靠高精度地圖和規則算法的車輛難以政策決策。
另壹種是以特斯拉、小鵬、地平線為代表的“端到端派”:通過端到端的神經網絡、海量真實駕駛數據訓練、讓AI學會像人壹樣思考。這套體系的優勢是泛化能力,能應對未被預先定義的突發場景。
在AI智駕尚未實現L3、L4級自動駕駛之時,高精度地圖搭配規則算法,無疑是最穩妥的選擇。更何況百度和谷歌分別擁有百度地圖與谷歌地圖,具備地圖測繪資質,手握大量道路數據,自然更傾向於高精地圖搭配規則算法的方案。
高精度地圖搭配規則算法不是不能解決智駕問題,只是對Robotaxi企業的地圖更新速度提出了更高要求,百度和谷歌需要不斷進行地圖測繪和信息采集,才能避免Robotaxi對路況感到“陌生”。
如果說“系統故障導致趴窩”還只是技術問題,那麼更深層的安全威脅,可能遠超我們的想象。
2017年上映的《速度與激情8》中,反派塞弗在紐約(专题)操控千輛自動駕駛汽車,讓它們像“僵屍”壹樣從停車場墜落、在街頭狂飆、圍堵俄羅斯國防部長的車隊。當時這只是壹個科幻橋段,但今天,它正在逼近現實。
有國內網絡安全研究機構曾發出警告:自動駕駛汽車的“感官系統”極其脆弱——激光雷達可以被虛假激光信號欺騙,攝像頭可以被特制圖案誤導,V2V通信可能被截獲篡改,OTA更新通道可能被注入惡意代碼。2024年就有研究團隊通過篡改OTA更新,成功讓測試車的AI系統調低了“避讓行人”的優先級。
這意味著,未來RoboTaxi的安全威脅至少包含兩個層面:
第壹層是“單車攻擊”:黑客遠程劫持壹輛Robotaxi,將其變成針對特定人物或建築的攻擊武器。想象壹下,壹輛滿載炸藥的自動駕駛汽車,在沒有任何人察覺的情況下,精准駛向目標。
第贰層是“群體攻擊”:攻擊者同時劫持成百上千輛Robotaxi,讓它們集體堵死城市主幹道、包圍重要設施、阻斷應急通道。正如壹位網友的評論:“以前要讓壹座城市癱瘓,需要轟炸橋梁道路;未來只需要調集幾百台robotaxi堵路。”
這不是危言聳聽。當Robotaxi成為城市基礎設施的壹部分,它的“可攻擊面”呈指數級增長。每壹輛車都是壹個潛在的“攻擊入口”,而中央調度平台壹旦被攻破,整個城市的交通命脈就可能被瞬間掐斷。
哪怕沒有遭受黑客攻擊,雲端數據波動也會對車輛行駛安全造成影響。高精度地圖智駕方案依賴車路雲協同,壹旦雲端算力、數據同步、網絡通信出現波動,車輛無法正確上傳路況和行駛狀態,雲端無法同步地圖更新,系統就可能出現誤判。
解決這壹問題的最好方案,是將高精度地圖與端到端結合。端到端模型在自主學習感知、預測、規劃全流程的同時,借助高精地圖的靜態信息提升決策可靠性,彌補純端到端方案在復雜場景下的魯棒性不足,實現“算法自主學習+地圖安全兜底”的雙重優勢。
未來智駕系統停擺、Robotaxi無法正常通行,甚至阻礙交通的情況大概率還會發生,這只是自動駕駛技術和Robotaxi發展之路的陣痛。
舊金山停電後,Waymo被迫暫停全城服務。武漢事故後,蘿卜快跑恐怕也要面對類似的信任危機。這不是終點,而是壹個警示:在Robotaxi從“玩具”變成“工具”、從“體驗”變成“基礎設施”的過程中,安全不應該是壹個可以被犧牲的變量。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見