-
日期: 2025-11-10 | 來源: 觀察者網 | 有0人參與評論 | 字體: 小 中 大
2025年秋季,全球人工智能競賽進入白熱化階段。年初,中國DeepSeek實驗室推出壹款高效大型語言模型,以遠低於同行的成本與媲美頂尖系統的性能震動硅谷,也引發了美國政界對技術主導權可能流失的廣泛警覺。
在這壹敏感時刻,英偉達首席執行官黃仁勳於11月在《金融時報》AI未來峰會的壹場邊會上,罕見地發出尖銳警告:“中國將贏得AI競賽。”
黃仁勳這壹表態有著重要的背景。他其實是對美國本土監管生態,尤其是各州層出不窮的AI新規表達深度憂慮。這些旨在為AI裝上“安全閥”的法規,在黃仁勳看來,正演變為拖累美國創新步伐的沉重枷鎖。
美國AI監管的演進路徑,呈現為壹場從聯邦“頂層設計”向州級“基層自治”的權力下放實驗。
拜登政府後期,聯邦層面已通過《國家AI倡議法案》(2023年)和對華芯片出口管制(2024年擴展版)築起國家安全防線,但國會兩黨分歧使全面聯邦立法(如《美國AI法案》提案)屢陷僵局。
取而代之的是各州掀起的“填空式”立法浪潮:據國家州議會會議(NCSL)2025年中期報告,全美50個州及領地共提出逾260項AI相關法案,其中22項已簽署成法,約50項預計在年底前進入最終審議。
這壹輪立法熱潮的導火索,正是DeepSeek模型的橫空出世——該模型僅憑本土資源便實現與OpenAI GPT-5相當的推理能力,暴露出美國AI企業在算力密集型訓練上的成本短板。
州議員們以此為由推動本地化監管,旨在防范算法偏見、數據泄露與環境沖擊,但其實際效果,正如黃仁勳所批評的,是形成了“50套新規”——壹個由多頭、異質規則交織而成的合規迷宮。
企業若想實現全國無縫運營,就必須逐州制定合規策略,這不僅加劇行政與法務負擔,也削弱了美國在全球AI治理標准(如國際電聯AI框架)中的話語權。
州級法規的多樣與嚴苛
美國州級AI新規的多樣性與執行力度,是黃仁勳焦慮的首要來源。
以加州(专题)為代表的西海岸立法,作為硅谷的“母法”藍本,於2025年9月29日由州長紐森簽署《前沿人工智能透明法案》(SB 53),標志著美國AI監管進入“加州時刻”。
這份法案規定,開發訓練算力超10^26 FLOPs或成本超1億美元的“覆蓋模型”的企業,須在公開發布前提交多層透明報告。具體而言,要求披露訓練數據來源分布(含第叁方數據許可)、算法架構的非機密概述,以及潛在風險矩陣(如幻覺生成或安全對齊失敗);企業需建立持續披露機制,每年向加州AI安全局匯報模型更新情況。
罰則非常嚴厲。違規最高罰款可達全球年收入的1%,屢犯者或面臨產品召回乃至州內禁售。更具操作挑戰的是“獨立驗證”條款:企業須聘請州認證的第叁方審計機構(如經NIST標准培訓的咨詢公司)審查核心代碼,常導致額外200-500萬美元支出與3-6個月的延遲。對英偉達而言,這直接沖擊其Blackwell系列GPU生態——下游AI開發者若因審計延誤推遲訓練計劃,芯片出貨量將應聲下滑,黃仁勳的季度營收目標岌岌可危。
加州的示范效應迅速向東蔓延。紐約(专题)州通過《人工智能消費者保護法案》(A. 10389,2025年6月通過),要求對招聘、信貸評分、醫療診斷與執法預測等高風險AI進行歧視風險評估,並向州檢察長提交報告。
作為全球金融樞紐,紐約此舉直擊量化交易與銀行風控AI的核心,預計將使華爾街機構年合規支出增加15%-25%。黃仁勳在訪談中暗指的“犬儒主義”,正源於此類條文對創新的“前置審查”:原本可通過快速A/B測試迭代的AI原型,如今需經歷層層倫理審批,開發周期從數周拉長至半年,在瞬息萬變的AI競爭中無異於主動棄權。
中西部州的立法更側重社會與就業影響。科羅拉多州《人工智能法案》(SB 24-205)於2024年5月簽署,經2025年修訂案(HB 25-1012)延期至2026年7月生效,其框架被視為“開發者責任模式”的典范。
法案核心第101節將“高風險自動化決策系統”定義為影響“公民基本權利”的AI工具,如自動簡歷篩選或福利分配算法;第201款要求提供詳盡的“技術文檔包”,涵蓋模型訓練參數、數據預處理流程、偏見檢測與緩解策略;第301款則針對使用方,規定須在72小時內通知受不利決策影響的個人,並提供人工復核渠道。第401款的“能源與環境附錄”(2025年新增)進壹步引入可持續性要求,高風險AI系統須附碳足跡估算與能源來源聲明。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見