-
日期: 2026-04-07 | 來源: RFI | 有0人參與評論 | 字體: 小 中 大
美國人工智能巨頭OpenAI、Anthropic和字母表公司旗下的谷歌這叁家競爭對手已開始聯手,試圖打擊中國競爭對手從美國尖端人工智能模型中提取結果,以在全球人工智能競賽中占據優勢的行為。

美國人工智能巨頭OpenAI、Anthropic和谷歌標識
據彭博社援引知情人士報導稱,這叁家公司正通過“前沿模型論壇”(Frontier Model Forum)共享信息。該論壇是由上述叁家人工智能巨頭與微軟公司於2023年共同創立的行業非營利組織,旨在檢測違反它們的服務條款的所謂對抗性蒸餾行為。
這種罕見的合作凸顯了美國人工智能公司所擔憂的嚴重性:壹些用戶,尤其是在中國的用戶,正在開發它們產品的仿冒版本,這些仿冒版本可能以低價搶走客戶,並構成國家安全風險。
壹位知情人士匿名透露,據美國官員估計,未經授權的仿冒行為每年給硅谷實驗室們造成數拾億美元的利潤損失。
OpenAI證實,其參與了“前沿模型論壇”關於對抗性蒸餾的信息共享工作,並指公司近期向美國國會提交了壹份關於此實踐的備忘錄,其中指責中國公司DeepSeek試圖“搭OpenAI和其他美國前沿實驗室開發的技術的便車”。谷歌、Anthropic和“前沿模型論壇”均拒絕置評。
蒸餾是壹種利用較早的“教師”人工智能模型訓練較新的“學生”模型的技術,該學生模型能夠復制早期系統的功能——通常比從頭開始構建原始模型成本低得多。某些形式的蒸餾已被廣泛接受,甚至受到人工智能實驗室的鼓勵,例如,當公司創建更小、更高效的自有模型版本,或者允許外部開發人員使用蒸餾技術構建非競爭性技術時。
然而,當第叁方尤其是像中國或俄羅斯這樣的美國敵手國家,未經授權使用蒸餾技術復制專有成果時,這項技術壹直備受爭議。美國頂尖的人工智能實驗室警告稱,外國敵手們可能利用該技術開發出缺乏安全防護措施的人工智能模型,例如那些能夠防止用戶制造致命病原體的限制。
中國實驗室們開發的大多數模型都是開源的,這意味著基礎人工智能系統的部分代碼是公開的,用戶可以免費下載並在自己的平台上運行,因此使用成本更低。這給那些壹直將模型設為專有的美國人工智能公司帶來了經濟挑戰,這些公司押注客戶會付費使用它們的產品,以幫助抵消這些公司在數據中心和其他基礎設施上投入的數千億美元。
蒸餾技術在2025年1月首次受到廣泛關注,當時DeepSeek出人意料地發布了R1推理模型,該模型在人工智能領域引起了轟動。彭博社此前報導稱,不久之後,微軟和OpenAI就對這家中國初創公司是否從美國公司的模型中不正當地提取了大量數據以創建R1展開了調查。
今年2月,OpenAI曾向美國立法者發出警告,稱盡管該公司已加大努力防止其產品被濫用,但DeepSeek仍繼續采用日益復雜的手段從美國模型中提取結果。OpenAI在提交給美國眾議院美國與中共戰略競爭特設委員會的備忘錄中聲稱,DeepSeek正利用數據蒸餾技術開發其突破性聊天機器人的新版本。
美國人工智能公司就對抗性蒸餾技術進行的信息共享,與網絡安全行業的慣例不謀而合。在網絡安全行業,各公司經常交換有關攻擊和敵手策略的數據,以此加強網絡防御。通過合作,這些人工智能公司同樣旨在更有效地檢測此類行為,識別責任人,並努力阻止未經授權的用戶得逞。
特朗普政府官員已表示願意促進人工智能公司之間的信息共享,以遏制對抗性蒸餾。去年,特朗普總統公布的《美國人工智能行動計劃》呼吁建立壹個信息共享與分析中心,部分原因正是出於此目的。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見