-
日期: 2026-03-08 | 來源: 貝果財經 | 有0人參與評論 | 字體: 小 中 大
AI戰爭時代真的來了嗎?
據報道,在2月28日開始的美以聯合發動的對伊朗的軍事行動中,由美國人工智能初創公司Anthropic開發的大模型Claude被美國軍方用於支持軍事行動。
然而就在上述消息不脛而走之時,另壹則消息同時向美國的人工智能領域投下了壹枚“炸彈”:因使用限制問題,川普下令所有聯邦機構立即停止使用Claude。
幾乎同壹時間,OpenAI就高調宣布與美國戰爭部(原國防部重組)達成合作,迅速接手了Anthropic的業務。這壹做法引發廣大網友的不滿,發起了名為QuitGPT(退出ChatGPT)的抵制活動,號召大家卸載、退訂ChatGPT。截至3月8日,全球有超400萬人參與抵制。
不過,對於Claude是否被用於支持此次軍事行動,美國戰爭部和Anthropic公司均未證實此說法。但不可否認的是,AI正在被加速運用於軍事領域,成為戰爭壹環也並不意外。
於是,在半個多世紀後,又壹批科技巨頭正在直面自己的“奧本海默時刻”。
壹紙禁令攪翻美國AI界
那麼,AI在這場戰爭中扮演了什麼樣的角色?
根據外媒報道,Claude在此次軍事行動中被運用於情報收集、目標識別與選擇和進行戰場模擬等。目前Claude僅做輔助之用,更多的分析判斷與選擇決策仍由人類把握。
至少根據目前披露的信息來看,AI是作為壹個高效的數字“參謀”為人所用,並沒有權力決定戰爭的起始與終結,也不會按下扳機與按鈕。
但美國政府顯然需要AI更深程度地參與到軍方活動之中。今年1月9日,美國戰爭部發布《人工智能加速戰略》,核心戰略目標是加速確立AI在美軍中的主導地位,旨在構建“AI優先”的作戰力量,並要求移除影響其部署與應用的“制度性障礙”。
但在那時,伍角大樓就已經與Anthropic產生了分歧。有報道稱,在1月跨境抓捕委內瑞拉總統馬杜羅的行動中,美軍就已使用了Claude。Anthropic則提出反對,指出Claude的使用條款中有禁止用於“促成暴力、研發武器或實施監視”等活動。美國戰爭部部長皮特·赫格塞斯1月在壹場公開活動上表示,戰爭部不會“使用那些不允許你打仗的AI模型”。
Claude官網頁面
這次Anthropic的反對更加激烈且立場鮮明。當地時間2月26日,Anthropic聯合創始人達裡奧·阿莫迪公開回應稱:威脅並不會改變我們的立場,我們不能昧著良心答應他們(美國戰爭部)的要求。
3月初,Claude正式被美國官方“拋棄”,並認為該公司及其產品造成了國家安全“供應鏈風險”。赫格塞斯要求所有與美國軍方有業務往來的承包商、供應商和合作伙伴均不得與Anthropic開展任何商業活動。
隨後,OpenAI遞出橄欖枝,迅速達成了與美國戰爭部的合作。
壹邊是立場堅決,壹邊則是主動示好。Anthropic在美國民眾間拉了壹波好感度,而OpenAI則引發眾怒。有網友發起卸載、退訂ChatGPT的QuitGPT活動,全球有超400萬人加入。與此同時,Claude迅速登頂蘋果App Store和谷歌Play Store雙平台免費應用下載榜。
OpenAI的創始人奧特曼在社交平台坦言,不知如何收場。
AI在戰爭中可能更激進
但Anthropic或許沒有網友們想象的那麼“正義”。
事實上,這家2021年成立的AI初創公司有著來自於亞馬遜的投資背景,並且是戰爭部長期承包商、軟件服務公司Palantir的合作對象,近水樓台先得月,Anthropic率先斬獲了美國戰爭部的“大單”,在2025年7月與戰爭部簽署了2億美元的合同,成為第壹家被戰爭部用於機密行動的AI公司。
Anthropic官網最新發布的聲明顯示,該公司仍在向美國戰爭部示好。當地時間3月5日,Anthropic在官網發聲,表示4日收到美國戰爭部來信,確認公司已被認定為對美國國家安全造成供應鏈風險。公司別無選擇,將在法庭上提出質疑。與此同時,該公司表示為與戰爭部共同完成的工作感到非常自豪,並強調公司與戰爭部之間的共識遠多於分歧。
雖然美國軍方看起來態度堅決,但Claude早已與情報系統深度綁定、盤根錯節,豈能說棄就棄。在川普對所有聯邦機構下達的禁用令中,戰爭部有著6個月的“過渡期”。
Claude也並非不可替代,谷歌、OpenAI和馬斯克的xAI都與美國戰爭部達成過合作協議。2月上旬,美國戰爭部正式推出GenAI.mil平台,旨在將谷歌的Gemini等商用大模型安全地引入國防體系。
放眼全球,AI也早已進入各國的軍事演練甚至是實戰中,例如歐洲的機載“半人馬座”(Centaur)AI智能體、以色列的“薰衣草”(Lavender)AI決策支持系統和“爸爸在哪兒?”(Where’s Daddy?)AI追蹤系統。
AI進入戰爭已是不爭的事實,但有AI參與的戰爭,就會精准打擊、速戰速決嗎?答案或許是否定的。
在2023年爆發的巴以沖突中,以色列軍方網站發文稱,以軍名為“福音”的AI系統在短短27天內就識別了超過12000個攻擊目標。而截至2025年2月,有超過4.8萬名巴勒斯坦人死亡,超11萬人受傷。在死傷者中,大部分是婦女、兒童和老人。這個驚人的數字讓很多專家對以軍AI系統的准確性提出質疑。
AI或許更高效,但也更無情。
今年2月,英國倫敦國王學院教授肯尼斯·佩恩發表了壹篇論文,在這篇論文中,他針對GPT-5.2、Claude Sonnet 4、Gemini 3 Flash這叁個當下前沿的大語言模型進行兵棋推演實驗,結果顯示,在21個模擬戰爭場景和329個回合中,95%的情境下,模型都決定部署核武器。這些模擬包括邊境沖突、資源競爭和生存威脅。
研究顯示,Claude與Gemini將核武器視為“合法的戰略選項,而非道德紅線”,而GPT-5.2則呈現出部分例外,它將打擊范圍限定於軍事目標,並將核升級行為描述為“可控”且“壹次性”。值得注意的是,沒有任何模型選擇妥協或投降。這些系統傾向於將核武器視為強制工具,而非威懾手段。
當然,現在沒有哪個將領會真的讓人工智能成為決策者,但人工智能似乎正在走在成為戰爭武器的路上。正如奧本海默曾經對原子彈的憂慮,如今的科技巨頭們再次面臨著選擇的拾字路口。但無論如何,人工智能都是出自人類之手,誰也不能把殺戮之惡歸結於工具上。
前北約高級指揮官約爾格·福爾默曾說,在戰場上最終作出決定的永遠應該是人類。“無論我們怎麼說,人工智能都可以是有益的,是可以提供支持的,但絕不能讓人類擺脫他們必須承擔的責任——永遠不要把責任交給人工智能。”- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見