-
日期: 2026-03-06 | 來源: 新智元 | 有0人參與評論 | 字體: 小 中 大
在印度新德裡舉行的AI峰會上,OpenAI的CEO奧特曼和Anthropic的CEO Dario Amodei拒絕握手,彼此嫌棄
他點燃了OpenAI的Scaling Law之火
早在2019年,Dario的信念就已成型。
那年GPT-2剛出,業界大多嘲笑“不過是更大的語言模型”。
他卻看到了規律:
智能就像壹場化學反應。
你把叁種原料——數據、計算、模型尺寸——按比例混合,點火,它就爆炸。
在2024年壹檔播客中,Dario Amodei回憶道:
2014年我在百度研究時,就隱約發現了Scaling Law。雖然當時沒有量化,但我們都感覺到,給模型更多數據、算力和訓練時間,性能就會不斷提升。
2017年,百度發布相關論文時未引發廣泛關注,但後來成為推動大模型發展的重要理論基石。
他推動OpenAI接受這條“scaling law”。
起初很多人不信,包括openAI部分高層。
但曲線不會撒謊。GPT-3、後續模型壹次次驗證:規模就是壹切,Scaling is All You Need。
可當曲線越來越陡,Dario開始問第贰個問題:智能開始爆炸之後呢?
“這些模型壹旦成為通用認知Agent,”他說,“經濟、地緣政治、安全的影響將是指數級的。我們必須做對。”
在OpenAI內部,他推動的不是“更快”,而是“更對”。
他看到安全被放在“漂亮的修辭”裡,卻總在速度與領先的權衡中後退。
他和幾位共同創始人越來越不安。
“與其試圖改變別人的願景,不如自己去做。”Dario總結,“然後為自己的錯誤負責。”
於是他們走了。不是因為恨,而是因為必須擁有自己的方向盤。
安全豈只嘴上說說?
離開後,Dario沒有沉默。他把Anthropic設計成公共利益公司,使命寫進章程:負責任地推進前沿AI。
更激進的是治理結構:Long-Term Benefit Trust(長期利益信托)。
這是壹個獨立實體,由財務上完全無利益沖突的受托人(國家安全、公共政策、AI安全專家)組成。他們持有特殊股份,最終可任命董事會多數席位。
“這是在制衡單壹人,”Dario說,“也是對權力自然集中趨勢的反抗。”
他坦言對“壹夜之間、近乎意外”的權力集中“深感不適”。
在OpenAI時,他感覺安全只是“語言修飾”;在Anthropic,他用制度把安全釘死在公司DNA裡。
證據清單觸目驚心:
2022年,Claude 1已很強,他們選擇不發布,只因擔心點燃軍備競賽(為此損失消費者市場先機)。
推動加州SB 1047監管法案,且明確豁免年營收
公開與政府意見相左,甚至不惜商業代價。
而OpenAI的方向,在Dario看來,是“嘴上重視,骨子裡加速”。
他沒有直接點名,但那句“我不信奧特曼能把AI做對”已足夠撕開所有包裝。
但最吊詭的悖論來自Dario自己!
當最懂AGI的人親手制造風險
在代碼、推理、長上下文上,Anthropic的AI模型Claude系列屢屢領先,
Dario Amodei直言“熱浪正在逼近。”
最近,他開始更多地使用Claude,日益迷戀:
有時候,它對我的了解之深,真的會讓我有點震驚。不知道你能不能理解那種感覺——它仿佛真的“懂”我。
讓他真正感到意外的,是我們距離這些模型達到人類智能水平,已經非常近了——至少在他看來是這樣。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見