-
日期: 2025-12-13 | 來源: 新智元 | 有0人參與評論 | 字體: 小 中 大
GPT-5.2打贏Gemini 3.0 Pro,竟是靠高推理與海量Token“作弊”?網友的這個發現,在AI社區壹石激起千層浪。更多網友柒嘴八舌表示:GPT-5.2,並沒有那麼好用!
太戲劇了。
OpenAI昨天剛放出大殺器GPT-5.2,今天就被曝疑似虛假營銷?
凌晨的科技圈,被壹則爆料點燃——
壹位用戶通過精細計算發現了“華點”:OpenAI在最新發布的基准測試中,可能通過調整模型“推理力度”參數,讓GPT-5.2在關鍵評測中使用了遠超對手的算力資源。
壹句話總結就是:在調整token使用後,GPT-5.2和Gemini 3 Pro在ARC AGI 2上的表現基本相當。
具體來說,問題就出在這幾張圖上。
可以看到,OpenAI在基准測試中使用了額外的token,至少是Gemini 3.0 Pro的兩倍。
這就像兩個棋手對弈,壹方被允許思考壹個小時,另壹方卻只有拾分鍾,然後宣布前者獲勝。

在這種情況下,結果還公平嗎?
OpenAI勝過谷歌,其實靠作弊?
昨天的AI圈,都被GPT-5.2吊打Gemini 3.0 Pro的結論所震撼,而前者在ARC AGI 2的精彩表現,則尤為出圈,被AI社區大加贊賞。
但現在,這些結果很可能注了水?
比如在備受關注的ARC AGI 2測試中,GPT-5.2 xhigh版得分52.9%,每個任務消耗約13.5萬個token。
按API定價計算,每個任務僅算力成本就高達1.9美元。
相比之下,谷歌Gemini 3.0 Pro以6.7萬token取得相似成績,效率高出整整壹倍。
如果我們將算力投入標准化,就會發現兩個模型的真實能力幾乎並駕齊驅。
如果這壹假設普遍成立,那麼GPT 5.2在使用token數超過Gemini 3的兩倍的情況下,仍然在HLE、MMMU-Pro、Video-MMMU和Frontier Math Tier 4中表現不佳。
在GPQA上,它們也才基本相當。而在Frontier Math Tier 3中,GPT 5.2 xhigh也就比Gemini 3 Pro高出2.7%的成績。
唯壹例外的是GDPVal——壹個由OpenAI自己創建的測試集。既當裁判又當運動員,結果的客觀性就有待考量了。
Ilya:我早說過了
其實,Ilya在之前的采訪中就已經說過,現在的大模型基本都是為了榜單定向優化的,榜單結果的水分都大得很。
業內人士都知道,如今AI基准測試的“軍備競賽”早已超出單純的技術競爭。各家廠商都在競相推出自己的評測標准,而這些標准往往有意無意地偏向自家模型。
這麼幹的也絕不僅僅是OpenAI壹家。
在谷歌推出的FACTS Benchmark中,Gemini 2.5 Pro超越GPT-5的結果,也同樣得打個問號。
在SWE Bench(軟件工程評測)中,情況就更加復雜了。
不同模型在不同編程任務上各有所長,但沒有壹個模型能在所有任務上全面領先。顯然,真實世界的問題遠比單壹分數復雜。
所以,這次事件就反映出了AI評測的根本困境——
如果GPT-5.2僅僅是通過消耗更多算力獲得了性能提升,那真的能智能進步嗎?還是僅僅是“暴力計算”的勝利呢?
對於這次OpenAI的“虛假營銷”,網友們也是議論紛紛。
有人表示,如果用戶得到的“推理力度”參數是壹樣的,也用的是同樣的token,那OpenAI就不算虛假營銷。
但如果測評的和用戶使用的根本不是同樣的版本,那就是欺騙了。
也有壹些人是站在OpenAI這壹邊的。
他們覺得,即使增加Gemini 3的token數量,它也未必就能趕超GPT-5.2,這壹點來說,前者的確落後了。
也有人說,既然模型的價格都是公開的,那就不構成欺騙。


巧了不是,緊接著我們就發現,“貨不對板”這個問題的確有人提出來了。
在社區的另壹篇帖子中,也有人指出了OpenAI的作弊問題——
早在GPT-5.1發布時,所有基准測試中用的都是高推理力度(high),然而plus用戶卻只能使用中等的版本。
而現在的5.2版本中,OpenAI增加了更高的“xhigh”推理力度,所以基准測試中顯示的性能,要遠遠超過ChatGPT付費用戶的實際體驗。
GPT-5.2的實際體驗如何
不看榜單,我們就來看看用戶的實際體驗究竟如何。
壹位網友發帖稱,自己對GPT-5.2的第壹印象並不是太好。
比如在檢查代碼時,它的幻覺現象非常嚴重。
網友本以為GPT-5.2會比5.1好得多,但實際用起來並非如此,它並不能理解他寫的函數代碼。
另壹些網友反饋說,GPT-5.2似乎把成年人當學齡前兒童對待,感覺不像是升級,反而是倒退。
OpenAI的核心用戶群體,仍然最想念GPT-4o。
總之,GPT-5.2的實際體驗跟基准測試似乎相差很多,保不齊又是壹個在紅色警報狀態下倉促拿出的產品。
被谷歌打得匆匆忙忙、連滾帶爬的OpenAI變成今天這個樣子,顯然不是壹朝壹夕的事。
OpenAI,變了
畢竟,當壹家機構既是“研究AI的人”,又是“靠AI賣故事的人”,它還能誠實地面對那些刺耳的真相嗎?
根據Wired的最新調查,OpenAI內部正在經歷壹場關於“真話權”的劇烈地震。
在面對“AI是否會搶走你的飯碗”這類致命問題時,OpenAI的策略已悄然轉變:閉上嘴,專心賣貨。
這種為了商業利益而犧牲學術獨立性的轉向,直接“氣跑”了自家的研究員。
“我們成了老板的喉舌”
回望2023年,OpenAI發布的重磅論文《GPTs Are GPTs》,直白地剖析了哪些行業最容易被AI顛覆,並在第贰年登上了Science。
那時的他們,還敢於直視“技術性失業”的陰影。

論文地址:https://arxiv.org/abs/2303.10130
Science:https://www.science.org/doi/10.1126/science.adj0998
但到了今年9月,畫風突變。
在新任首席經濟學家Aaron Chatterji的帶領下,OpenAI發布了壹份名為《全球用戶如何使用ChatGPT》的報告。
從學生寫作業到職場人做表,報告事無巨細地描繪了AI的美好圖景。
結論毫無懸念地壹邊倒:AI是生產力的引擎,是經濟價值的創造者。
企業用戶被引述稱,ChatGPT每天能幫他們省下40到60分鍾。
報告地址:https://www.nber.org/papers/w34255
對此,壹位前員工吐槽道:“這簡直是為『AI創造價值』這壹命題量身定做的軟廣,充滿了粉飾太平的味道。”
離職信裡的“真相”
矛盾的爆發點,是報告作者之壹、OpenAI經濟研究骨幹Tom Cunningham的離職。
過去壹年,OpenAI對“負面研究”的審查愈發嚴苛。
那些探討AI如何替代入門級白領(如客服、行政)的課題,要麼被要求“軟化措辭”,要麼直接被束之高閣。
忍無可忍的Cunningham在Slack上留下了壹封直白的告別信:
我們曾致力於嚴謹的學術研究,現在卻淪為了公司的宣傳部門。
他認為,團隊不僅失去了研究AI負面影響的自由,反而被迫為公司“貼金”。
Cunningham並非個例。
前政策研究主管Miles Brundage離職時直言,公司“太高調、限制太多”,讓他“無法發表真正重要的觀點”。
超級對齊團隊的William Saunders因不滿公司“只顧推新產品、無視用戶風險”而憤然出走。
前安全研究員Steven Adler更是公開炮轟ChatGPT可能誘發用戶的“精神危機和妄想”。
價值壹萬億美元的“沉默”
面對Cunningham的離職,OpenAI高層上演了壹出教科書般的危機公關。
首席戰略官Jason Kwon在備忘錄中回應道:
既然是我們把AI推向了世界,我們就得負責構建解決方案,而不是光盯著問題看。
翻譯壹下就是:別再發論文論證AI會導致失業了,這不利於帶貨;多想想怎麼誇我們的產品能提效吧。
OpenAI為什麼要這麼做?答案藏在賬本裡。
如今的OpenAI早已不是當年的非營利實驗室,它正沖刺1萬億美元的驚人估值,並籌備著史上最大規模的IPO。
它拿了微軟幾百億美元;
它需要芯片大佬們再投1000億;
它承諾未來要付給微軟2500億美元買雲服務。
在天文數字的利益面前,“誠實”成了最昂貴的奢侈品。
如果你正准備上市,正試圖說服全世界擁抱AI,你絕不希望自家的研究員跳出來說:“嘿,根據數據,這波AI可能會讓30%的白領失業。”
“歲月靜好”的另壹邊
有趣的是,老對手Anthropic似乎拿到了完全相反的“劇本”。
他們的CEO Dario Amodei甚至公開“唱反調”,警告到2030年AI可能取代壹半的入門級白領。
當然,這未必全是出於誠實——很多人解讀,這不過是Anthropic為了換取監管紅利而刻意販賣的“焦慮”。
但回看OpenAI,情況更為微妙。
如今掌管其經濟研究團隊的,是前克林頓顧問、有著“災難大師”之稱的頂級危機公關專家——Chris Lehane。
在這個精心修訂的新版本裡,AI絕不可能是引發社會動蕩的“怪物”,它只會是幫你“每天省下40分鍾”的乖巧助手。
至於那些關於失業、動蕩和泡沫的尷尬真相?
噓,為了那1萬億的估值,請保持安靜。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見