-
日期: 2026-04-25 | 來源: 後廠村 | 有0人參與評論 | 字體: 小 中 大

當硅谷閉源陣營陷入“博弈”的內斗泥沼,中國大模型正在用另壹種方式撕開缺口。
4月24日,期待已久的DeepSeek-V4預覽版正式發布並同步開源,DeepSeek-V4分為Pro與Flash兩個版本,均支持百萬(1M)token超長上下文。同樣在這周,Kimi不約而同地發布了最新模型K2.6,把Agent能力從“單點調用”升級為“集群協同”。
壹周誕生了兩個萬億參數的開源模型,不僅讓全球開源領域的目光集體聚焦中國,更悄然勾勒出中美AI賽道截然不同的發展底色——當美國AI頭部企業陷入愈演愈烈的內斗,而中國的開源AI似乎已經跑通了壹條協同進化的道路。
01
同周開源,分工明確互不內卷
就在DeepSeek V4引發風暴的同壹周,月之暗面發布Kimi K2.6並開源,提升了Agent集群能力:支持300個Agent並行,可自主拆解和完成長周期的復雜工程任務。這與DeepSeek形成了鮮明的路線互補。
DeepSeek主攻“深度推理、長文本理解、算力效率”,Kimi猛攻“多Agent集群、長周期任務執行、復雜工程落地”,兩條路徑各自跑通閉環,共同擴大了中國開源模型的全球輻射范圍。
但是,兩家AI公司的這種“默契”真的是巧合嗎?
真正的細節藏在技術報告裡。
最典型的就是兩個關鍵技術的互相引用。
DeepSeek V3提出的MLA(多頭潛在注意力)技術,是它最核心的架構創新之壹,能通過壓縮KV緩存,大幅降低大模型的推理成本——要知道,推理成本是大模型落地的最大門檻之壹,MLA技術直接讓DeepSeek的推理效率提升壹個檔次。而Kimi在K2系列模型中,選擇沿用MLA架構,靠著這項技術,成功壓縮了KV緩存體積,為Agent能力的落地掃清了障礙。- 新聞來源於其它媒體,內容不代表本站立場!
-
原文鏈接
原文鏈接:
目前還沒有人發表評論, 大家都在期待您的高見