-
日期: 2026-04-25 | 来源: 后厂村 | 有0人参与评论 | 字体: 小 中 大
反过来,Kimi率先大规模验证的Muon优化器,解决了万亿参数大模型训练不稳定、效率低的行业难题——实现了“同等训练量下效率翻倍”,相当于把50万亿token用出了100万亿的效果。而DeepSeek V4的技术报告里,直接把Muon优化器写进了训练方案。
简单说,DeepSeek的MLA帮Kimi降低了推理成本;Kimi的Muon帮DeepSeek降低了训练成本。
你用我的架构,我用你的优化器。没有纠纷,不用授权。这就是中国开源AI的独有的正向循环模式——与硅谷企业将技术视为护城河的理念不同,在这两家公司身上,以开源的态度协同共进的发展模式才是真正的护城河。
02
闭源必内斗
说到这里,就不得不提OpenAI和Anthropic的斗争史了。
早从ChatGPT诞生开始,OpenAI和Anthropic就注定是“死对头”——Anthropic的核心团队大多来自OpenAI,因为理念不合出走后,直接对标OpenAI做闭源模型,双方在技术、人才、资本上展开全方位竞争。
从2023年到2026年,Anthropic的ARR几乎每年都在以10倍的速度增长,步步紧逼OpenAI;到了2026年4月,据传Anthropic公布的300亿美元年化收入体量已反超OpenAI。OpenAI靠微软的资金和算力垄断高端市场,Anthropic则靠谷歌的投资夹缝求生,两者之间没有任何技术共享,反而互相封锁、互相拆台,甚至不惜通过诉讼争夺技术专利。
在这种“双雄打擂台”的态势下,OpenAI近期甚至被曝出内部备忘录,明确将对方锁定为直接竞争对手,严防死守。
为什么会这样?核心就是闭源路线的本质——技术是“护城河”,是赚钱的工具,一旦共享,就会失去竞争优势。闭源模型的盈利模式,决定了它们必须是“绝对竞争”的关系,蛋糕就这么大,你多吃一口,我就少吃一口,根本没有互助共赢的可能。
然而,中国AI军团面临的宏观环境截然不同。在算力受限、高端芯片被海外“卡脖子”的底色下,中国企业若继续内耗,无异于自绝前路。
因此,DeepSeek和Kimi果断选择了拥抱开源——把蛋糕做大、合力突围。
在这个AI从“训练为王”转向“推理决胜”的年代,中国AI选择的路线极具战略远见:用顶尖的开源模型击穿闭源厂商的高昂定价权,通过近乎同水平的智能表现与大打折扣的价格,迅速占领全球开发者市场。
03
“兄弟”殊途同归
更值得欣慰的是,这对中国双子星,不仅在技术上互相成就,在突破国产芯片封锁这件事上,也各自发力、殊途同归,为中国AI的自主可控铺平了道路。
DeepSeek走的是“工程适配”路线,V4首发适配华为(专题)昇腾芯片,工程团队硬生生把整个技术栈从CUDA迁移到华为CANN框架,从算子库、通信原语到内存管理,几乎每一层都重新实现,还完成了寒武纪芯片的Day 0适配,代码全部开源,用实际行动证明:国产芯片也能跑万亿参数的旗舰大模型。
连英伟达CEO黄仁勋都曾坦言,“如果DeepSeek先在华为平台发布,对我们来说非常可怕”,如今这句话已然成真。
Kimi则走的是“架构创新”路线,为了适配国产芯片,它掏出了“杀手锏”:一是Kimi Linear混合注意力架构,把线性注意力和全注意力以3:1的比例混合,在长上下文推理中,解码速度提升最高达6倍,KV缓存减少75%。让RDMA高速网络从“必选项”变成“可选项”。
二是PrFaaS技术,把推理的预填充和解码阶段彻底解耦,调度到不同的国产异构硬件上,让算力强的国产卡做预填充,带宽强的国产卡做解码,相比传统同构PD部署,实测吞吐量提升54%,P90延迟降低64%,彻底打破了“大模型推理必须绑定高端GPU”的魔咒。
一个从工程层面验证国产芯片的承载能力,一个从架构层面优化国产芯片的运行效率,可以说,两家公司在用不同的方式,共同推动“中国芯片+中国模型”的生态落地,让英伟达不再是中国AI的唯一选择。
04
总结:
当DeepSeek在V4公告中写下“从现在开始,1M上下文将是标配”,当Kimi在K2.6的测试中让智能体自主连续运行了整整五天,中国AI已经悄然越过了以参数论英雄的蛮荒期。
这不仅意味着中国企业在复杂的全球AI棋局中,找到了绕过算力封锁的解题钥匙,更深远的意义在于,随着国产算力的大规模放量以及中国开源大模型在全球占比份额的迅速攀升,一种崭新的世界AI多极化格局已见雏形。当一个行业的壁垒从封锁变成效率,从闭源的神秘变成开源的普惠,真正的风暴才刚刚开始。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见