-
日期: 2026-01-14 | 来源: 硅谷101 | 有0人参与评论 | 专栏: 美股 | 字体: 小 中 大
来源:IIm-stats
Howie:
我必须提“DeepSeek Moment”。其实24年它已经显现出功能了,但25年推理模型的爆发,彻底确认了这是一个系统性的趋势。 它的影响远超想象。年初大家觉得DeepSeek出来只是地缘政治或者英伟达股票跌个几百Billion的事情,但一年走下来,你会发现它的影响是:做大模型不需要垄断在5家大厂手里。除了OpenAI和Anthropic,那些出走的科学家做的New Lab(如SSI、Thinking Machines)都在发力。这意味着真正的研究可能正在发生在大厂之外,这些实验室有希望做出OpenAI在2019年做过的那种从0到1的突破。
关键问题 2:Scaling Law到底有没有撞墙?2026年会有“新神”出现吗?
陈茜:
上半年大家都说Transformer“撞墙”了,甚至有人说Scaling Law已经“撞墙”,结果谷歌Gemini新一代出来,大家又觉得Scaling Law还有戏。2026年我们会看到什么?
Howie:
我是坚定乐观派,我觉得Scaling Law还非常强劲。很多人说数据用完了,那是胡扯。 数据不在于多,而在于怎么精心挑选。什么是好数据?什么数据该放多少比重?这上面有太多的Permutation(排列组合)。谷歌Gemini的突破不是因为网上数据多了,而是把数据整理、清洗、配比做到了极致。 算力也一样。马斯克在奥斯汀建了百万张卡的集群,但“The devil is in the detail”(魔鬼在细节里)。你怎么连卡?怎么解决容错、带宽?如果若干年后我们回头看,发现还有10倍的Scaling空间,我一点都不觉得奇怪。算法、算力、数据这三点上,现在还远远没到终点。
张璐:
我同意Scaling Law成立,但它不再是唯一的增长路径。2026年,竞争会从“单纯堆数据”变成“系统级Scaling”。谷歌的优势在于它是一个“系统中心型”公司。它有DeepMind这种深厚的人才储备,有几年前就布局的新型架构,还有真实世界的用户反馈闭环。你看Gemini表现惊艳,其实是它把系统层面的优化、数据质量的闭环和产品反馈结合得最好。相比之下,那些纯模型公司(Model-centric)在2026年会面临更大的成本压力,2026年我们会看到更多对过去“无脑堆数据”方式的修正。
关键问题 3:Meta的“生死大辩论”:是该死磕模型,还是回归应用?
陈茜:
这里有一个非常Drama的点。Meta最近花20-30亿美金,仅仅用了十多天就完成了对中国团队Manus的收购。两位对Meta在2026年的处境有一个非常精彩的辩论,咱们展开聊聊。
张璐:
我对Meta现在挺失望的。 原本Llama 3出来时非常惊艳,我们非常看好开源生态。但Llama 4出来后的表现和预期差很多,核心原因是他们内部战略调整,太早想去推产品端,导致忽略了推理(Reasoning)能力的深耕。
- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见