-
日期: 2026-01-12 | 来源: 爱范儿 | 有0人参与评论 | 专栏: 马斯克 | 字体: 小 中 大
如此漫长的延期背后,暴露的正是苹果在大模型技术上的短板。
为了弥补这一差距,苹果不得不向外部寻求支持。根据此前彭博社的报道,Google 给苹果提供的 Gemini 模型拥有 1.2 万亿参数,远超苹果现有的 1500 亿参数模型。
作为参考, 去年 7 月份, 月之暗面首发开源了 Kimi-K2-Instruct 模型, 其总参数达 1 万亿, 成为首个突破万亿参数的国产开源基座模型。
这种参数规模上的巨大差距, 直接反映在模型的推理能力、知识广度和任务处理的复杂度上——这正是新版 Siri 实现“摘要器”和“任务规划”等核心功能所必需的技术基础。
而苹果要在短时间内训练出参数规模相当、性能可比的自研模型, 不仅需要海量算力投入和高质量训练数据, 更需要稳定且经验丰富的研发团队。
但问题的核心在于, 苹果 AI 团队正面临严重的人才流失。自去年 7 月至今, 苹果 AI 团队已有约数十名核心成员跳槽。
苹果基础模型团队负责人庞若鸣被 Meta 以 2 亿美元挖走, 负责 Siri 智能搜索项目的 Ke Yang 刚担任负责人不久就决定投奔 Meta, 多位去年发表 AI 论文的关键研究员也相继出走 OpenAI、Cohere、xAI……
这支本就 100 多人的小团队,却在最需要攻坚的时刻折损了主将。
这是一场不折不扣的信心危机,当你的员工用脚投票时, 说明问题已经不是多发几个月工资能解决的了。
苹果的保密文化曾经是它的护城河,严格的信息管控让产品发布会永远充满惊喜, 让竞争对手无从模仿。
但在 AI 时代, 这套打法失效了。当研究人员不能自由发表论文, 无法在学术界建立声誉;缺乏开源交流, 也意味着错过整个 AI 社区的快速迭代。
更关键的是,苹果算力资源起步较晚,训练数据因隐私政策限制而相对匮乏。
当 OpenAI 和 Google 投入数万张 GPU 训练超大规模模型时,苹果需要在用户隐私保护和数据使用规模之间寻找平衡,这在一定程度上制约了其大模型的训练进度。
于是,别无选择的苹果, 只能向外“求援”。
为什么是 Google, 而不是别人?
如果回看联合声明,那句“经审慎评估,Google 提供了最有力的基础”,颇为玩味。翻译成人话就是:我们也想自己搞,但对手实在太快了,而 Google 确实是目前能抓到的最强稻草。
首先, Google 足够强大, 也足够稳定。
作为 AI 领域的老牌巨头, Google 旗下的 Gemini 2.5 Pro 在大多数大模型排行榜上名列前茅, 技术实力毋庸置疑。这种技术实力的强大也反映在 Token 使用量和市场使用份额上。
- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见