-
日期: 2024-05-08 | 来源: 钛媒体 | 有0人参与评论 | 字体: 小 中 大
首先,在算力层,据「华尔街日报」报道,知情人士透露,苹果公司内部代号为「ACDC」的自研数据中心 AI 芯片项目已酝酿数年时间。
一些知情人士同时表示,对于苹果的服务器芯片,该组件可能会应用于大模型的推理侧。不过,目前尚不确定这款新芯片将于何时亮相。
不过关于「自研服务器芯片」的传闻,彭博社记者 Mark Gurman 对此就辟谣:" 这个项目已被取消,苹果不会制造自己的 AI 服务器芯片,因为成本原因与缺乏差异化。"
Mark Gurman 认为这一消息不靠谱 图源:X@Mark Gurman
说回自研服务器芯片这一话题,无论苹果究竟有无入局,算力确实是一门诱人的生意。
大模型的算力需求场景主要包括预训练、推理与调优,随着模型参数越多,推理成本也越大。英伟达创始人黄仁勋在去年接受采访中已表明:" 推理需求会飙升 ",据他的观点:" 拿大语言模型来说,整个模型超过 1750 亿个参数,在大型语言模型推理中,每个 Token 的响应时间真的很重要 "。
其次,在模型层,苹果尝试以「开源 + 小模型」的方式,寻找模型落地的最佳姿势。
据「硅基研究室」跟踪,苹果从去年 10 月开始,就陆续公布自己的开源 AI 研究成果,同时发力小模型(包括多模态和语言模型),聚焦端侧部署。
苹果部分模型 图源:Hugging Face
以近期发布的模型案例来看,苹果发布了小型开源语言模型系列—— OpenELM 包括了 2.7 亿、4.5 亿、11 亿和 30 亿四个型号。仅从参数来看,比最近发布的其他开源小模型要小得多。苹果同时开源了用以训练 OpenELM 模型的 CoreNet。
同样在 4 月,苹果发布了 Ferret-UI,通过多模态大语言模型理解用户界面。苹果 AI/ML 研究科学家 Zhe Gan 解释了该模型的用途:" 想象一个可以理解你的 iPhone 屏幕的多模态 LLM?Ferret-UI 可以对你的苹果屏幕进行精确定位和推理,实现自由输入和输出。" 同时,苹果也将 Ferret 升级到了 Ferret-v2,对自然图像和空间的理解能力更强了一些。
- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见