-
日期: 2025-11-26 | 来源: 腾讯科技 | 有0人参与评论 | 专栏: 谷歌 | 字体: 小 中 大

Alphabet兼谷歌首席执行官桑达尔·皮查伊
文丨无忌
编辑丨苏扬
股价“跌跌不休”,英伟达都不得不站出来表态,“我们领先了全行业一代”。
事情要从巴菲特“谢幕之作”说起——伯克希尔·哈撒韦公司首次建仓谷歌母公司Alphabet股票,随后更劲爆的是市场又传出英伟达大客户Meta考虑2027年在其数据中心部署谷歌TPU,并于2026年通过谷歌云租用TPU算力。
英伟达在紧急声明中,强调GPU在性能、通用性和可移植性方面“远优于”ASIC(专用集成电路),并重申自研TPU无法替代 GPU的灵活性。谷歌发言人也表示继续和英伟达保持合作关系,并强调公司致力于同时支持TPU和英伟达GPU。
TPU,从一个10年前为了解决AI计算效率瓶颈的“救命项目”,如今已经发展成为谷歌的“经济支柱”。
作为自研ASIC芯片的代表,TPU已经具备动摇英伟达根基的潜力,只不过谷歌的逻辑不是和英伟达比单卡性能,而是在用一套完全不同的超大规模系统哲学,重新定义AI基础设施的未来。
一切都要从10年前,TPU诞生的那一刻说起。
01 TPU的前世今生
TPU v1
谷歌在2015年启动TPU项目,这并非出于炫技,更不是为了彰显技术实力,而是被逼入了一个“不自研将难以支撑未来业务规模”的现实。
随着深度学习在谷歌内部的应用不断扩散,谷歌工程团队当时意识到一个关键问题正在逼近——包括搜索、广告等谷歌核心服务都涉及巨量用户请求,如果全面采用深度学习模型,那么谷歌全球数据中心的功耗将暴涨至难以承受的程度,即使采购再多GPU也无法满足需求,更不用说成本上的激增。
彼时GPU更适合训练大规模神经网络,但其能效并非针对实时在线推理设计。
谷歌内部甚至出现过预测:如果未来所有核心业务上线深度模型,全球数据中心的电力成本会增长十倍。内部高层意识到,继续依赖 CPU和GPU的现有路线不可持续。
因此,谷歌决定自研ASIC加速器,目标不是造一个“最强通用芯片”,而是造一个“可大量部署在数据中心、用于特定矩阵运算的高能效芯片”。
最终,TPU v1在2016年正式投入使用,用于支持谷歌翻译以及部分搜索功能,证明了ASIC方案具备可行性。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见