-
日期: 2024-05-08 | 来源: 36氪|字母榜 | 有0人参与评论 | 字体: 小 中 大
以训练一个1.8 万亿参数模型的GPT-4为例,之前需要用8000个Hopper GPU干的活儿,现在用2000个Blackwell GPU就能做到,且功耗还减少至原来的约1/4,即从15 兆瓦降至4兆瓦。
如果想要更强性能,用户只需把两个B200 GPU与一个Grace CPU相结合,就能搭建为GB200超级芯片,其可以为大语言模型的推理环节提升30倍的工作效率。
在具有1750 亿个参数的 GPT-3 LLM 基准测试中,GB200的性能是H100的7倍,训练速度则是H100的4倍。
值得一提的是,Blackwell并非某一款芯片的专属名,而是指代英伟达的新一代芯片平台。基于该平台,英伟达提供有多种服务器节点规格,性能从小到大依次为:HGX B100,HGX B200,以及GB200 NVL72。
HGX B100配备x86 CPU和8个B100 GPU。HGX B200使用8个B200 GPU 和1个x86 CPU。最强大的GB200 NVL72系统,则配备36颗Grace CPU和72块Blackwell GPU,具有1440Peta FLOPSde FP4 AI 推理性能,和720 Peta FLOPS的FP8 AI训练性能。
“一个GB200 NVL72机柜可以训练27万亿参数的模型。”黄仁勋介绍道。这意味着,一个GB200 NVL72机柜,便可以撑起约15个GPT-4参数规模的大模型。
不过,英伟达并未明确给出B200芯片的具体上市时间和价格,只表示将于今年晚些时候发货。届时,亚马逊、谷歌、微软和甲骨文,将成为首批提供Blackwell芯片驱动的云服务提供商。
B
除了制程工艺上的停滞,会让外界担忧英伟达继续保持AI芯片领先姿态的持久性外,高涨的AI热情可能带来的库存挑战,也让部分投资机构打起退堂鼓。
“以2017年为例,那时加密货币行业的兴起导致对英伟达GPU需求激增,一度导致市场对其需求过于旺盛,即市场参与者急于购买GPU,以至于出现了超出正常需求的多倍订购,这最终导致了库存积压。每当我听到为了应对短缺而进行双倍订购、三倍订购、四倍订购时,我都会远离。”
现实层面,一众大公司的确在争相抢购英伟达芯片:扎克伯格宣布要建立一个“大规模计算基础设施”,到2024年底将包括近60万个GPU储备,其中涵盖35万张英伟达H100显卡;亚马逊也开始筹划建设世界上最快GPU推动的AI超级计算机,计划配置超过1.6万张英伟达GH200超级芯片。B200芯片发布后,亚马逊率先表态,称AWS已计划采购由2万张GB200超级芯片组建的服务器集群。
在越来越多大公司以高于实际需求而抢购英伟达芯片之际,后者供货的速度却远远达不到预期。
在四季度财报会上,黄仁勋再次提醒道,来自供应链的短缺,正加剧芯片供应现状。
无论是上一代H100,还是全新一代的B200,都需要用到HBM内存。生成式AI爆发之前,因为成本高昂,HBM模式并未得到大规模市场化,全球预备产能并不多。目前SK海力士独占HBM近一半市场份额,即便加上新入局的三星和美光,其能否满足英伟达需求都成问题,更何况还要将原本就捉襟见肘的产能,分润给英伟达的竞品,如谷歌、AMD等自研AI芯片。
HBM环节之外,一颗英伟达AI芯片的最终诞生,还需要经过台积电的CoWoS封装。在5nm工艺节点下,目前仅有台积电可以大规模量产CoWoS先进封装。原本供应H100都不够用的CoWoS封装产能,如今还得给同样采用5nm的B200让路。
而不论是HBM还是CoWoS,想要进一步提升产能,都至少需要近一年的时间提前规划。
因供不应求而无法满足市场需求的英伟达,也给后来者留下了竞争的生存空间,AMD、谷歌、微软、亚马逊、Meta等已有的友商之外,一些新的竞争对手仍在不断赶来。
进入2024年,奥特曼开始喊出7万亿美元的芯片全产业链制造计划,软银创始人孙正义被爆出正寻求高达1000亿美元资金,计划打造抗衡英伟达的AI芯片巨头。
随着越来越多公司加入AI芯片产品研发队列,不排除会进一步加剧未来市场上的AI库存压力。
C
相比芯片库存所带来的远期泡沫,不少投资者在英伟达不断刷新纪录的股价面前,已经开始出现“恐高”情绪,越来越多的声音试图给过热的市场降温。花旗报告中指出,投资市场呈现出过度乐观和“一边倒”的趋势,股市面临的回调风险加剧。
瑞穗证券分析师Jordan Klein表示,投资者似乎陷入了“纯粹的追逐模式”,这种市场行为导致半导体股价格不断走高,形成了一种“自我强化”的趋势。“投资者应该记住,英伟达等AI芯片股‘不可能每天都上涨’,就像最近看起来不自然的行情那样。”- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见