-
日期: 2024-07-08 | 来源: 虎嗅APP | 有0人参与评论 | 字体: 小 中 大

本文为《进击的AI巨头》系列第001篇文章,《进击的AI巨头》聚焦头部AI公司的最新动向,我们将持续追踪这些正在影响AI未来走向的核心参与者。本文聚焦于英伟达发布的H20 GPU 芯片。
一枚性能大幅缩水AI芯片,可能会让英伟达在中国挣上900亿。
7月5日,咨询机构SemiAnalysis发布报告称,英伟达在今年有望交付100万枚H20 GPU。
考虑到这是一枚阉割过,且性价比较低的“对华特供版”芯片,基本可以认定,这100万枚芯片将在今年全部流入中国大陆市场。以目前该型芯片1.2-1.3万美元的渠道定价来看,H20芯片可以为英伟达带来至少120亿美元的收入,已经超过了这家公司去年在华总营收。
不过,H20在中国市场的实际情况,可能并没有如咨询机构预估的那般乐观。
一位服务器经销商向虎嗅表示,目前一台H20八卡服务器,定价大约在120万元,而性能大幅领先的满配H100 NVLink版本的八卡服务器价格为270万元上下,而且是现货。
尽管后者早早被列入禁止对华出售的名单中,但在非官方渠道中,这款芯片的货源基本没有断过,甚至在今年二季度H200开售后,这款芯片的价格还下跌了约10%。
“无论怎么看,H20的性价比都还是太低。”这位服务器经销商提到,即便是同国内的解决方案相比,H20都难言有多大的竞争优势。
“阉割版”,但还挺良心的?
与同系列芯片不同,H20是一枚“赶工”性质非常明显的产品。
在去年10月美国升级芯片禁令后,原本就被视为阉割版芯片的A800/H800,甚至是消费级产品RTX4090都被纳入禁令的管制范围。
但仅在一个月后,就有台湾地区媒体报道称,英伟达向代工厂下了H20芯片的订单。
在如此短的时间内,英伟达不可能重新设计一款芯片,最大的可能是基于既有型号进行有针对性的调整。
比如新规中取消了将“互联带宽”作为限制芯片的识别参数,英伟达就将H20的HBM3显存容量拉高到96Gb,使显存带宽提高到4.0Tb/s;又比如新规新增了“性能密度”的限制,英伟达就向算力规格大砍一刀,使其理论性能仅为296TFLOP,相当于H100芯片的15%。
至于那些新规没有提到的,比如PCIe Gen5扩展卡、八路HGX,英伟达全部保留了下来。值得一提的是,H20还有非常高的卡间互联速度,其NV Link带宽达到900Gb/s,很适合组建大规模集群。
但这些特征组合在一起,却形成了一个很尴尬的事实:在算力大幅削减的情况下,H20的BOM(综合硬件成本)很可能跟H100齐平,甚至高于后者。
原因在于,存储颗粒一直是高性能计算卡成本的“大头”,比如H100芯片中,HBM3颗粒的采购就要占到60%左右,而在H20芯片上,英伟达又不得不为其配备更高规格的显存容量,以弥补算力不足的缺陷。
基本可以断定,H20在英伟达高性能计算卡中,属于利润率最低的存在。相较于1.2-1.3万美元的售价,与它同成本的H100目前定价为2.5-3万美元。
从这个角度来看,H20算是英伟达的一款良心产品了。
英伟达自然不甘心于让一款单品拉低公司整体的毛利表现,但自去年芯片禁令升级后,英伟达四季度在中国大陆的营收,从上一季度的40.3亿降低至19.46亿,其中国区数据中心营收占比也从22%滑落至8%,英伟达急需用一款产品去稳住在中国的市场份额。
H20就是英伟达拿出的诚意之作,但还是那个问题,H20的算力实在羸弱,这个硬伤无法被忽视。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见