-
日期: 2025-05-28 | 来源: 深网/腾讯新闻 | 有0人参与评论 | 专栏: 华为 | 字体: 小 中 大
随着全球AI算力供需格局的转变,芯片供应紧张态势自2024年初起明显缓解。市场数据显示,英伟达旗舰产品H100的交付周期已从巅峰时期的8-11个月缩短至3-4个月,供应效率提升超60%。
一些此前大量购买英伟达H100的公司,试图转售这些处理器。有分析指出,这是由于芯片稀缺程度下降,同时维护尚未使用的库存成本也较高。
而从AWS、谷歌云和微软Azure等云服务提供商租用英伟达H100也变得更加容易。据了解,一些中国公司不直接购买被禁止的芯片,而是从国际参与者那里租用计算能力,从而规避美国政府的限制。
去年10月,国外一篇题为“GPU泡沫破灭前夜”的报道引发国内市场关注。报道指出,自英伟达H100上市后,由于需求激增且供不应求,其租赁价格从最初每小时4.7美元一度飙升至每小时8美元以上。去年以来,市场逐渐出现“供过于求”的情况,每小时租赁价格降至约2美元,几近“腰斩”。
该分析称,价格下跌是多方因素导致的:首先,长期预订H100的公司完成模型训练后,转售闲置未使用的算力;其次,许多公司不再从头训练新模型,转而微调开源模型,算力需求大幅降低;再次,专注构建大规模基础模型的新创公司数量大幅减少;最后,H100替代品出现,如AMD和英特尔的GPU。
据了解:在国内市场上,英伟达H100服务器,一年租金保守估计约165万元人民币,若按月租赁的话,每台8卡服务器的价格约为12万-18万元人民币,如今,价格已徘徊在7万元左右,降价近一半。
H100租赁价格的下降,与英伟达新产品的出现有关。在2023年全球超算大会上,英伟达正式发布H200。这是英伟达全新的人工智能领域GPU,被定位为“英伟达在AI计算领域的又一里程碑式产品”。
相较于H100,H200同样基于Hopper架构,但性能提升了约60%到90%,推理速度比H100快了一倍,推理能耗也比H100降低了约一半。后来,英伟达在全球范围内的首块H200正式交付给了OpenAI,依旧被禁止售往中国。
于2024年3月发布的Blackwell系列,也是英伟达的高端系列。据黄仁勋描述,B200芯片需求旺盛,导致份额分配就像“走钢丝”,他一不小心就会“得罪大客户们”。
此后,市场需求正加速向H200转移,有媒体报道称,目前掌握H200货源的国内供应商不超过十家,供需缺口进一步拉大,H200和B200成了“香饽饽”。
“以前是一条缝,现在是门被推开了”
美国限制反而催化了中国AI芯片的自主化进程,一些国内企业已经开始寻找替代品。有消息称,自2023年以来,大厂、越来越多的初创公司在寻求英伟达的替代品。
当下,AI芯片领域也迎来新变量。“以前是一条缝,现在是门被推开了”,谈及AI算力,一位算力专家表示。
众所周知,大模型算力非常昂贵。英伟达在过去这些年通过CUDA生态和高性能GPU的软硬协同优势,将AI产业推向“算力军备竞赛”的轨道。英伟达引以为傲的H100芯片,其用于OpenAI训练的GPT-4模型的成本仍高达6300万美元。
DeepSeek的崛起挑战了英伟达的算力霸权。DeepSeek推出DeepSeek-R1模型,以其低成本、高性能的特点,彻底颠覆了英伟达构建的算力格局。这款模型的开发成本仅为600万美元,仅为美国同行的1/23。
但当前AI芯片市场,全球超过95%的AI训练和推理任务都基于CUDA开发,其他芯片厂商往往各自为战,因此整个芯片的生态非常割裂。要打破这种困境,唯一的路径是开源。只有底层硬件——芯片多样化,才能降低成本。
因此,国内一些研究机构和算力租赁创业公司想打造一个统一开源的技术栈,来扭转产业对单一封闭生态的依赖。
此外,据外媒报道,英伟达计划为中国市场推出一款基于Blackwell架构的AI芯片。该芯片售价将大幅低于此前的H20芯片,预计最快于6月开始量产。这将是英伟达第三次为中国市场推出符合要求的芯片。
2023年7月,英特尔为其高性能AI芯片Gaudi 2推出中国“特供版”,主要面向高性能深度学习AI训练。这是一款ASIC芯片,采用台积电7纳米工艺。Gaudi是英特尔用于人工智能计算的GPU。该公司表示,这款产品与英伟达最新的H200大致相当,在某些领域甚至表现更好。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见