-
日期: 2025-11-07 | 来源: 差评XPIN | 有0人参与评论 | 字体: 小 中 大
和传统的 DDR 内存采用的" 平房设计 "不同,破墙者 HBM 来了个降维打击,搞了个" 楼房设计 ",。
简单来说,就是把不同的芯片叠在一起,中间打一堆孔,然后用铜管等导电物质给接起来。
从物理意义上减小了数据传输距离、占地面积等等。
这样一来,就能减小信号延迟、 实现芯片的低功耗、增加带宽等等一堆优点。
那为了AI更好更快发展,HBM就成了所有AI厂商必选的核心装备。
而高端的东西往往只有一个问题,那就是贵。
所以据外界估计,HBM利润率超过60%,相较之下,普通DRAM业务只有40%。。。
你是内存厂商,你会怎么选?
DRAM领域被AI大厂们包圆的同时,NAND领域也没被放过。
以往数据中心依赖高容量机械硬盘(HDD)进行海量数据的冷存储,但AI时代的超大需求,导致大容量HDD也不够用了,交货周期已延长至惊人的 52 周。
这个时候呢,大家发现以前用不起的企业级大内存 SSD(固态硬盘),价格已经到了能够承受的范围。
SDD还凭借着数据访问速度比 HDD 快几十倍,同时在功耗、散热和噪音控制方面也更优秀,再次成为了AI训练和推理等高负载、高强度计算任务的小甜甜。
在这种双重压力之下,不少厂商们宁可出大价钱,也要上车企业级SSD。
所以,根据 TrendForce 的报告来看,像三星已推出专为数据中心设计的 PCIe 5.0 SSD 系列,并准备量产下一代 300 层 NAND 技术,甚至HDD领域的巨头希捷、西部数据们不得不缩减产线或者把重心转移到 SSD。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见