近年来,人工智能(AI)、高性能计算(HPC)和PC一直在推动高性能DRAM产品的研发,市场对HBM类DRAM的需求也在迅速增长。SK海力士上个月宣布成功开发出面向AI的超高性能DRAM新产品HBM3E,并开始向客户提供样品进行性能验证。随后美光推出了业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3 Gen2,相比目前出货的HBM3解决方案提高了50%。
HBM(High Bandwidth Memory)属于垂直连接多个DRAM的高带宽存储器,与DRAM相比显著提升数据处理速度的高附加值、高性能产品,在正式进入市场不到10年的时间里就取得了长足的进步。据DigiTimes报道,下一代HBM4设计会有重大的变化,内存堆栈将采用2048位接口。
自2015年以来,每个HBM堆栈采用的都是1024位接口,将位宽翻倍是HBM内存技术推出后最大的变化。暂时还不清楚HBM4的引脚速度是否还能保持在9GB/s的水平,如果能做到相同的速度,意味着带宽将从现在HBM3E的1.15TB/s提升至2.3TB/s,提升会相当明显。
目前像英伟达H100计算卡,使用了六颗HBM3/HBM3E芯片,每个对应的接口为1024位,也就是共6144位。如果单个HBM芯片的接口位宽增加,不知道厂商是否会在产品上继续使用相同数量的HBM芯片,或者选择适当地降低数量削减成本。
不少人担心位宽翻倍后导致产能下降,毕竟存储器需要数千个通硅孔(TSV)去做堆叠。不过相关报告称,三星和SK海力士现在都很有信心,认为HBM4能保持原有的产量。
香蛙初中生 2023-09-19 10:11 | 加入黑名单
支持(0) | 反对(0) | 举报 | 回复
2#
MicroHERO博士 2023-09-14 19:09 | 加入黑名单
搞ai最终还得是大显存,这几天新的投机算法,M2U靠192G大显存已经登顶了。这个单颗24G如果也是6颗的话,144G+大带宽应该性能超强。
已有1次举报支持(4) | 反对(1) | 举报 | 回复
1#
提示:本页有 2 个评论因未通过审核而被隐藏