E X P

关于 HBM 2 的消息

AMD宣布Alveo V80计算加速卡量产:配32GB HBM2E,针对内存密集型工作负载

AMD宣布,Alveo V80计算加速卡已进入量产阶段,这是针对内存密集型工作负载的最新高性能计算(HPC)产品。作为基于FPGA的加速器,Alveo V80有望通过极具竞争力的性能和定价来争夺严重依赖内存利用率的中端工作负载市场,被HPC、数据分析、金融、网络安全和存储应用领域大规模采用。

台积电准备HBM4基础裸片:将采用N5和N12FFC+工艺制造

上个月,SK海力士宣布与台积电(TSMC)签署了谅解备忘录(MOU),双方就下一代HBM产品生产和加强整合HBM与逻辑层的先进封装技术密切合作。SK海力士计划与台积电合作开发第六代HBM产品,也就是HBM4。据了解,台积电将生产用于HBM4的基础裸片(Base Die),这是双方针对搭载于HBM封装内最底层的基础裸片优化工作的一部分。

国内HBM开发取得进展:两家存储器制造商跟进,目标2026年生产HBM2

近年来高带宽内存的需求急剧上升,随着人工智能(AI)热潮的到来,让这一趋势愈加明显。三星、SK海力士和美光是HBM市场的三大巨头,目前都在加速开发新产品,并积极地扩张产能。

SK海力士加速推进HBM4E:最早或2026年完成开发

为应对用于人工智能(AI)的半导体需求的大幅度增长,此前SK海力士已决定扩充人工智能基础设施的核心产品,即HBM3E等新一代DRAM的生产能力。与此同时,SK海力士还与台积电(TSMC)签署了谅解备忘录(MOU),双方就下一代HBM产品生产和加强整合HBM与逻辑层的先进封装技术密切合作,开发第六代HBM产品,也就是HBM4。

三星计划2024Q2开始量产HBM3E 12H DRAM,以及1βnm 32Gb DDR5产品

近日,三星公布了截至2024年3月31日的第一季度财报。显示其存储器业务通过满足高附加值产品的市场需求终于实现了盈利,带动了整个DS部门的营收和利润增长,让半导体业务自2022年以来的首次恢复盈利。

传三星与AMD签订价值30亿美元的新协议:将供应12层堆叠的HBM3E

去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,宣布推出代号为“Shinebolt”的新一代HBM3E DRAM。到了今年2月,三星宣布已开发出业界首款HBM3E 12H DRAM,拥有12层堆叠,容量为36GB,是迄今为止带宽和容量最高的HBM产品。随后三星开始向客户提供了样品,计划下半年开始大规模量产。

三星HBM4计划2025年首次亮相:将有16层堆叠,改用3D封装

近年来,人工智能(AI)、高性能计算(HPC)和PC一直在推动高性能DRAM产品的研发,市场对HBM类DRAM的需求也在迅速增长,各大厂商也加大了这方面的投入。目前HBM市场主要由三星、SK海力士和美光三家存储器制造商占有,根据统计机构的数据,SK海力士占据了50%的市场份额,三星以40%紧随其后,剩下的10%属于美光。

美光2024年及2025年大部分HBM产能已被预订,制造需要消耗更多晶圆

美光目前在高带宽存储器(HBM)市场处于相对劣势,但随着手握英伟达的供应协议,供应用于H200的HBM3E,凭借工艺上的优势,情况看起来正在迅速发生变化。美光正磨拳擦掌,大有大规模抢夺HBM市场的态势。

2024年HBM产值占比将达到DRAM产业约20.1%,相比2023年8.4%大幅增长

近年来高带宽内存(HBM)的需求急剧上升,尤其是人工智能(AI)热潮的到来,让这一趋势愈加明显,HBM产品的销量节节攀升。虽然去年存储半导体行情疲软,但是HBM3这类高附加值产品需求激增,填补了存储器厂商其他产品的损失。此前有报道称,随着英伟达和AMD等公司大量生产AI GPU,市场需求飙升了500%,而且价格创下了历史新高。

英伟达Blackwell架构B100细节泄露:将配备192GB的8层堆叠HBM3E

GTC 2024大会将于2024年3月18至21日在美国加州圣何塞会议中心举行,线上大会也将同期开放。这次英伟达会将重点放在人工智能(AI)领域,在过去的一年里,这是业界最热门的话题。英伟达下一代面向服务器产品的Blackwell架构也会登场,在数据中心市场继续压制其他竞争对手。

SK海力士已向英伟达发送12层堆叠HBM3E样品,以进行产品验证测试

HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算(HPC)的影响下,推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位,大量供应HBM3用于英伟达的各款人工智能芯片。

三星官宣业界首款36GB HBM3E 12H DRAM:12层堆叠,容量和带宽提升50%

去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,展示了一系列引领超大规模人工智能(AI)时代的创新技术和产品,并宣布推出名为“Shinebolt”的新一代HBM3E DRAM,面向下一代人工智能应用,提高总拥有成本(TCO),并加快数据中心的人工智能模型训练和推理速度。

美光宣布量产24GB的HBM3E,将用于英伟达H200

美光宣布,已开始批量生产HBM3E,将用于英伟达H200,该GPU计划在2024年第二季度开始发货。美光表示,这一里程碑让其处于业界的最前沿,以行业领先的HBM3E性能和能效为人工智能(AI)解决方案提供支持。

SK海力士副总裁透露2024年HBM产量已售罄,预计明年将大幅增长

现在人工智能相关产业相当兴旺,而想堆高AI算力是需要硬件支持的,这也导致了各种计算卡的销售火爆,这也拉动了各种显存的销量,而大部分高端计算卡用的都是HBM,比如NVIDIA H200单块就拥有141GB的HBM3e显存,现在全球的HBM产能主要都由三星与SK海力士所包办,他们确定通过升级现有设施并对当前和下一代工艺进行重大改进来重复利用这一巨大需求,看来他们已经开始享受市场对HBM的巨大需求的好处了

SK海力士宣布2026年量产HBM4,为下一代AI GPU做好准备

HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算的影响下,HBM市场带给了存储器厂商新的希望,以推动收入的巨大增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。

加载更多
热门文章
1AMD Strix Halo渲染图:GCD极其巨大,比两个CCD加起来都要大
2目前DP80 UHBR认证线材最长仅1.2米,难以满足DP 2.1 UHBR20实际使用需求
3微星推出PAG FORGE M100L机箱:12个风扇位,支持400mm显卡,售价219元
4长江存储推出PC41Q:旗下首款商用消费级QLC SSD,最大2TB,双尺寸可选
5索尼可能在开发新款PlayStation掌机,首发运行PS4游戏
6AMD宣布Alveo V80计算加速卡量产:配32GB HBM2E,针对内存密集型工作负载
7育碧公布《不羁联盟》PC配置要求:4K需要RX 6800 XT或RTX 3080
8英特尔Arc显卡31.0.101.5522 WHQL驱动:为近期新游戏和重要更新进行优化
9夏日游戏节2024公布第一批合作伙伴,超过55间厂商加入