E X P

关于 HBM 的消息

美光2024年及2025年大部分HBM产能已被预订,制造需要消耗更多晶圆

美光目前在高带宽存储器(HBM)市场处于相对劣势,但随着手握英伟达的供应协议,供应用于H200的HBM3E,凭借工艺上的优势,情况看起来正在迅速发生变化。美光正磨拳擦掌,大有大规模抢夺HBM市场的态势。

SK海力士HBM3E内存现已量产,月内将供货给英伟达使用

SK海力士今日宣布已开始量产最新款内存产品HBM3E,并将于3月下旬供货给主要客户,其中包括拥有基于Hopper架构的H200和基于BlackWell架构的B200 GPU的英伟达。

2024年HBM产值占比将达到DRAM产业约20.1%,相比2023年8.4%大幅增长

近年来高带宽内存(HBM)的需求急剧上升,尤其是人工智能(AI)热潮的到来,让这一趋势愈加明显,HBM产品的销量节节攀升。虽然去年存储半导体行情疲软,但是HBM3这类高附加值产品需求激增,填补了存储器厂商其他产品的损失。此前有报道称,随着英伟达和AMD等公司大量生产AI GPU,市场需求飙升了500%,而且价格创下了历史新高。

英伟达Blackwell架构B100细节泄露:将配备192GB的8层堆叠HBM3E

GTC 2024大会将于2024年3月18至21日在美国加州圣何塞会议中心举行,线上大会也将同期开放。这次英伟达会将重点放在人工智能(AI)领域,在过去的一年里,这是业界最热门的话题。英伟达下一代面向服务器产品的Blackwell架构也会登场,在数据中心市场继续压制其他竞争对手。

武汉新芯启动HBM项目:建立生产线,瞄准AI和HPC应用

近年来高带宽内存的需求急剧上升,尤其是随着人工智能(AI)热潮的到来,让这一趋势愈加明显。三星、SK海力士和美光是HBM市场的三大巨头,目前都在开发新产品,并扩张产能,预计未来将占据主导地位。

JEDEC或放宽HBM4高度限制,在现有的键合技术中实现16层堆叠

近年来,人工智能(AI)、高性能计算(HPC)和PC一直在推动高性能DRAM产品的研发,市场对HBM类DRAM的需求也在迅速增长。从去年下半年起,就不断传出有关下一代HBM4的消息,三星、SK海力士和美光三家主要存储器制造商都加大了这方面的投入,以加快研发的进度。

三星已获得AMD验证,将向Instinct MI300系列供应HBM3

2024年高带宽存储器(HBM)市场仍然以HBM3为主流,不过英伟达即将到来的H200和B100将更新至HBM3E。由于人工智能(AI)需求高涨,导致英伟达及其他供应商的相关芯片供应一直处于紧张的状态,除了CoWoS封装是产能的瓶颈外,HBM也逐渐成为供应上的制约点。相比于普通的DRAM,HBM生产周期更长,从投片产出到完成封装需要两个季度以上。

三星HBM芯片良品率偏低,导致AI订单争夺中处于下风

在去年刮起的人工智能(AI)浪潮中,高带宽存储器(HBM)和先进封装逐渐成为了半导体巨头们新的战场。目前SK海力士在HBM市场的处于领导地位,凭借对英伟达AI GPU的HBM3订单,占据了HBM市场54%的份额。原本排在SK海力士和三星后面的美光,凭借更好的工艺,率先获得了英伟达用于新款H200的HBM3E订单,看到了赶超的希望。

美光凭借工艺优势抢夺HBM3E市场,已成功吸引英伟达新款AI GPU订单

在人工智能(AI)和高性能计算(HPC)的影响下,近两年HBM产品发展逐渐加速,也推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位,大量供应HBM3用于英伟达的各款人工智能芯片。

SK海力士加大HBM封装投入,将投资10亿美元建造先进封装设施

近年来,人工智能(AI)、高性能计算(HPC)和PC一直在推动着对先进工艺和封装技术的发展,市场需求在迅速增长。特别是去年以ChatGPT为首的人工智能工具在全球范围内掀起了一股热潮,对数据中心GPU的需求大幅度提高,使得各个晶圆代工厂和芯片制造商更加重视封装技术方面的投入,同时还选择进一步扩大封装产能。

SK海力士已向英伟达发送12层堆叠HBM3E样品,以进行产品验证测试

HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算(HPC)的影响下,推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位,大量供应HBM3用于英伟达的各款人工智能芯片。

HBM低良品率影响产量,美光在英伟达HBM3E资格测试中领先

目前英伟达为人工智能(AI)和高性能计算(HPC)应用销售的芯片比业内其他企业都要多,这些高性能计算卡需要大量HBM类芯片,如果想保持这种状态,就需要稳定的供应。为了更妥善且健全的供应链管理,同时为了保证下一代产品的供应,英伟达规划加入更多的供应商,去年末三星、SK海力士和美光都参与到英伟达下一代AI GPU的资格测试中。

三星官宣业界首款36GB HBM3E 12H DRAM:12层堆叠,容量和带宽提升50%

去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,展示了一系列引领超大规模人工智能(AI)时代的创新技术和产品,并宣布推出名为“Shinebolt”的新一代HBM3E DRAM,面向下一代人工智能应用,提高总拥有成本(TCO),并加快数据中心的人工智能模型训练和推理速度。

美光宣布量产24GB的HBM3E,将用于英伟达H200

美光宣布,已开始批量生产HBM3E,将用于英伟达H200,该GPU计划在2024年第二季度开始发货。美光表示,这一里程碑让其处于业界的最前沿,以行业领先的HBM3E性能和能效为人工智能(AI)解决方案提供支持。

SK海力士副总裁透露2024年HBM产量已售罄,预计明年将大幅增长

现在人工智能相关产业相当兴旺,而想堆高AI算力是需要硬件支持的,这也导致了各种计算卡的销售火爆,这也拉动了各种显存的销量,而大部分高端计算卡用的都是HBM,比如NVIDIA H200单块就拥有141GB的HBM3e显存,现在全球的HBM产能主要都由三星与SK海力士所包办,他们确定通过升级现有设施并对当前和下一代工艺进行重大改进来重复利用这一巨大需求,看来他们已经开始享受市场对HBM的巨大需求的好处了

加载更多
热门文章
1英特尔透露Copilot本地运行条件:至少需要40 TOPS算力的NPU
2酷冷至尊带来TD500 MAX机箱:预装风扇、360水冷和850W ATX 3.0电源
3英特尔Lunar Lake MX参考平台曝光:8核心CPU及GPU,集成LPDDR5X内存
4瀚铠推出Radeon RX 7700 XT星空:双100mm风扇+6热管,2.5槽,售价3229元
5第三代高通S5和S3音频平台发布:分别面向高端和中端市场,提升无线音频体验
6美光西安封装和测试工厂扩建工程启动:引入全新产线,制造更广泛的产品组合
7矽速科技开发中的新掌机十分小巧,基于FPGA芯片打造
8京东方凭定价赢得苹果OLED订单,或成为第四代iPhone SE独家面板供应商
9两个版本的微星Claw性能对比:酷睿Ultra 5的游戏性能几乎与酷睿Ultra 7相同