- 超能网 >>
- 搜索
-
三星本月将向英伟达交付HBM4样品,目标2026年初通过认证
吕嘉俭 发布于2025-11-04 17:32 / 关键字: 三星, Samsung, HBM4
据TrendForce报道,在宣布与英伟达建立“AI Megafactory”合作关系后不久,三星便将注意力放到了英伟达的HBM4资格认证上。有消息人士透露,三星在完成内部可靠性测试后,计划本月向英伟达提供样品进行最终验证,用于性能测试,目标2026年初通过最终认证。如果一切顺利,大批量发货将安排在2026年下半年进行。

展开阅读
| 收藏 | 评论
-
传英伟达已向三星下单购买HBM3E,用于Blackwell Ultra GB300系统
吕嘉俭 发布于2025-10-10 09:47 / 关键字: 三星, Samsung, HBM3E, HBM4, 英伟达, NVIDIA
上个月有报道称,经过了一年半的努力,三星去年2月开发的12层堆叠HBM3E终于通过了英伟达的质量测试。三星主要解决了HBM3E的发热问题,主要得益于去年5月开始的更新设计工作,基于1αnm(第四代10nm级别)工艺打造的DRAM芯片。

展开阅读
| 收藏 | 评论
-
三星或为AMD供应HBM4,用于下一代Instinct MI450系列
吕嘉俭 发布于2025-10-08 23:52 / 关键字: AMD, Instinct, 三星, Samsung, HBM4
近日AMD与OpenAI宣布达成一项重大战略合作,将部署总计6吉瓦的AMD GPU算力,用于支持OpenAI下一代人工智能基础设施建设。首批1吉瓦AMD Instinct MI450系列计算卡的部署预计将于2026年下半年启动,标志着双方在AI算力领域的深度协同迈入新阶段。

展开阅读
| 收藏 | 评论
-
美光确认与台积电展开合作:目标2027年推出HBM4E
吕嘉俭 发布于2025-09-28 15:49 / 关键字: 美光, Micron, HBM4E, HBM4, 台积电, TSMC
近日美光公布了2025财年第四财季及2025财年的财报,取得了相当不错的成绩。根据2026财年第一财季的展望,美光提供的数字也高于市场的预期,加上美光明年大部分HBM产能被预订一空,可以说未来一段时间内的前景非常看好。随后的财报电话会议上,美光还透露了接下来HBM4和HBM4E的开发和生产上更多的信息。

展开阅读
| 收藏 | 评论
-
三星12层HBM3E历经1年半终于通过英伟达测试,寄望HBM4取得突破
吕嘉俭 发布于2025-09-22 12:15 / 关键字: 三星, Samsung, HBM3E, HBM4, 英伟达, NVIDIA
目前SK海力士是英伟达主要的HBM供应商,已经提供了8层和12层堆叠的HBM3E,而且准备供应HBM4,用于英伟达下一代基于Rubin架构GPU构建的AI加速器。相比之下,与SK海力士差不多同一时期提供HBM3E样品的三星落后很多,一直无法通过英伟达的验证,直接影响了整个存储器业务的营收。今年初三星更新了HBM3E设计,以便尽快完成英伟达的认证工作。

展开阅读
| 收藏 | 评论(1)
-
英伟达尝试提高HBM4规格:速度提升至10Gb/s,初期SK海力士仍是最大供应商
吕嘉俭 发布于2025-09-20 13:09 / 关键字: 英伟达, NVIDIA, HBM4, SK海力士, 三星, 美光
在今年6月的ADVANCING AI 2025大会上,AMD发布了下一代AI GPU的预告,表示将打造代号为“Helios”的AI机架系统,其中将搭载Instinct MI450计算卡。AMD对下一代AI产品阵容寄予厚望,称Instinct MI450实现10倍于Instinct MI355X的AI推理运算能力,另外“Helios”与竞品Vera Rubin相比,将在HBM4显存总容量、内存带宽、横向阵列带宽等规格上达到方法的1.5倍。

展开阅读
| 收藏 | 评论
-
SK海力士宣布率先完成HBM4开发,并已构建量产体系
吕嘉俭 发布于2025-09-12 15:10 / 关键字: SK海力, SK hynix, HBM4
SK海力士宣布,已成功完成面向AI的超高性能存储器新产品HBM4的开发,并在全球首次构建了量产体系。SK海力士将按客户日程及时供应业界最高性能HBM4,以巩固竞争优势。

展开阅读
| 收藏 | 评论
-
为尽快加入英伟达Rubin供应链,三星愿意牺牲下一代HBM4的利润率
吕嘉俭 发布于2025-09-05 14:32 / 关键字: 三星, Samsung, HBM3E, HBM4, 英伟达, NVIDIA
此前有报道称,三星在今年7月向英伟达提供了HBM4样品,目前已经通过了初步的质量测试。如果能通过英伟达最后的验证步骤,最早可能在11月或12月开始实现大规模生产。众所周知,过去几个季度里,三星一直试图加入到英伟达下一代Rubin产品的供应链,提供HBM4,对于三星的存储器业务来说非常关键,因为在人工智能(AI)芯片需求的推动下,英伟达是目前HBM产品的最大客户。

展开阅读
| 收藏 | 评论
-
DRAM厂商在HBM基础裸片上出现分歧:美光推迟至HBM4E才转换到台积电
吕嘉俭 发布于2025-08-30 14:01 / 关键字: HBM4, 三星, SK海力士, 美光
AMD和英伟达都将在2026年的下一代AI加速器中首次采用定制HBM,均为基于HBM4的设计,以提升性能,降低延迟。前一段时间有传言称,英伟达已开始开发自己的HBM基础裸片(Base Die),以适应未来的发展趋势,这很可能重塑HBM的格局。预计英伟达的自研HBM基础裸片采用台积电(TSMC)的3nm工艺制造,计划在2027年下半年进行小批量试产。

展开阅读
| 收藏 | 评论
-
三星HBM4初步通过英伟达测试,并在HBM3E提供大幅度折扣
吕嘉俭 发布于2025-08-21 16:13 / 关键字: 三星, Samsung, HBM3E, HBM4, 英伟达, NVIDIA
据Sedaily报道,有业内人士透露,三星在上个月向英伟达提供了HBM4样品,目前已经通过了初步的质量测试,将于本月底进入预生产阶段。如果能通过英伟达最后的验证步骤,最早可能在11月或12月开始实现大规模生产,对三星来说现在已进入关键阶段。

展开阅读
| 收藏 | 评论
-
下一代AI加速器将首次采用定制HBM:首批定制HBM4用于英伟达和AMD的产品
吕嘉俭 发布于2025-08-13 10:22 / 关键字: AMD, 英伟达, NVIDIA, HBM4
JEDEC固态存储协会在今年4月发布了HBM4规范,主要特性包括:采用了2048-bit接口,传输速度高达8Gb/s,可将总带宽提高到2TB/s;每个堆栈的独立通道数量增加了一倍,从16个通道(HBM3)增加到32个通道;支持4层、8层、12层和16层DRAM堆栈配置,芯片容量为24Gb或32Gb,单个堆栈最大容量可达64GB。HBM4的性能得到了大幅度提升,将是2026年AI GPU的首选,AMD和英伟达都确认了会在新一代产品中引入。
据TECHPOWERUP报道,AMD和英伟达都将在明年的下一代AI加速器中首次采用定制HBM,均为基于HBM4的设计,而其他加速器要等到2027年,包括博通和联发科等厂商,可能选择围绕HBM4E的解决方案。
展开阅读
| 收藏 | 评论(1)
-
三星将于本月向客户提供HBM4样品,包括AMD和英伟达等
吕嘉俭 发布于2025-07-22 15:21 / 关键字: 三星, Samsung, HBM4
过去两年里,随着人工智能(AI)的蓬勃发展,高带宽存储器(HBM,High Bandwidth Memory)市场的竞争也变得愈发激烈。特别是SK海力士,凭借HBM3和HBM3E,甚至成为了DRAM市场的领头羊。与之相反的是三星,过去的头号玩家在HBM3出师不利,一直没有得到英伟达的供应资质,极大影响了收入,还丢掉了第一的位置。

展开阅读
| 收藏 | 评论
-
英特尔打算在Jaguar Shores采用HBM4,2025Q4会有新款锐炫产品
吕嘉俭 发布于2025-07-01 17:33 / 关键字: 英特尔, Intel, Jaguar Shores, HBM4
今年初的财报电话会议上,时任英特尔临时联席首席执行官Michelle Johnston Holthauus表示,根据行业的反馈,已决定将下一代数据中心GPU“Falcon Shores”用作内部测试芯片,提供给选定的开发人员和研究合作伙伴,为后续的“Jaguar Shores”奠定良好基础,不过两者仍会一起开发的机架级解决方案,以更广泛地解决AI数据中心的问题。

展开阅读
| 收藏 | 评论
-
三星1cnm DRAM良品率大幅提升,为年末HBM4量产铺平道路
吕嘉俭 发布于2025-06-20 15:26 / 关键字: 三星, Samsung, HBM4
此前有报道称,三星选择在其平泽P4工厂建设1cnm DRAM生产线,这属于第六代10nm级别工艺,电路线宽约为11-12nm,领先于现有第五代10nm级别的1bnm(电路线宽约为12-13nm),目标是在2025年6月进入量产阶段。三星还在今年初重新调整了1cnm DRAM的设计,以提高良品率。与SK海力士和美光在HBM4上选择1bnm DRAM不同,三星将赌注压在了1cnm DRAM上。

展开阅读
| 收藏 | 评论
-
美光向主要客户交付HBM4:12层堆叠,36GB容量,支持下一代AI平台
吕嘉俭 发布于2025-06-11 14:54 / 关键字: 美光, Micron, HBM4
美光宣布,已经向多个主要客户交付容量为36GB的12层堆叠HBM4样品,这一里程碑时刻扩大了美光在人工智能(AI)应用内存性能和能效方面的领导地位,为开发下一代AI平台的客户和合作伙伴提供无缝集成。美光表示,高性能内存在支持数据中心AI训练和推理工作负载不断增长的需求方面发挥着关键作用,比起以往变得更加重要。

展开阅读
| 收藏 | 评论










