美光在今年7月,推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3 Gen2,相比目前出货的HBM3解决方案提高了50%。
据相关媒体报道,美光在近日的财报电话会议上透露,已经向客户提供了HBM3 Gen2的样品。其性能更强且功耗更低,实际效能超出了预期,以至于美光的一些客户在实际测试之前都不相信这些数据,与竞争对手的样品相比,更是让他们大吃一惊。
美光总裁兼首席执行官Sanjay Mehrotra表示,人工智能(AI)业务将带来数以亿计美元的收入,希望这股热潮能带美光走出财务困境。同时美光一直与英伟达紧密合作,预计HBM3 Gen2将会在2024年英伟达面向AI和HPC推出的新一代GPU上首次亮相。
据美光的介绍,HBM3 Gen2产品的每瓦性能是前几代产品的2.5倍,为人工智能(AI)数据中心的性能、容量和功率效率等关键指标创造了新的记录,可以减少GPT-4等大型语言模型的训练时间,并提供了卓越的总拥有成本(TCO)。美光HBM3 Gen2解决方案的基础是其1β(1-beta)工艺,在行业标准封装尺寸内将24GB DRAM芯片组成了8层垂直堆叠的立方体。
此外,美光还在准备12层垂直堆叠的单品36GB DRAM芯片,与现有的竞争解决方案相比,在给定的堆栈高度下,美光提供的容量增加了50%。
旅途一代宗师 10-05 16:14 | 加入黑名单
支持(0) | 反对(1) | 举报 | 回复
3#
XX031博士 10-05 07:02 | 加入黑名单
支持(2) | 反对(0) | 举报 | 回复
2#
zhaoyun980终极杀人王 10-03 13:35 | 加入黑名单
我就想知道家用游戏显卡上能不能用上,GDDR6的发热量已经让人受不了
支持(4) | 反对(0) | 举报 | 回复
1#
提示:本页有 3 个评论因未通过审核而被隐藏