英伟达宣布,针对大型语言模型训练(LLM)设计,推出全新的H100 NVL计算加速卡。其搭载了两个基于Hopper架构的H100芯片,顶部配备了三个NVLink连接器,在服务器里使用了两个相邻的PCIe全长插槽。
英伟达去年就推出了H100,拥有800亿个晶体管,相比上一代的A100,有着六倍的性能提升以及两倍的MMA改进。其采用了CoWoS 2.5D晶圆级封装,单芯片设计,以台积电(TSMC)为英伟达量身定制的4N工艺制造。这次双GPU版本除了更高的计算性能,更大的显存容量也是其优势之一,提供了188GB的HBM3显存。
H100 NVL计算加速卡的FP64计算性能为134 teraFLOPS,TF32计算性能为1979 teraFLOPS,FP8计算性能为7916 teraFLOPS,INT8计算性能为7916 teraFLOPS,是H100 SXM的两倍。其具有完整的6144位显存接口(每个HBM3堆栈为1024位),显存速率可达5.1Gbps,意味着最大吞吐量为7.8TB/s,是H100 SM3的两倍多。由于大型语言模型训练需要更大的缓冲区和更高的带宽,所以更大的显存肯定会对运算有所影响。
据了解,H100 NVL计算加速卡的功耗略高于H100 PCIe(350W)的两倍或以上,在700W至800W之间。英伟达计划在今年下半年推出H100 NVL计算加速卡,不过暂时没有进一步提供任何的细节。
吕嘉俭编辑 03-22 21:28 | 加入黑名单
支持(2) | 反对(0) | 举报 | 回复
3#
超能康猩猩一代宗师 03-22 21:09 | 加入黑名单
7.8GB/s……
已有1次举报这速度堪比某些固态硬盘了,是7.8TB/s吧
支持(2) | 反对(0) | 举报 | 回复
2#
12345jv v ji教授 03-22 17:03 | 加入黑名单
这是为了绕过制裁推出的系列吧
已有1次举报支持(4) | 反对(2) | 举报 | 回复
1#
提示:本页有 3 个评论因未通过审核而被隐藏