E X P
  • 编辑
  • 评论
  • 标题
  • 链接
  • 查错
  • 图文
  • 拼 命 加 载 中 ...

    据媒体报道,在今年的Hot Chips 2023上,三星电子公布了HBM-PIM和LPDDR-PIM的最新研究成果,三星表示,这两款存储器均为可用于人工智能行业的下一代存储器。

    三星电子和AMD在此前就已经开始了有关PIM技术的合作,三星在AMD的商用GPU加速卡MI-100上配备了HBM-PIM内存,并将其应用于生成式人工智能,根据三星的研究结果显示,与现有HBM相比,配备了HBM-PIM的GPU的性能和功效提高了一倍以上。此外,为了验证MOE(混合专家系统)模型,三星使用96个配备了HBM-PIM的MI-100 GPU来构建HBM-PIM集群。在MOE模型中,与HBM相比,HBM-PIM GPU的性能提高了一倍,能效提高了三倍。

    为了解决近年来人工智能行业开始出现的内存瓶颈,HBM-PIM等下一代内存技术受到了广泛的关注。新的HBM-PIM (processing-in-memory) 在每个内存模块内注入了一个AI处理器,从而将处理操作转移到HBM本身,从而减轻了内存与一般处理器之间转移数据的负担,从而提高了性能和能效。

    除了HBM-PIM,三星电子还展示了LPDDR-PIM,它将移动DRAM与PIM相结合,可在移动设备中直接进行数据的处理和计算。由于它是针对移动设备开发的产品,因此它的带宽(102.4GB/s)也较低。但功耗却节省了72%。

    ×
    热门文章
    欢迎参与评论,每一条合规评论都是对我们的褒奖。
    登录快速注册 后发表评论
    登录 后发表评论,若无帐号可 快速注册 ,请留意 评论奖罚说明