E X P
  • 编辑
  • 评论
  • 标题
  • 链接
  • 查错
  • 图文
  • 拼 命 加 载 中 ...

    英特尔在2020年末,首次发布了oneAPI工具包。这是一个跨架构的编程工具,旨在简化跨GPU、CPU、FPGA和AI加速器之间的编程,可以与英特尔自身设备,或其他厂商的芯片配合使用,以优化工作负载。作为一个跨平台的编程接口,客户可以针对哪种特定的架构来最优化、最高效地加速处理程序,并支持AVX-512和DL Boost这些英特尔的特定指令。

    据相关媒体报道,高通、英特尔和谷歌三大科技巨头正在联手,建立UXL基金会,以争夺人工智能(AI)和高性能计算(HPC)市场的份额,为那些使用CUDA生态系统的用户提供另外一种选择,最终目标就是要推翻英伟达的统治。

    目前英伟达占据了人工智能芯片市场高达90%的市场份额,这主要归功于其高性能的GPU与整个CUDA生态系统软硬件方面的协同优化,经过15年的发展,全球有超过400万开发者都依赖于英伟达打造的体系。随着人工智能和高性能计算市场的快速发展,不少科技公司都渴望打破英伟达的垄断性的优势。

    UXL基金会全称Unified Acceleration Foundation,创始成员包括Arm、富士通、谷歌、Imagination Technologies、英特尔、高通和三星。其旨在以英特尔的oneAPI开始,构建一个开源项目,构建一套能够为多种类型的人工智能芯片提供加速动力及帮助开发人工智能模型的软件和系统化工具。此外,UXL基金会还计划邀请亚马逊、微软、以及一些芯片公司加入。

    去年末在美国纽约举行的“让AI无处不在”活动上,英特尔CEO帕特-基尔辛格(Pat Gelsinger)在接受媒体提问时就表示,英伟达依赖CUDA在人工智能训练建立的优势不会永远持续下去。

    ×
    热门文章
    已有 6 条评论,共 106 人参与。
    登录快速注册 后发表评论
    • 旅途一代宗师 03-30 09:29    |  加入黑名单

      游客

      Jim Keller:“基本上没有人编写 CUDA,”
      Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。
      甚至NVIDIA本身也有不完全依赖 CUDA 的工具。
      例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。
      03-30 02:59
    • 支持(6)  |   反对(0)  |   举报  |   回复
    • 英伟达占据了人工智能芯片市场高达90%的市场份额,这主要归功于其高性能的GPU与整个CUDA生态系统软硬件方面的协同优化,经过15年的发展,全球有超过400万开发者都依赖于英伟达打造的体系
      ……没人编写cuda?那就奇怪了,莫非英伟达用的是王启尚的stream?还是你三哥留下的rocm,说到rocm,amd还搞了个转译cuda的工具给自己用,笑了。没人编写cuda,还搞联盟(多人打一人)对抗cuda干吗

      已有9次举报

      支持(5)  |   反对(4)  |   举报  |   回复

      6#

    • 旅途一代宗师 03-30 09:17    |  加入黑名单

      游客

      Jim Keller:“基本上没有人编写 CUDA,”
      Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。
      甚至NVIDIA本身也有不完全依赖 CUDA 的工具。
      例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。
      03-30 02:59
    • 支持(6)  |   反对(0)  |   举报  |   回复
    • 曾从事 x86、Arm、MISC 和 RISC-V 处理器研究的传奇处理器架构师Jim Keller本周末批评了Nvidia 的 CUDA架构和软件堆栈,并将其比作 x86,他称之为沼泽。
      ……复制原文也要复制完整啊,x86他也说不好

      已有10次举报

      支持(5)  |   反对(4)  |   举报  |   回复

      5#

    • 旅途一代宗师 03-30 09:06    |  加入黑名单

      游客

      Jim Keller:“基本上没有人编写 CUDA,”
      Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。
      甚至NVIDIA本身也有不完全依赖 CUDA 的工具。
      例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。
      03-30 02:59
    • 支持(6)  |   反对(0)  |   举报  |   回复
    • 然后呢?被你们吹成神的王启尚Stream有谁用呢?

      已有10次举报

      支持(2)  |   反对(4)  |   举报  |   回复

      4#

    • 旅途一代宗师 03-30 09:03    |  加入黑名单

      游客

      Jim Keller:“基本上没有人编写 CUDA,”
      Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。
      甚至NVIDIA本身也有不完全依赖 CUDA 的工具。
      例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。
      03-30 02:59
    • 支持(6)  |   反对(0)  |   举报  |   回复
    • 王启尚宣称DX11时代CUDA将风光不再,推出Stream正面对抗CUDA,当然结局你们也知道

      已有10次举报

      支持(4)  |   反对(4)  |   举报  |   回复

      3#

    • 我匿名了  03-30 02:59

      旅途 一代宗师

      想起了opencl
      03-29 19:28 已有14次举报
    • 支持(5)  |   反对(4)  |   举报  |   回复
    • Jim Keller:“基本上没有人编写 CUDA,”
      Jim Keller在后续帖子中写道。“如果你确实编写 CUDA,它可能不会很快。
      甚至NVIDIA本身也有不完全依赖 CUDA 的工具。
      例如,Triton Inference Server 是 NVIDIA 的一款开源工具,可简化 AI 模型的大规模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。

      支持(6)  |   反对(0)  |   举报  |   回复

      2#

    • 旅途一代宗师 03-29 19:28    |  加入黑名单

      想起了opencl

      已有14次举报

      支持(5)  |   反对(4)  |   举报  |   回复

      1#

    提示:本页有 6 个评论因未通过审核而被隐藏

    登录 后发表评论,若无帐号可 快速注册 ,请留意 评论奖罚说明