在昨晚开幕的英伟达GTC(GPU Technology Conference)2016大会上,英伟达不仅按照预料地发布了16nm FinFET制程超级核弹帕斯卡(Pascal)显卡,最让人惊叹的还是一款定位于深度学习的超级计算机DGX-1。DGX-1拥有8颗帕斯卡架构GP100核心的Tesla P100 GPU,以及7TB的SSD,由两颗16核心的Xeon E5-2698v3以及512GB的DDR4内存驱动。售价为129000美元(835378.2元人民币),今年Q4面市。
关于Pascal的架构大家都知道了,虽然本次没有推出面向消费市场的GeForce显卡,而是专业计算卡Tesla P100,但是内部架构都是一脉相承。Tesla P100采用顶级大核心GP100,遗憾的是并非完整的架构。即只有3584个流处理器,而非完整的3840 CUDA。新架构16nm FinFET制程,核心面积达到了610平方毫米,由恐怖的150亿晶体管组成,第二代高带宽显存(HBM2)组成了16GB的显存,带宽达到了768GB/s。8张GPU一共组成了128GB的显存。浮点运算(FP16)达到了170TFlops(官方宣称相当于250个x86服务器),单精度为10.6TFlops双精度,双精度5.3TFlops。功耗3200W。
官方宣称DGX-1相当于250个x86服务器
以往25个小时才能消化的运算任务现在只需要2小时
DGX-1并不大,也许AlphaGO的下一代将大大缩小
近几年英伟达还是很有野心的,一直在试图扩张视觉计算市场,冲击其他领域。深度学习和汽车自动驾驶已经成为老黄的工作重心,也在不断的推出周边的设备和处理器。今天猛然一看发现嘉宾还有IBM Watson项目的CTO Rob High和丰田研究中心的CEO Gill Pratt。
游客 2016-04-11 00:19
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
11#
游客 2016-04-08 03:55
该评论年代久远,荒废失修,暂不可见。
已有5次举报支持(2) | 反对(0) | 举报 | 回复
10#
超能网友博士 2016-04-07 15:29 | 加入黑名单
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
9#
游客 2016-04-07 04:11
该评论年代久远,荒废失修,暂不可见。
支持(1) | 反对(0) | 举报 | 回复
8#
游客 2016-04-07 01:16
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
7#
游客 2016-04-06 13:20
该评论年代久远,荒废失修,暂不可见。
支持(3) | 反对(0) | 举报 | 回复
6#
超能网友教授 2016-04-06 11:27 | 加入黑名单
支持(1) | 反对(0) | 举报 | 回复
5#
游客 2016-04-06 11:13
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
4#
游客 2016-04-06 11:04
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
3#
游客 2016-04-06 10:58
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
2#
游客 2016-04-06 10:57
该评论年代久远,荒废失修,暂不可见。
支持(0) | 反对(0) | 举报 | 回复
1#