百科问答小站 logo
百科问答小站 font logo



如何评价 NVIDIA 发布的 DGX-1? 第1页

  

user avatar   mli65 网友的相关建议: 
      

分享下实际使用体验,主要针对深度学习。

DGX-1主要卖点是两个,p100和nvlink。

P100性能类似Pascal Titan X。跟Tesla前面系列比基本是 1 P100 ~= 2 M40 ~= 4 K40。在常见CNNs上具体性能可以参见

Performance - mxnet 0.7.0 documentation

NVLink号称提供三倍PCIe 16x的带宽,实测下来确实带宽有显著提升。不过比较纠结的是,DGX-1的GPU连接比较复杂,具体可以参考nvida blog的这张图



首先一块卡只能直接跟另三块卡通讯。要想跟更远的卡通讯,需要要么通过另外一块GPU,要么通过PCIe走CPU。目前CUDA 8似乎是默认走CPU。PCIe一个switch连2块GPU和一块CPU,外加一个IB接口。所以左上角GPU要跟右下角GPU通讯,那么就是

GPU <-> PCIe <-> QPI <-> PCIe <-> GPU

不管是latency还是bandwidth自然都是很差。综合下来,8卡的all-to-all通讯,我们发现DGX-1跟纯PCIe的EC2 P2.8xlarge差不多。

在DGX1比较好的做法应该是通过中间GPU来转,这样可以全走nvlink,但这样编程会稍微复杂点。

总结下是P100单卡性能符合预期,NVLINK用得好会不错,但需要额外针对性的优化。但考虑到其价格,仅推荐土豪用户购买。

个人推荐:小厂和个人用户推荐Pascal Titan X,大厂推荐PCIe based P100。

另外,Pascal下一代Volta据说也不远了,至少又是2倍的性能提升。真是一个幸运和不幸的时代。




  

相关话题

  在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法? 
  DL框架的未来发展,TensorFlow/MXNet/PyTorch, 选哪个? 
  计算机视觉研一,只学过Python基础,目前代码能力很差,要不要换导师,不换的话如何毕业? 
  什么是蒙特卡罗 Dropout(Monte-Carlo Dropout)? 
  百度在深度学习上使用Xilinx FPGA? 
  为什么 GPU 的通用计算能力高于 CPU?架构原因?内核数量? 
  为什么ITX架构的短显卡大部分都是Nvidia的,而AMD的高端ITX显卡则一卡难求? 
  如何评价PC圈所谓「懂PC的都不买AMD」?真正懂PC的人都买了什么? 
  给男友配置一个适合做深度学习的电脑要多少钱? 
  如果人工智能迎来下一个寒冬,你认为会是卡在什么问题上? 

前一个讨论
做底层 AI 框架和做上层 AI 应用,哪个对自己的学术水平(或综合能力)促进更大?
下一个讨论
如何看待Jeff Dean&Hinton投到ICLR17的MoE的工作?





© 2024-06-26 - tinynew.org. All Rights Reserved.
© 2024-06-26 - tinynew.org. 保留所有权利