百科问答小站 logo
百科问答小站 font logo



为什么同时代消费级的显卡比CPU贵的多? 第1页

  

user avatar   mu-tou-long 网友的相关建议: 
      

不加范围限制的话,这是一个伪命题。如果限定在主流消费级的话,命题成立,原因在于消费级应用对显卡性能要求更高,此外还有显卡整体比CPU包含更多组件。


去Dell官网定制一台T7920工作站[1],CPU从单路8280L升级到双路8280L,价格是24.8W:

显卡方面,单张Quadro GV100升级到两张,价格是16.9W:

虽然说Dell官网的定制价格含水量很高,但相同品牌相同渠道,对比一下价格高低还是OK的。


如果限定范围在主流消费级配件的话,问题还是对的。毕竟主流消费级,现在最贵的CPU,AMD家是16核的R9 3950X,京东盒装价格不到6000;Intel家是9900KS,京东盒装价格4299。而nVIDIA家最贵的显卡是2080Ti,铭瑄乞丐版也要近8000。


这里面有两个原因:

直接对比CPU价格和显卡价格不合理。一张显卡除了GPU以外,还有电路板、供电模块、显存、显示设备接口和散热器等原件,而CPU就单单是一个CPU。两者要对比成本的话,某个角度来说应该用CPU+内存+主板+散热器的总价和显卡来比较——3950X+570主板+16G内存+散热器,便宜点的也接近8000了,和铭瑄乞丐版2080Ti差不多了。要是高端主板+超频内存+水冷散热,也没几张2080Ti比这个总价贵。


高分辨率显示设备的普及,对GPU的游戏性能要求大幅提升。相当部分的3A级游戏,4K分辨率下特效全开,单张最顶级显卡的性能尚且不一定能满足60FPS的“流畅运行”标准——更别说还有双屏、三屏和144Hz的要求了。4K分辨率60FPS,就一共有 近5亿组数据需要计算——每组数据还有RGB三种颜色。因此GPU厂商有堆核的需求,用户也会买账。反倒是CPU,除了极个别行业应用,绝大部分人用不到十个以上核心的性能——起码在今天的消费级市场几乎看不到有这样的应用。


顺道说几句CPU和GPU的性能问题。计算机应用中,对计算性能要求高的,要么是对数据处理过程复杂,要么是处理的数据量大——当然,也有对大量数据进行极其复杂处理的。但一般来说,单组数据的处理过程再复杂有限,对于今天以GHz为单位来计算主频的计算芯片来说,处理少量数据要长时间运算的,除了迭代算法,一个程序能写多长能跑多久?而海量数据则是很常见很简单,一张照片就动则数百万甚至几千万上亿像素,一小时的1080P 24FPS视频就涉及接近1800亿像素,一个传感器以1kHz的采样率工作24小时就有8640万数据……


海量数据的简单处理,是非常适合GPU的架构的。单个处理单元性能不高,但是处理单元数量很多。而CPU单个核心性能高,但功耗也高,单个CPU无法容纳更多的核心,整体性能还是要比GPU低不少的。如果是海量数据的复杂处理,则GPU往往很难保证一组处理单元都满载工作,对比之下还不如CPU——例如一些仿真计算,单张顶级GPU的加速效果可能只有高端CPU的50~60%。只是目前来说,这样的应用数量少,应用范围也窄。所以,需要计算性能的应用中,适合用GPU其实比适合CPU的是要多不少的,这也是CUDA近几年得以流行的重要原因。


此外,相对x86的CPU已经发展了四十多年了,提升性能的手段几乎都用过了。而GPU虽然也有了二十多年历史,但GPU计算提出不过12年,流行起来也就近这几年的事情,硬件架构方面还有调整提升的空间。游戏方面,传统游戏性能方面也许提升不会太大了,不过NV刚刚提出来的光线追踪,这方面估计会根据游戏开发商反馈、游戏效果逐步调整,还需要若干代产品才会成熟和普及。


参考

  1. ^ https://www.dell.com/zh-cn/work/shop/%E5%B7%A5%E4%BD%9C%E7%AB%99/precision-7920%E7%B3%BB%E5%88%97%E5%B7%A5%E4%BD%9C%E7%AB%99%E5%A1%94%E5%BC%8F-%E9%AB%98%E7%BA%A7%E5%AE%9A%E5%88%B6%E6%9C%8D%E5%8A%A1/spd/precision-7920-workstation/awt7920

user avatar   pansz 网友的相关建议: 
      

命题可能不成立。所以也就无法回答它等于多少。

为什么命题可能不成立呢?因为一个数它之所以存在,是要参与运算。

一除以零之所以没意义,是因为这个结果无法参与任何代数运算。不满足常规数学运算的规则。

假如你把一除以零命名为无穷,然而这个所谓的无穷,并不能像常规的数一样参与数学运算,它参与数学运算会导致非常多的数学公式不成立,无法纳入到现有的数字体系中。

所以,要想使它有意义,除非你能定义一个数学体系,让这个数能够在这个体系内正常参与运算,

我从小学开始就思考这个问题,到了中学,大学继续思考,工作之后也仍然思考过。然而最终发现,没有办法把这个数定义成有意义的值,因为这个值它不是自然数,不是有理数,不是实数,也不是复数,不属于已知数字范围内的任何数,这个数无法以兼容现有数学运算规则的方式参与任何运算




  

相关话题

  如何评价新发布的锐龙三代? 
  如何评价 AMD 优势将被英特尔 12 代酷睿「Alder Lake」终结? 
  如何降低CPU和显卡温度? 
  金融委已点名比特币,要求各地关停比特币挖矿项目,显卡价格半年内是否有望恢复正常? 
  英伟达 RTX 3080 Ti 是智商检测卡吗? 
  华为的海思能不能替代龙芯? 
  2018年底装机 2080 vs 1080ti? 
  笔记本电脑按住电源键强行关机,对电脑有伤害吗? 
  我现在有6000的预算是买个游戏本好,还是买个台式加两千块的普通笔记本好? 
  为何AMD Matisse CPU 内存写入效能有差异? 

前一个讨论
如何看待开源指令集RISC-V ?
下一个讨论
如何看待「云南某集团首席执行官和人事总监邮件互怼,裁撤人力资源团队」一事,以及对人力岗位的相关言论?





© 2024-04-29 - tinynew.org. All Rights Reserved.
© 2024-04-29 - tinynew.org. 保留所有权利