去Dell官网定制一台T7920工作站[1],CPU从单路8280L升级到双路8280L,价格是24.8W:
显卡方面,单张Quadro GV100升级到两张,价格是16.9W:
虽然说Dell官网的定制价格含水量很高,但相同品牌相同渠道,对比一下价格高低还是OK的。
如果限定范围在主流消费级配件的话,问题还是对的。毕竟主流消费级,现在最贵的CPU,AMD家是16核的R9 3950X,京东盒装价格不到6000;Intel家是9900KS,京东盒装价格4299。而nVIDIA家最贵的显卡是2080Ti,铭瑄乞丐版也要近8000。
这里面有两个原因:
直接对比CPU价格和显卡价格不合理。一张显卡除了GPU以外,还有电路板、供电模块、显存、显示设备接口和散热器等原件,而CPU就单单是一个CPU。两者要对比成本的话,某个角度来说应该用CPU+内存+主板+散热器的总价和显卡来比较——3950X+570主板+16G内存+散热器,便宜点的也接近8000了,和铭瑄乞丐版2080Ti差不多了。要是高端主板+超频内存+水冷散热,也没几张2080Ti比这个总价贵。
高分辨率显示设备的普及,对GPU的游戏性能要求大幅提升。相当部分的3A级游戏,4K分辨率下特效全开,单张最顶级显卡的性能尚且不一定能满足60FPS的“流畅运行”标准——更别说还有双屏、三屏和144Hz的要求了。4K分辨率60FPS,就一共有 近5亿组数据需要计算——每组数据还有RGB三种颜色。因此GPU厂商有堆核的需求,用户也会买账。反倒是CPU,除了极个别行业应用,绝大部分人用不到十个以上核心的性能——起码在今天的消费级市场几乎看不到有这样的应用。
顺道说几句CPU和GPU的性能问题。计算机应用中,对计算性能要求高的,要么是对数据处理过程复杂,要么是处理的数据量大——当然,也有对大量数据进行极其复杂处理的。但一般来说,单组数据的处理过程再复杂有限,对于今天以GHz为单位来计算主频的计算芯片来说,处理少量数据要长时间运算的,除了迭代算法,一个程序能写多长能跑多久?而海量数据则是很常见很简单,一张照片就动则数百万甚至几千万上亿像素,一小时的1080P 24FPS视频就涉及接近1800亿像素,一个传感器以1kHz的采样率工作24小时就有8640万数据……
海量数据的简单处理,是非常适合GPU的架构的。单个处理单元性能不高,但是处理单元数量很多。而CPU单个核心性能高,但功耗也高,单个CPU无法容纳更多的核心,整体性能还是要比GPU低不少的。如果是海量数据的复杂处理,则GPU往往很难保证一组处理单元都满载工作,对比之下还不如CPU——例如一些仿真计算,单张顶级GPU的加速效果可能只有高端CPU的50~60%。只是目前来说,这样的应用数量少,应用范围也窄。所以,需要计算性能的应用中,适合用GPU其实比适合CPU的是要多不少的,这也是CUDA近几年得以流行的重要原因。
此外,相对x86的CPU已经发展了四十多年了,提升性能的手段几乎都用过了。而GPU虽然也有了二十多年历史,但GPU计算提出不过12年,流行起来也就近这几年的事情,硬件架构方面还有调整提升的空间。游戏方面,传统游戏性能方面也许提升不会太大了,不过NV刚刚提出来的光线追踪,这方面估计会根据游戏开发商反馈、游戏效果逐步调整,还需要若干代产品才会成熟和普及。
命题可能不成立。所以也就无法回答它等于多少。
为什么命题可能不成立呢?因为一个数它之所以存在,是要参与运算。
一除以零之所以没意义,是因为这个结果无法参与任何代数运算。不满足常规数学运算的规则。
假如你把一除以零命名为无穷,然而这个所谓的无穷,并不能像常规的数一样参与数学运算,它参与数学运算会导致非常多的数学公式不成立,无法纳入到现有的数字体系中。
所以,要想使它有意义,除非你能定义一个数学体系,让这个数能够在这个体系内正常参与运算,
我从小学开始就思考这个问题,到了中学,大学继续思考,工作之后也仍然思考过。然而最终发现,没有办法把这个数定义成有意义的值,因为这个值它不是自然数,不是有理数,不是实数,也不是复数,不属于已知数字范围内的任何数,这个数无法以兼容现有数学运算规则的方式参与任何运算。