这个不一定,要看具体需求。
办公需求就不说了,如果题主是这种需求应该不会问这种问题,提出这个问题的大概率是为了游戏需求。
玩游戏需要显卡是一定的,但是玩游戏是否需要满血的顶配显卡就不一定了。
用PC玩游戏,我们看Steam平台的显卡分布就知道了,这个平台每个月都公布显卡比例。
在2019年5月,使用最多的显卡是GTX 1060,比例是16.30%。
2020年8月,使用最多的显卡还是GTX 1060,比例下降到10.75%。
2021年8月,使用最多的显卡依然是GTX 1060,比例下降到10.46%。而排名第二是GTX 2060,比例是6.87%
实际上,GTX1060这款甜点卡在2016年发布,到2017年12月就是很受欢迎的显卡,从2017年12月到2021年依然是比较流行的游戏卡。依然能玩大量主流游戏。即使是《赛博朋克2077》,画质降低,在1080P下依然流畅运行。
这是为什么呢?
因为3A游戏大作,并不是只针对PC做的,只靠PC市场,3A大作很难不亏本,这些高画质游戏都要考虑游戏主机市场。
而游戏主机市场的游戏机是几年一代,性能提升没有顶级显卡那么快,这样一来3A游戏大作首先要保证经过充分优化后,在游戏机上能有差不多的画质和流畅度。
上一个时代是PS4时代,升级机器是PS4 Pro,我们用理论的32位浮点看,PS4是1.84T,PS4pro是4.2T,而1060的32位浮点性能是3.85T。
无论什么游戏,要考虑用1.84T的PS4跑起来,那么3.85T的1060画质和速度体验基本也过得去(游戏机因为硬件固定,优化强,同样的游戏画面,需求比PC要低一些。)
所以,显卡的需求很多时候并不是追求游戏乐趣,而是追求极高画质。
你追求满血的顶配显卡,并不是为了满足游戏能跑起来流畅好玩,而是在为极致的画质买单。
如果我们放弃极高画质,追求与游戏主机同级别的画质和游戏乐趣,那么就不用花费巨大成本追求最昂贵的显卡。
明确这一点,我们的选择就多了。
目前这个时代的游戏机是PS5和XSX,大约是9T到12T的32位浮点。所以我们不用30T的满血旗舰,有18T的3060也就满足了。
这个级别的性能,可以满足未来很长一段时间流畅玩游戏的需求。
当然,因为挖矿的原因,现在3060也是非常之贵,说是甜点卡,结果比以前的旗舰卡还贵。
不过,现在做显卡的厂家很多,英特尔新加入战团。
据我所知,英特尔将推出锐炫 ( Intel Arc ) 系列独立显卡,基于 Xe HPG 架构,由台积电 N6 制程工艺代工生产,支持 DX12 Ultimate、硬件光线追踪、XeSS AI 超采样等先进技术。
其中满血版的英特尔DG2(Alchemist)个人觉得性能比PS5时代游戏机GPU的水平高一些,未来即使有PS5 pro也不会差很多,这个性能会长期够用。
这个档次的显卡,可以玩到下一代游戏主机出来,已经可以满足游戏体验。追求极致性能可以有更好的画质,但是追求游戏乐趣不一定要那么高性能。
其实,英特尔进入显卡市场非常非常早。早在90年代,它就使用了Real 3D 的技术制造出第一代独立显卡 i740。这个 i740 后来被集成到主板的 810 芯片组,变成 i752,英特尔也就在独立显卡市场销声匿迹。但是,英特尔靠集成显卡优势占据了大量市场份额。
后来,NVIDIA让 GPU 去做通用计算,进入高性能计算市场,英特尔开发出Larrabee,,形成众核架构的GPU。
最近几年随着人工智能的发展,要求英特尔必须做显卡,才能平摊芯片设计和制造成本,从而在高性能显卡、通用计算和AI计算市场上获得优势。
所以,英特尔开始第三次做显卡,这就是锐炫。
英特尔的优势在于能集成。英特尔选出甜点的位置对应的是 PS5 上的跨平台游戏,集成到高端产品,形成整体解决方案。
DG2本身的竞争力就不俗,它有XeSS超采样技术,可以用比较少的资源实现高分辨率画质。类似于NVIDIA的DLSS。
同时,DG2还有融合集成显卡与独立显卡的Deep Link技术,充分发挥集成显卡的性能。当你在英特尔平台上插上DG2,独立显卡和集成显卡可以共同工作,一起发挥效能。
由于,2021年英特尔在十二代酷睿上性能提升巨大,明年很多高性能电脑都会是英特尔平台,这个技术可以帮助英特尔的独立显卡获得更高的市场份额。
另外,英特尔在DG2上还发挥了自己的制造优势。采用EMIB的技术,用一个比一颗香米粒还小的复杂多层薄硅片,在相邻芯片间传输大量数据,解决多个小芯片互联性能下降的问题。
有这个技术,英特尔就开始把低成本的小GPU核心连接成高性能核心,用比较低的价格,实现比较高的性能。在性价比上获得优势。
利用成本优势,无论是跑游戏,还是挖矿,算 AI,科学计算跑超算。这样同等算力,英特尔会比竞争对手更便宜。英特尔DG2的前景很光明。
而 GPU 市场规模上去,计算卡也就便宜了,英特尔也会撼动通用计算的市场。
从发展的顺序看。
英特尔很可能从高性能笔记本电脑市场入手,充分发挥十二代酷睿的性能优势,把十二代酷睿和独立的DG2显卡做到一起,同时用好酷睿上的集成显卡。获得比竞争对手更高的性能,因为用EMIB的小芯片连接技术,英特尔还有更低的成本。
这样一个组合,还很容易使用统一内存架构的方案,在功耗上和内存交换上获得优势。
依靠整体解决方案的优势,英特尔可以在高性能笔记本市场的竞争中获得优势。
未来,随着份额扩大,成本摊低,最终在台式机和AI计算,科学计算市场上,英特尔的独立显卡也会慢慢占据相当的市场份额,而随着竞争的激烈,我们消费者有希望用上更好更便宜的高性能显卡。
买东西要看需求。
满血功耗高,散热系统大,笔记本就会更重更厚。
残血的就可以做的薄一些、轻一些。
看你需要啥。
开局一张图,剩下全靠猜?这个没法评价。
从软件的角度虽然我能想出两三种导致这个现象的原因,但非正式发布的产品出现任何问题都是常见现象。盲人摸象的评价没有必要。
跟11代没差别,这个肯定是违背常识的,要知道11代i9只有16线程,12代i9有24线程,24线程超越16线程并不需要多么高超的优化技巧。
调度优化的主要难题是当我们只需要少量线程运作的时候究竟把这个线程安排在哪个核心。
然而,对于全核心全线程同时计算的场景来说,反正都是全核心上场,根本不需要什么优化,谁来都是全核心工作。
如果这个软件能把所有核心用满的话,没道理性能不变。所以肯定有某个环节出了问题。正式版本再说吧。