百科问答小站 logo
百科问答小站 font logo



如何评价现在全网黑PS5的现象? 第1页

  

user avatar   cocosuma 网友的相关建议: 
      

原因有五个方面:

  • 一是过去的宣传口径以及粉丝论调,导致没办法回头,必然会被另外两家的粉丝在舆论上暴打
  • 二是因为确实不大行

前面有答主说了“完美复刻PS3时代的各种操作”,但是没有具体说为什么。这里我可以说一下:

1. 神秘高速 SSD

PS3 时代,早期蓝光光驱技术不成熟,生产成本巨大的时候,索尼为了推进集团战略(让蓝光成功抢下下一代世界主流光盘标准),以巨额亏损和高昂售价为代价,强行在 PS3 上搭载了蓝光光驱。


12 通道的 NAND,整体上每 Gigabyte 成本会高出一大截。这不是我口胡,而是市场就是这样:

比如说:

看到什么奇怪的地方没?为什么 64Gb 的 MLC NAND 只比 32Gb 的 MLC NAND 贵0.25美元?

注意,这里我需要说清楚一下单位换算。

因为 NAND 并不是完全按照容量定价的。有一定的底价基数在,更大容量的、需求并不十分迫切的 NAND 产品其实不会 2 倍容量 2 倍价格。

但是为什么 TLC 1Tb (128 GB)的 NAND 又要比 512 Gb (64GB)的 NAND 贵出一倍?

原因自然是需求量。庞大的需求量使得供货方可以按照一分钱一分货来定价。

因为XSX的主控信息已经泄露(群联 E19T),只有 4 通道,那肯定是使用多CE叠出来。只要让每通道达到256GigaByte(2Tb)即可。由于 E19T 最高支持每通道16CE,所以理论上来说可以使用4x2x1Tb,4x4x512Gb或者4x8x256Gb等多种方案。每 1Tb 空间分别对应的 NAND 成本为 ~ 106USD,~98.5USD,~109.76USD 。我上面提供的价格都是spot price(现款现货价格),大量采购可能还会有一定的优惠,但是老实说不会比当时的 NAND 市场价格差太多。

E19T本身是颗很便宜的中低端主控,又不需要 DRAM 缓存,支持 HMB ( Host Memory Buffer,宿主机内存缓冲,相当于是用宿主机的内存来替代自身的DRAM缓存,效率比自带DRAM低一些但是不多),性能中规中矩。

1Tb的NAND价格高原因比较多,主要是用在高端产品或是手机笔记本这些高溢价高需求产品上。512Gb 相对采购压力比较小,更容易走性价比产品。 而 256Gb 就比较吃瘪。所以我猜测 XSX 应该一块 SSD 成本最高会在 110-120 USD 附近(实际应该会比这个数值低),非常亲民。

索尼的SSD专利:

那么,索尼所说的“825GB”应该是指“825GigaByte”,换算一下就是我们在二进制世界里的 768GB, 每通道就是768GB/12=64GB,即512Gb。

如果不是TLC而是QLC的话……尽管实际上可能没啥影响,但是传出去玩家肯定会有很大的抗拒心理。应该还是TLC方案为主。

那么综上,两者的 SSD 成本也就呼之欲出了。可见索尼的 SSD 在容量显著更小的情况下,成本也就能低10 美元。实际上能不能这么低非常难说。

不过 PS5 的 SSD 设计有一个比较值得称道的地方是,它的主控缓存用的是 SRAM 而不是 DRAM ,但是它又不是 HMB 设计,所以单次访存延迟会大大降低。尽管 HMB 设计里的主控也有 SRAM,但是容量和用法都不一样。总体来说 HMB 会比索尼这样的设计性能低很多。

这种设计也只能在游戏机上见到,因为游戏机上的写入需求会比 PC 之类的少得多,它可以把每个数据块的【容量】大大提高,这样就显著降低了数据块的【数量】。举个例子,假如一个数据块1MB,那么1GB的数据就需要1024个数据块。如果一个数据块1GB,那么就只需要1个数据块就可以了。 主控缓存储存的不是数据本身,而是数据块的名字和地址(数据块的电话本)。用 SRAM 可以以很快的速度定位到一个数据块;而使用巨型数据块可以显著降低数据块的数量,使这些数据块的“电话”可以被装进SRAM“电话本”里。

这在PC上行不通,因为频繁的写入需求是需要更小的数据块,更大的电话本的。所以只能用容量更大速度更慢的 DRAM 来缓存,没法使用 SRAM 。

但是 PS5 这个设计也有一些潜在的问题(目前还没法确定),比如,因为大数据块设计,很可能会影响重复写入速度(SSD都是通过TRIM和GC来提前腾出可用块,块大的话GC效率会更低,也会降低寿命)。

比如说为了获得最大的写入速度,在12个channel上各自写入2GB内存镜像,理想情况下是全部在空白空间写入。

主控如果采用见缝插针的写入设计(有空白空间就用),就可能会产生这种情况:

借别人的图以用,把红色部分当作是写入的内存镜像。

当玩家读取该镜像之后,红色部分就没有意义了,但是要删掉它的代价就是把整个四个大块全部垃圾回收掉。此时,每个块越大,带来的浪费和写放大就越大。而像普通PC或者Xbox那样的小块设计,此时的浪费非常微小。

主控如果给内存镜像使用专门的地址空间来保存:

  1. 的确可以很大程度避免上述问题,缺点是需要对主控算法进行专门设计
  2. 另外 768 GB 的空间本来就不太够用…… 能存几个 16GB 呢……

我一开始也没注意,但是在我分析索尼 SSD 专利时突然意识到这个可能的问题,于是我就又回去看了一下,果然 Cerny 在发布会上一句 SSD write 都没提到…… 并且在 SSD 带来的好处中也没有像隔壁 Quick Resume 这样跟写入速度有关的功能。

难怪微软之前突然大力宣传 Quick Resume ……两家之间的情报战还真是……如火如荼啊。我之前还以为微软在 SSD 这块肯定性能要比索尼吃瘪,但是居然还有一个 SSD 上的(索尼送的)功能优势,真是出乎意料……

所以 PS5 的高读取速度 SSD 代价就是:

  • 牺牲 Quick Resume 这样的依赖写入速度的功能
  • 总体每 GB 成本更高,闪存的写入寿命更低(但是理论来说对如果没有Quick Resume的话,那对游戏机影响很小很小很小应该可以忽略,毕竟没人天天来回装游戏……)
  • 总体发热会高一点,不影响整体散热, 但是需要对 SSD 散热设计进行额外考虑( SSD 的发热特点是主控在负载大时会快速发热,其芯片面积又很小,所以热量很集中)

带来的优势则是:

  • 更快的加载速度。除了普通的进入游戏更快一倍以外,理论上来说,如果没法实现 Quick Resume,还可以让开发者通过快速存档和快速读盘功能来实现,只是需要开发者支持,另外也可能会有更多bug。
  • 更低的换页延迟,这对GPU内存换页来说可能会比较有用。但是现今的普通nvme SSD换页延迟都可以做到 0.x ms的级别,对于16.66ms/帧的帧时间预算来说估计作用有限。

但是这都不是最糟糕的,最糟糕的是 825 GB 的容量意味着玩家之后肯定要而外买 SSD 来扩容。而索尼要求的认证 SSD 必须要比 5.5 GB/s 快。达到这个速度的 SSD 一般来说价格都是 2.4GB/s SSD 的 1.5 - 2 倍之间……


2. “动态频率”难以优化。某种程度上可以和 CELL 的坑爹优化相提并论。

由于不超频,隔壁 Xbox 这边用 255W 的最大功率就带起了整个 SOC 主板(CPU+GPU+GDDR6+SSD):

由于 Xbox 是固定频率(即使满载也不降频),这意味着它的散热和供电设计必须满足固定频率下的满载供电/散热需求。而一共只需要 255 W 就能带起整个 3.8GHz + 12TF + 10 channel 16GB GDDR6 的 SOC 主板 ,确实非常厉害。要知道RX580(和天蝎的GPU非常接近)的游戏功耗也要200+W,只是 Jaguar 非常省电。所以实际上尽管 GPU 性能暴增一倍还要多得多,但是其实并没有提高多少 GPU 功耗。 只有 CPU 功耗是真的提高了(45W)。这也就意味着,GPU只有不到210W 的功耗预算。这非常符合 AMD 对于 RDNA 2 的 perf per watt 的宣传:

(相同功耗下可以提供相当于 GCN 两倍多的性能)

对开发者来说永远都是这个频率,这个性能,不用担心什么时候会突然意外降低一下。所以他们在开发的时候只要提前预留出一些性能预算(打个比方,例如确保在60FPS状态下,CPU GPU占用率“通常”不超过85%),那么多出来的这部分预算就可以用来应付突发情况(比如突然发生爆炸,或者突然遭到攻击,等等)。这对于单机线性游戏来说意义不大,但是对于多人网络游戏可就不一样了。因为多人游戏突出一个过程难以预测,加上大型开放世界的话就更是常常造成性能灾难。要想避免灾难,就要对性能有一定的准确预估,从而确保游玩过程的流畅。

但是在 PS5 这边就很蛋疼。动态频率,特别是【开发者不可直接操控】的动态频率,在主机史上是头一次。让我们来看看 Mark Cerny 的原话:

"It's a completely different paradigm," says Cerny. "Rather than running at constant frequency and letting the power vary based on the workload, we run at essentially constant power and let the frequency vary based on the workload."

“这是一种完全不同的情形。与其跑在一个固定的频率然后让功耗跟随负载变化,我们让功耗固定,并让频率随着负载变化。“

什么叫定频变功率?定频遍功率就是Xbox那种情况,游戏中低负载的时候也是3.8GHz,但是CPU功耗可能只有10W;高负载的时候也是3.8GHz,但是CPU功耗可以有45W。GPU也是一样,都是12TF,不管高低负载,对Xbox来说反正散热和供电都跟得上,不管怎样也不可能超过255W(就算是满频满载),那就这么设计咯,完全不用变频。

但是定功率变频就不一样了。定功率变频的唯一原因,是因为供电和散热跟不上,而不是因为技术先进。也就是说假如还是 Xbox,但是把供电和散热预算从255W砍到了200W,或者是把 CPU提到4.5GHz GPU提到14TF,但是供电和散热还是255W,这种情况。这个时候,PS5就要用它的自动功率分配,来动态调整CPU和GPU的功耗。

换句话说,定功率变频就是一个保姆要同时照顾两个房间里的两个孩子,尽管谁也吃不饱奶,但是哭得响的那一个就可以先喂两口……

那对开发者来讲就很坑爹了,鬼知道你在实际跑起来的时候是什么样子?鬼知道什么时候哪个孩子哭得响?鬼知道会不会出现两个孩子轮流哭,保姆来回跑结果俩孩子都饿?……

对索尼自己家的那些线性叙事的单人游戏(顽皮狗,战神)可能还好,因为流程很固定;那些开放世界单人游戏(例如地平线:零点黎明)忍忍也还能凑合着调,但是你这样的设计让现在越来越火的大型多人游戏和开放世界游戏就很吃瘪。别的不说,就像《刺客信条:奥德赛》那样,CPU GPU 都要喂的游戏,这种情况下就根本没辙。

对,这个技术在笔记本上确实起到了一定程度提高性能的作用。但是那是笔记本啊……那是真的可以理解喂不饱啊……但是你一个家用游戏主机,本来应该确保性能一致的,结果因为超频或者缩水结果变成这样子,那谁能开心?动态分配功率已经是个很多年的老技术了,之所以在游戏机上一直没人用就是因为它不是一个好东西啊……

这篇文章读完之后,我相信不会有任何游戏开发者感到开心。它里面提到的一些优化方法简直……无法形容。把“面向性能”的优化变成了“面向功率”的优化。的确开发者可以这么做,但是要额外付出的心血可就太多了……等实际游戏出来就知道了……

"Regarding locked profiles, we support those on our dev kits, it can be helpful not to have variable clocks when optimising. Released PS5 games always get boosted frequencies so that they can take advantage of the additional power," explains Cerny.

”关于锁定频率模式,我们在我们的开发机上支持它。在游戏的优化阶段,关掉动态频率将会有所帮助。正式发售的 PS5 游戏则会始终处于超频状态,这样它们就可以享受额外性能带来的优势。“

有的时候你不得不佩服 Cerny 可以把缺点说成优点。因为这段话用行内的理解其实是这个意思:”“尽管我们知道动态频率不好优化,但是为了纸面数据好看所以我们就是要在所有的正式零售机上一直开着,并且不给开发者自己调整功率。你只能根据开发机上的定频和变频测试结果来猜可能的表现咯,祝你好运哦!”


3. 缺少下一代高级图形功能(形如PS3的GPU)

Tier 2 VRS (第二级可变着色率):

众所周知,Shading 即着色是目前 GPU 渲染图象过程中最消耗时间也最复杂的。这也是为什么现在的显卡和主机主要都是吹有多少 teraflops、有多少个CU或者SM,而不是吹能渲染多少个三角形或者输出多少个像素了。打个不恰当的比方,对像素进行着色类似于做数学题。假如一张卷子有1920x1080道数学题(数学地狱),显卡就要对每道题都计算。其中有些题目步骤复杂,有些题目步骤相对简单。

然后显卡在做题的时候,有时候会遇到一些题它们的答案虽然算出来有微小的不同但是都在小数点后好几位。题目只要求保留一位小数就行了,所以对这些题来说显卡只用计算一次,就可以给好几道题填上答案。巧就巧在这张试卷上有很多题目都可以使用这样的方法快速填上答案,而不用一道题一道题计算。

但是显卡是机器不是人,不能自己发现这些题目的相似性。所以我们需要 VRS 技术来告知显卡,这些题你合在一起算一次就可以了。

VRS 在 DirectX 里分为两个等级。其中第二级要比第一级能榨取更多的性能。在有些游戏场景里可以获得巨量的性能提升:

随便测测,50%提升到手(

当然这个测试的VRS应用比较激进,目前大部分游戏还没有正式使用二级 VRS 。而已经启用类似 VRS 技术的游戏又只有 Adaptive Shading 支持。 AS 是 Nvidia 提交给 Vulkan 和 OpenGL 的厂商专用拓展(只能 N 卡用),Vulkan 目前自己是没有公共 VRS 标准的。

目前只有 3DMark 的 VRS 测试正式支持了 Tier 2 VRS 。 相信在下一代主机正式上市后, PC 玩家也能享受到 VRS 带来的福利。


DirectML 机器学习:

Xbox 用 DirectML 机器学习,实现了自动给任何不支持 HDR 的游戏增加效果极其出色的 HDR 支持:

(这是亮度热图,颜色从黑蓝绿黄橙红,指示像素的亮度)

Unity 去年演示了用 DirectML 实现大量 NPC 的行为模拟,可以很大程度提高 NPC 的智能程度病降低对 CPU 的负担。(换句话说,《刺客信条:大革命》那样的 NPC 密度将不再会对性能造成困扰)

另外微软还在琢磨自己的机器学习超分辨率/超采样算法,去年的 DEMO

真正的 Mesh Shader

Cerny 在 PS5 的宣传中提到了他们使用了一个叫 “Geometry Engine”的东西。然而这个东西其实不是什么新鲜货,而是把 Primitive Shader 给包装了个名字。Primitive Shader 本质上是好几年前就有的东西了,只是在A卡上来了又去去了又来也算挺折腾的……

但是真正的 Mesh Shader 其实是 Input Assembler, Primitive Shader & Hull Shader 三组东西的合体:

从上面的图中我相信你也看出问题了…… Primitive Shader 实际上只是取代了 Vertex Shader、Domain Shader、 Geometry Shader(不过依然可以和这些shader类型进行交互)。但是 Mesh Shader 实际上把整个几何过程都包括进去了。

关于这点还可以看 AMD 关于 Primitive Shader 的专利:

可以看到 IA,Hull Shader(surface shader),Tessellation 都是在 Pirmitive Shader 的掌控之外。也就是说 AMD 的 Primitive Shader 也就能额外做做简单的 Culling,没办法使用更高级的功能。并且由于 Tessellation 在前,性能也不可能有 Mesh Shader 好。

而在真正的 Mesh Shader 里, Input Assembler 是被取代了的,Hull Shader是被取代了的,Tessellation是被集成了的。实际上功能和性能差距非常大。

换句话说,两者的硬件基础其实都不是一个等级的。

这也是为什么 PS5 尽管一直宣传说是 “RDNA 2 based”,但是不论从哪个角度来看其实都只是 RDNA 1.5……

疑点包括:

  • Geometry Engine / Primitive Shader 是 RDNA 1的提法:
  • Mesh Shader 才是真正的 RDNA 2 的功能。它和 AMD 的 Primitive Shader 不是等价,而是包含关系。 Mesh Shader > Primitive Shader 。
  • 缺少 VRS
  • 缺少机器学习支持 (甚至完全没提到 rapid pack math,当时PS4 Pro支持RPM的时候可是满街吹爆来着……)
  • 这也解释了为什么 PS5 缺少 VRS 和 DL。 因为这代 Rasterizer 不支持 VRS 所需的特性,所以 5700这代卡都没法用 VRS;因为这代的CU不支持INT 8 和 INT 4的RPM,所以5700这代卡都没提到机器学习。而这些点在真正的 RDNA 2 显卡里都被改进了。
  • PS5 的所谓“功耗”、“散热”问题,如果是真正的 RDNA 2,那根本不需要这么纠结什么动态频率之类的东西。正如我们前面所说,真正的 RDNA 2 提供了相对于 GCN 2x+的功耗性能比,理论上来说,以 X1X 的功耗为基准,scale 到 12TF,然后降到 10TF,已经完全可以 cover CPU的额外功耗增长。也就是说直接用天蝎那样类似的form factor + 稍微高一点点的电源就行,为什么还要那么 struggle 呢?
  • 但是 PS5 的确支持真正的硬件光追加速(谢天谢地),所以可以 RDNA 1+0.5

没错,这就是一颗加了光追的超频5700,绝对不是什么 “RDNA 2”

所以为啥不全网黑爆呢……


但是!以上一共其实只说了两个方面,而且相比剩下的三个方面一点都不重要!












剩下的三个方面非常重要,那就是:







以上就是另外最重要的三个方面


user avatar   lulueh 网友的相关建议: 
      

性能比隔壁差这倒是其次,大不了便宜点卖大家也能接受。

主要是稍微懂点硬件的玩家看到2.23G这个频率后坐不住了,这么高的频率很大程度意味着高功耗和高发热,很容易让人联想到“三红”这个游戏机历史上最惨重的硬件事故,PS5要是也来这么一下,世代胜利拱手让人都算轻的,SIE再破产一次都有可能。(SIE的前身是PS3时代破产重组前的SCE)

不过我个人对索尼PPT上的可变频率没有太大的担心,各位就不要拿PC上的睿频来类比了吧,大多情况PC不都是睿频到一个频率然后稳定运行?首先PC作为开放平台,根本无法对软件做细致的睿频管理。其次,你玩游戏的时候希望显卡CPU频率反复横跳吗?还不是频率掉下来马上反应是不是散热不够供电不足或者干脆芯片体质垃圾?本质上还是定频玩游戏。跟PS5不一定相同。


user avatar   mu-tou-long 网友的相关建议: 
      

这两个游戏都有自己的问题。但严重程度完全不一样。

赛博朋克最大的问题是人力不够,没有人手把愿景在限期内做出来,导致后期狂砍。但从已有的成品来看,CDPR是完全有人才有能力把东西做出来的,只不过没时间做。光影效果,已有的垂直城市设计,以及主线和很多支线任务的演出都有毫不输巫师3的气质,尤其是日本城浮空平台那关,无论是游戏流程还是画面还是音乐,都把类似银翼杀手2047的那种气氛和感受做到了极致。有人说CDPR的人才都跑了,或者CDPR傲娇了开始放水,这并不客观。2077确实是个半成品,主机优化的问题尤其严重,但你关注已经完成的部分,用高配置PC玩,其质量并未令人失望,依然是巫师3的水准。

2077就像是一个优等生忘了做背后的几题的考卷,开天窗导致不及格,但已经做了的题目还是正确率极高的。

谈到E3的demo,单从画面上讲你很难说它缩水了。只不过CDPR没告诉你想要E3画面,就得上3080+光线追踪。。。

我猜想没有光追的话,游戏在大多数情况下也是可以达到光追的效果的,只不过人工工作量会很大,有些地方需要离线烘培,而有些地方需要人工设置虚拟光源。CDPR可能发现项目后期工作量太大搂不住了,就上了光追这个大杀器。。。


至于无人深空,现在口碑很好,但我要不客气地讲,这个游戏到了今天依然是垃圾,只配卖$19.95,打折的时候卖2.95的那种。

Hello工作室自始自终都没有把初始愿景实现的技术能力。

你可以看无人深空进入大气层的技术实现。先是一段飞船进入大气层摩擦发红的特效,然后可以看见地形通过一种非常粗糙、视距很近的情况下刷新出来,并且刷出来的地貌和太空中看到的地貌完全不同。所以从头到尾,hello工作室都没有类似精英危险和星际公民的无缝行星登陆技术。

无人深空更新了十几次,并没有触动这个游戏除了机械刷就没有任何深度的本质。这是一个极其无聊的游戏。但它刷了两年的DLC,玩家也就给他点面子,没功劳有苦劳。它每次更新我都会进游戏看看,但玩不了半小时就会放弃。一是实在无聊,二是它美术设计和渲染水平有限,色彩及其刺眼。比如在母船机库里,到处都是亮瞎狗眼的点状光源,但这些光源不会照亮周围的任何东西,看的时间长了有种不带护目镜看焊接的流泪效果。你说更新了那么久,这么简单的问题都不解决,有什么用呢。游戏中随处可见低级设计的痕迹,比如说有很多行星上有一种可以卖钱的球,这种球没有任何贴图,只有亮瞎眼的纯白色材质,在HDR效果下极其刺眼,但它又不是个光源,放在地上不会照亮周围任何东西。这种打开Blender就存盘的建模初手垃圾素材居然也能放在游戏里,真是活久见。

所以无人深空就像是一个学渣冒充学霸,把期望提得无限高,却每题都答错结果接近0分,被骂,然后花了漫长的时间在那里订正,一题一题的改,最后终于接近30分了,然后获得了大家的赞赏,全然忘记了它改了那么久依然是不及格。

无人深空的贴图我就不贴了,首发的时候真是纯垃圾,基本上是2008年魔兽世界首发的那个水准。现在也依然是垃圾,开个HDR看着眼睛都疼。




  

相关话题

  现在二手的PS4 pro2T国行版多少钱? 
  如何评价《赛博朋克2077》在游戏主机上的表现? 
  如何看待「PlayStation 之父」久多良木健表示不看好「元宇宙」? 
  如何看待 PS 版《艾尔登法环》获得白金奖杯的人有五成是中国玩家,第一名仅花四天即白金? 
  如何评价PS5光驱版499美金,数字版399美金的定价? 
  如何评价外媒曝 PS5 采用 AMD8 核 Zen 处理器? 
  PS5插光碟后为什么还要下载几十G数据? 
  PS5的游戏,开画面模式好,还是开性能模式好? 
  两家游戏店铺,自由人电玩被查封,老猎人转型,国内主机游戏前景是否并不理想? 
  为什么游戏党宁愿为了显卡等上好几年也不买 PS5? 

前一个讨论
为什么有的人喜欢带着 MacBook 去咖啡店或者书店上网,而不是 ThinkPad 之类的?
下一个讨论
为什么2020年发售的部分笔记本电脑还会有通用串行总线(USB)2.0接口?





© 2024-11-09 - tinynew.org. All Rights Reserved.
© 2024-11-09 - tinynew.org. 保留所有权利