作为一名在P50系列发布会前10天参加内部沟通会的成员,说一下关于XD Optics和原色引擎的个人感想,字数有点多,能听完我唠叨的朋友,我深表感谢。
关于华为P50系列发布会的看点,我在5月初就开始猜想了:
除了升级使用麒麟9000芯片之外,影像系统是否会采用全新的光学模组,带来全面升级。
结果在7月底的P50内部沟通会上我发现自己的想法只对了一半,华为另辟蹊径走了一条全新(理性与感性相结合)的道路:
首先P50系列确实采用了全新的光学模组,但首要目的是为了减重减体积以符合握持手感的平衡性(比如重新设计各个镜头组)。
难怪在P50 Pro上手的瞬间,忽然觉得自己厚重的Mate40 Pro不香了,但问题也接踵而至:纵深与结构被简化的光学模组如何提供比前代更好的反差与解析度?(为什么我知道光学结构可能被简化了,后文会提及)
华为在这里做了一个很聪明的决断,那就是和光学模组供应商深度合作,以定制的方式进行生产,并把各个物距下模组成像的像差分析数据获取到手,这一点就很重要(灵魂)了。
任何光学镜头都存在缺陷,缺陷导致的像差包括彗差、球差、象散等问题。但只要光路可逆,就能知道某个指定波长的光线经过这样的镜头、经过这样的方程式之后,进去是什么光线、出来什么光线。在数学层面逆推的演进(计算光学的雏形)使得对光学系统耗散的挽救有了可能性,这就带来计算光学的想象空间。
换句话说,基于和供应商的深度合作,一组镜头设计之前与成型之后,就已经可以通过提前预测和后期测量来得知该镜头光学的特性,在得知光路导致的像差损失后,通过算法尽可能修复因光学模组固有缺陷导致的细节丢失,把光学端造成的像差(反差,像散,场曲)给还原出一部分(并非100%还原,那是不可能的),而这种通过逆推尽可能还原光学端损失信息的工程,被华为称之为“XD Optics”,计算光学。
没错,在基于各传感器信息流分类处理的“XD Fusion”工程之后,华为推出了基于纯光学元件的“XD Optics”。
由于每一个镜头在不同物距下的像散,畸变,场曲,反差,解析力都不尽相同,所以需要在不同工况调取精确的信息并加以优化,而这种调取的依据很有可能就是精确的物距(Z深度)判断,插一嘴,由于P50系列的影像模组都不是双光圈设计,不然“XD Optics”需要调取的数据库内容会更加“丰富”。
那么“XD Optics”的好处在哪里?
发布会上演示的“高频细节”还原就是一个很明显的例子,不具备“XD Optics”算法的手机对于近似色场景(例如草地)的反差细节再现是很弱的(这也是很多工况下,老手能一眼识别出手机与高端卡片机区别的关键),而P50则可以将原本在光学端损失的细节还原出一部分,差距显而易见。
需要强调且重要的是,这种细节差距并非基于对传感器获取数据后“锐化”产生的“视觉假象”,而是真正基于对光学缺陷的纠正,这也意味着如果对经“XD Optics”算法处理的照片做精细锐化,能获得更为惊艳(视觉上)的成果。
假定信息在通过光学模组时丢失了50%的信息,通过后期图像处理这种“后半段式抢救”,能还原的细节极其有限,想要尽可能多地增加细节就只有把“大,重,长,复杂”的负担丢给光学镜头与传感器,搞不好,手感就会“一泻千里”。
而计算光学(XD Optics)的引入,让前端修正+后端增益同时发力,这种“全程式抢救”的好处自然是不言而喻,在不占用额外的空间追加额外配重的前提下获得高品质的画质。
在内部沟通会上,华为提到“XD Optics”在理想情况下能将MTF10指标提升100%,相信经常玩镜头的朋友都知道,MTF10(反差指标)能提升100%意味着什么,而且“XD Optics”这一算法对于像散,场曲的改良也同样有效。
在沟通会的Q&A环节,我提问”XD Optics“算法是否会普及到Mate40与P40系列时,回答是否定的。这也在侧面印证了这批光学模组与前代的结构与特性全然不同(即使焦段与光圈近乎一致)。
我们在此做一个假设:
假设华为与光学模组供应商深度合作,在取舍中定制了偏向小体积与高驱动性能的方案,通过不占用模组空间与重量,能实现缺陷逆推的”XD Optics“算法,让方案的表现力提升一个台阶,从而兼顾体积与表现力。
用通俗的话来说,就是校长找了一个性格好,运动能力强的学生,在文理科考试前进行“泄题”,以达到提前保送的目的。
如果这个假设成立的话,那么华为就是在大家都认为”画质就是要堆料,不惜厚度与重量“(考试前熬夜刷题海)的环境下,完成了一次”弯道超车“,让影像系统可提升的空间再次拓展。
在我看来,光学端简化和算法优化的”负正组合“带来的不仅仅是”弯道超车“般的轻爽体验,也提升了未来的性能上限:依托于算力不断升级与数据库的不断详实,在保有轻负重的前提下,未来的手机会提供越来越好的画质,而避开了单纯的物料堆砌所造成的沉重负载感。
说人话就是单脚走路(堆料)变成了双脚走路(物料与设计的取舍+缺陷逆推算法),这种思路打造出了一个全新维度的赛场,而现在,这个赛场目前只有华为一个选手。
前文说过,“XD Optics”是一条理性与感性相结合的进化之路,感性的是,华为守住了“为了消费者的手感,我们该怎么做”的底线,理性的是为了守住这个底线,影像表现上要坚持和做些什么,并让它们完全落地的思维与执行能力。
聪明且富有执行力的华为暂时避开了堆料赛道,在算法层面建立了新的维度与护城河。
而对于我们,需要思考的是,在新维度的算法之下,影像系统的纸面参数(焦段,光圈,传感器面积等)在AB对比时,还有多少意义(只要竞品和华为相比),实战效果才是王道。
在未来,埋头在一个方面钻牛角尖的厂商固然能获得很好的影像品质,但代价会指数级增大:
1. 努力十分,收获一分
2. 优化上限越来越小且有驱动 / 防抖能力限制的连锁反应(物理层面的牵一发动全身)
3. 画质,手感与配重之间的平衡越发难以把控。
---------
PS.
XD Optics自华为P50系列为起点,只要华为愿意,未来的麒麟和骁龙芯片机型都能完美搭载适配(这也是内部沟通会Q&A环节中的一个问题解答)。
(以下为脑补对话)
A:所以,为什么不深度优化一下供应链呢?为什么不下到基层,深度合作几个能吃好几年的优秀方案呢?
B:第一,那不是我们的风格;第二,供应商向来不太喜欢我们的砍价力度,合作态度也很暧昧;第三,先不谈是不是要烧很多钱,你得知道,深入研发再获取算法优化可是要花好几年才能看到效果的,上头大概率不会通过。
---------
至于原色引擎,这是自华为将sRGB色域框架升级为DCI-P3色域,引入8通道色温传感技术之后的又一次色采样与色矫正升级。
P50系列在前代8通道色温传感器的基础上升级为10通道,能够更加精准感知环境光与主体的发射与反射色彩,结合CIE标准(Commission Internationale de L'Eclairage,国际照明委员会)获取不同色温下两千多种色块的色彩表现为参考值,原色引擎正是以此为基础,制作出的色彩评估与校正算法。
简单来说,原色引擎的依托有两点:
1. P50系列比前代强得多的色采样与分析能力(约50%)
2. 可参考数据库的内容较前代丰富了数倍(约5倍)
前者决定了参考方向的精准度,后者则决定了产出标的的精准度,缺一不可。
就拿我的Mate40 Pro来说吧,户外拍摄能力很强,但在室内暖光灯环境下,默认出图就会明显偏冷(这也是目前绝大多数手机的现状),我个人的猜测是采样与校正的链路匹配还没做到位,加上餐馆的低显色性+频闪的劣质光源作祟,会让手机一脸懵。
现在华为采用了精度更高的采集与匹配矫正方式,效果可期,至少在发布会上,暖光环境下木桌与器皿的发色还原都十分真实,而这在Mate40系列上是不能想象的。
如果让我概括的话,我更愿意把华为的原色引擎技术看作是一个自动白平衡的分支---“环境光优先白平衡”。
传统白平衡是寻找画面中的白点(即使它不存在)并强制使其成为白,因此很多时候,暖光灯下的香蕉,苹果,葡萄就会被拍得很奇怪,就是因为不可能有白点的物件被“拍脑门的算法”强行“变白”了,色彩自然就会产生偏差,为了色彩还原发烧友们就只能使用专业模式,手动调节白平衡。
而“环境光优先白平衡”是一种不刻意去寻找画面中的白点的自动白平衡方式,它的权重更偏向还原环境光色温,这样才能真实展现在该环境光下,肉眼所见的物体。
华为的原色引擎就是基于对RAW文件的调整,在DCI-P3色域转CIEXYZ框架下,通过更高精度的环境采样与数千色块参考值匹配为依据,对画面色彩进行矫正的算法,兼顾了高保真的细节传达与宽广的色彩再现能力。
当然,这也引出了一个审美的取舍问题:
拍摄暖色光下的纯白色T恤,照片里的T恤究竟是纯白好,还是暖白好。
有的人倾向纯白,说这是物体的本质色。
有的人倾向暖白,说这是我拍摄时的记忆色。
对于这个问题,我是这么想的:
拍照是基于观察与审美的,我们按动快门大多是因为此时此刻的视觉感受(物体+环境的交互),而非本质色彩,如同选在日出拍山脉,夕阳拍沙滩就是因为环境色的渲染而非本质色,不然正午也能拍泛白的沙滩与礁石啊,而华为原色引擎的权重无疑给了后者--记忆色。
最关键,也令人欣喜的是,“原色引擎”作为新一代“XD Fusion Pro”处理体系中的一环,是位于底层的处理机制,无论是原生APP还是第三方APP,调取前后摄像头取景拍摄时,均会获得同样的收益,不必担心第三方拍摄APP会令P50的色彩再现失去水准。
记得19年8月去华为北研所参加内部沟通的时候,我曾提过自动模式的UI上是否可以添加“环境光优先白平衡”与“白点优先白平衡”切换钮的建议,如果手机能忠实记录环境光对于物件的影响与交互,对于摄影爱好者来说无疑是一件利好。
现在看来,虽没有完全实现,但华为依旧在以更稳妥,不增加用户学习成本的思路在谨慎地向着这个方向走。
------------
计算光学和原色引擎对P50的影像能力有什么加持?
XD Optics是基于与供应商深度合作下的产物,利用计算光学修正部分像差,无需额外的空间与重量,兼顾了品质与负载。
原色引擎则是对环境色与物体色交互展现的一次尝试,将还原重点转向环境色,相比传统白平衡算法更为真实地再现“拍摄时的记忆色”。
如我上文所述,这两个新体系是华为在细节与色彩再现方面寻求“破上限”的尝试,更好的细节与更好的色彩,单拎一点配合新ID都足以出新机做宣发了,而P50系列两者全占。
Emmmm.......
除了豪爽,我暂时找不出其他词汇可以形容了。
由于已经用相对严肃的问题写过了P50系列的整体答题,所以这题咱们尽量浅白、通俗易懂的来阐述“计算光学”和“原色引擎”以及其对影像能力的加持。
首先我们简单对现有的手机摄影做一个定义,那就是——“计算摄影”。有别于单反相机的尽可能记录真实光影信息,手机摄影是尽可能计算出真实的光影信息。但其实单反相机在数码化以后,也不可能真实记录,因为各家的传感器也有算法的差异,以及镜头的风格等等不同点,都有影响。
那“计算光学”和“计算摄影”是怎么个意思呢?
我们不妨将手机影像模组做一个分界线:
那么我们肉眼所见的美好世界就对应了A,这些景观会被手机相机收录进去。
而“计算光学”则是在区间B发挥作用。
“计算摄影”则是在区间C干活。
在P50之前,区间B是没有“计算光学”这个项目的,只有手机镜片和马达等。而且随着手机影像技术的发展,手机镜片越来越多,虽然提高了画质,但也衰减了光到达传感器的信号。手机镜头孔径本身就小,进光量就有限,现在这一搞,让原本并不富裕的传感器信号获得更是雪上加霜了。
如果你有用过120胶片相机拍照,你就会记得那个昏黄的毛玻璃对焦屏,不管外面如何阳光明媚,但相机内部的所看到的影像却一定会昏暗很多。那其实就是真实的光线穿过层层镜头玻璃被衰减后到达相机内部的真实情况。
光衰减之后会有什么负面影响呢?
清晰度下降,画质也随之下降。
因为我们都说了手机是计算摄影,计算摄影有个工作原理就是靠“猜”。天空、大海这些大面积的连片颜色被记录进去,手机的ISP一看这一整片就比较容易猜到。
但如果草丛、树叶都是很小的且有很多边缘的,信息量特别大,手机的ISP就开始吃不准了。如果光线再昏暗一点,那一团黑乎乎的也许是石头、也许是泥巴,也许是没有被光照射到树叶或灌木。这时候ISP就要抓狂了:“我哪知道你是谁啊,我只是图像的搬运工,我又不是灵魂画手”。既然我“猜”不中,那就继续黑乎乎好了。
那“计算摄影”是怎么计算的呢?
光路进入降相机模组第一片镜片的瞬间,假设信息量是1,但到达传感器的时候就只有0.5了,这个时候工程师就大概知道,光在这样状态下会丢失一半的光量。那么我在这条光路到达传感器的一瞬间,我能不能在利用算法给他补足那丢掉的部分呢?理论上这是可以的,但实际操作起来很复杂且不可控。
但既然理论可以,工程师们就要来试一下。梦想总是要有的,万一实现了呢?
接下来,华为的影像研发团队就日复一日,年复一年搞了很久,总算是搭建起了比较成熟稳定的函数模型,能提升光路信息了。提升了多少呢?
原来没有“计算光学”的时候,ISP能将原来50%的剩余光信息恢复到60%。现在有了“计算光学”的加持后,好家伙,这一下就从“普通家庭”跃升到了“中产阶级”,能恢复达到81%。
有了“计算光学”的支持,“计算摄影”所获得的的信息量就增加了很多,不仅树叶、草丛能拍清楚,而且甚至连更细小的信息都能捕捉到了。同时还有对像差校正也做了很多的贡献。
一句话,咱现在信息量获得量大大提高了,得到的图像信息更丰富了,知道如何来优化得更好了。而不再是像原来,这个也要“猜”,那个也要“猜”,搞得ISP头昏脑涨,用户还不满意。
有了“计算光学”的光路信息量加大,再加上这次的黑白镜头也有加大进光量的作用,现在ISP再做图像优化就一句话:so easy!
接下来聊“原色引擎”。
原色引擎的作用其实很简单,就是“所见即所得”,色彩还原度尽量接近用户当时的肉眼所见。但“原色引擎”自己是谁,就真是考到我了。
我原本觉得“计算光学”会是一个更难的阐述主题,但后来发现“原色引擎”的准确讲述其实更难。
为此我特地请教了华为手机的影像产品负责人潘老师,他给到我的简单定义是:
原色引擎是一个软硬件协同的方案,让相机的色彩处理流程与人类的视觉系统拟合。其涉及的内容都是全新领域,计算光学算是传统光学设计与计算机视觉的交叉学科,原色引擎涉及色彩科学、照明学、仿生学、摄影学等。
我之所以感到难讲清楚,就是在于我们理解的物理意义的“引擎”是一个硬件,但其实“原色引擎”是啥都有。
为了便于大家理解“原色引擎”都有啥硬核技术,我们将其中三个技术点掰开讲讲。
一个是P50系列的色温传感器由P40系列的8通道做到了10通道。增加通道的作用是什么呢?就是捕捉采集更丰富的环境光谱信息,再结合影像传感器所收到的信息,一起提交给ISP,为再现无限接近真实所见的画面提供参考信息。
如果ISP是手机影像工作的总司令,图像传感器是主力部队,那色温传感器则是侦察兵,虽然不直接参与图像处理的工作,但却提供了全面翔实可靠的环境信息供总司令决策用。
拟合人类视觉系统的部分需要合在一起讲,这次华为在“原色引擎”里做了一个“电子视网膜”色彩架构和色适应模型,就是从仿生学角度出发去模拟人眼和人脑对色彩的感知和还原。
“电子视网膜”部分是将传统的RGB色彩空间模式转换成CIE XYZ色彩空间,做这个转换是因为CIE XYZ色彩空间不会像RGB那样受不同硬件影响,更便于管理和搭建人眼视神经模型,输出统一的图像色彩信息。
而色适应模型则是在模拟人脑对环境光的反应和感受,比如一张白纸在夕阳下,人眼看到再传递给大脑,在大脑中所呈现出来的画面是:这虽然是一张白纸,但因为有夕阳的余晖照射,他也是有金色的。
没有色适应模型之前的手机影像算法,可能是发现了画面里有一张白纸,那我得尽量让他白起来啊,而忽略了此时的环境光是略带金黄的。拟合人类视觉系统搭建起来之后,ISP再做图像计算时候,不仅再是只管输出,而是有了两个维度的加强:
所以“原色引擎”带给华为手机影像的,是更精准、更智能、更有思考的计算摄影。
限于篇幅,今天的分享差不多就到此为止。
其实华为P50在影像技术上的创新和精进远不止这些,只是这两个是比较有代表性。回顾自P9以来的华为历代旗舰产品,华为的影像力一直都是在“变”与“不变”两条腿齐步向前。
“不变”的是华为的影像风格,始终保有了徕卡的浓郁、油润的色彩,通透细腻的空气感。还有华为对极限影像力的专注和勇气,对技术引领的初心,都不曾改变。
“变”的部分是华为的影像在清晰度、色彩还原、细节再现、动态范围等各个技术指标上都一直是一代一大步向前奔跑。超越华为的,永远都是华为自己!
因为环保。
之前买笔记本电脑的时候除了纸质说明书以外还有不少纸质文件,而且包装盒巨大,大量使用泡沫作为甚至还有内嵌包装盒。
我当时买的笔记本送的16开100多页的说明书,其中篇幅最大的是如何使用Windows系统[1]。
除此之外还有保修卡,售后网点,装箱单等各种纸质文件。
除去纸质文件还有若干光盘,有系统镜像,驱动包等等。
如今的电子产品,包括手机和笔记本电脑,包装在不断缩小,纸质文件越来越少,光盘被取代之后厂商也不怎么送了。
这样一来节省了大量的木材等资源的同时避免了像泡沫填充物和光盘这种有害垃圾的产生,而且从效果上看比不送充电器/数据线要好很多,因为消费者为失去的东西投入的成本可以忽略不计。
其实我本意是想讽刺一下这些手机厂商的,可是没想到某个官方账号出了点问题,紧跟时事了属于是。
说明书的变化是由以前的几十上百页变成了一张“快速使用指南”,同时这些产品开始内置说明书pdf或者在官网提供pdf下载。
r9000p的说明书。
惠普1040g4的说明书。
苹果各种产品的说明书,由于众所周知的原因,国区只能去官网查看。
看到有人提到了使用技巧,
其实这东西和ios的贴士差不多,但是内容更详细[2];
其实更多情况下用到的是获取帮助,这个是系统自带的,而且在win10里有时候按f1会直接弹出来。
此外还有一个反馈中心,对于系统有什么建议可以提出来,要知道win10的农历就是这么来的:
微软社区和网页版的帮助中心,善用这两个网页可以解决大多数windows系统的问题。
考虑到题主 @六经注我 属于从来没用过电脑的,我还是多写两句吧,希望能有所帮助。