理论上很好的解决方案。
手机不同摄像头的等效焦距,拍摄的范围不同。
主摄一般是25mm,相当于一个广角。
这个主摄,如果数码变焦到50mm,可用的cmos面积只有四分之一。
以前1/1.28寸的底,这个时候就变成1/2.56寸了。
但是如果你在长焦端用比较大的底。譬如1/2寸。
广角主摄中心区域的可用cmos面积,反而不如长焦大。
如果潜望镜长焦能到100mm等效焦距。用1/2的底。
那么在中心区域的图像。
主摄只有1/5.16寸的cmos面积。
用1/2的面积,去打1/5.16寸面积的图像,画质理论上有很大优势。
同样,广角摄像头,往往面积不大。中间部分面积更小。
融合计算,用主摄和长焦补偿,可以有更好的中心画质。
但是,这三个摄像头位置不一样,色温不一定一样,分辨率差异巨大(黑白摄像头倒是老技术。)
照片的融合,还要过渡自然,成整体,考虑到透视差异,算法需要过关。
如果这次算法实践成功。这套OEM方案,估计很快会普及。
现在潜望镜长焦,可以做到1/2寸的CMOS
如果焦距100mm,主摄25mm,意味着融合以后,主摄中心区域的效果,相当于4寸的底中心的效果。
一直以来,手机摄影的发展突飞猛进,人们纷纷拿手机来对比相机摄影,力求寻找一个手机摄影“吊打”相机摄影的阈值。
对于专业摄影前期来说,在前期获取到足够的信息量,以便于后期梳理与整合,是最重要的事。
长曝光、堆栈降噪、包围曝光、景深合成、全景接片,这些步骤的前期操作均是为了提高CMOS捕获的信息量,现在的摄影,早已脱离了拍摄一张直出的时代。
在这个背景下,计算摄影应运而生,从初始的自动HDR,到长曝光、多张堆栈降噪,手机厂商们做了很多的尝试。
我将计算摄影分为三个阶段:婴儿期,少年期,青年期。
在计算摄影的婴儿时代,算法较为拙劣,为影像从业人士所轻视。记得以前我发过一篇文章,关于手机动态范围和相机的差异性。
那个时候手机的HDR处理还很拙劣,暗部过分提亮,不符合实际情况。
这里我用一张照片做一个模仿案例:
一张正常的相机照片,如果用自带HDR算法的手机拍摄的话,它大概率是这样的:
虽然细节很多,还带一点点小清新的感觉,但是实际的明暗关系已经混乱了。
这个时候手机的算力还不足以支撑更好的算法,而且也没有运用AI技术。
手机摄影的发展方向是更多的像专业摄影靠拢,辅佐使用者记录和表达,但不合时宜的算法起到了反作用,这更加剧了手机摄影的业余程度。
在手机摄影的少年时代,更多更好的算法涌现出来,但仍旧和专业摄影有差距。
这个时候我们的算法终于能有正常的明暗关系,懂得在前期增加更多的信息量,运用多张堆栈或者较好的HDR处理,使手机拍出的照片“光鲜亮丽”。
这样的照片,在专业人士眼里仍有不足之处,但已经有了较好的表现。
直到现在,荣耀在AI技术和HONOR Image Engine图像引擎的加持下,走向了新的领域。
我称之为手机摄影的青年时代。
HONOR Image Engine给了我们一个新的答案。
竭尽所能,多方优化。
更优秀的传感器——超大像素、增强动态范围、优化灰阶数据、增加细节信息、降低纹理噪声。
更良好的操控性——64点激光对焦、全自动算法、提高影像质量的同时不增加手机厚度。
更优秀的计算能力——全镜头参与、全焦段融合。
全镜头全焦段融合在相机上是无法做到的,因为通常情况下,每一台相机只能搭载一枚镜头,每次拍摄只能捕捉一个焦段数据。
从这里开始,相机摄影与手机摄影开始分道扬镳,它们之间无法全方面横向比较,因为手机摄影已经走上了更广阔的道路。
举个例子,在【超广角变焦焦段】下,彩色主摄会与超广角镜头融合,彩色主摄的细节会与超广角相应视场画面智能融合,增强广角照片的画质。
另外,荣耀Magic3系列采用彩色传感器加黑白传感器的升级方案,融合两者的曝光。色彩与纹理、细节。经过融合曝光,能提升清晰度 18%,进光量 13%。如果不进行融合,就只能采用更大的传感器和更大的镜片模组,手机镜头模组也会变得更大。
这样的提升是相机无法做到的。
而且手机做到这点也很有难度,首先由于两个镜头位置不同,所以会产生视差,对于远处的对焦影响比较小,但是中近距离的话,这个视差很大,也就造成了两个镜头所拍摄照片难以配准对齐。
荣耀的解决方式是利用 AI 进行智能融合,不过这要经历海量的大数据学习,才能提升图像融合的算法准确度,这也说明,手机摄影不光是镜头传感器所决定的,处理器的算力也是一大影响因素。
多主摄像融合是手机摄影发展的大趋势,受到体积限制,手机无法在便携的基础上无限提高画质,而相机同样无法同时用好几个镜头拍摄,这就赋予了手机摄影一个独特的优势——用多个摄像头来进行数据合成。
你能想象,在你按下下快门的时候,同时拍摄了广角、中焦、长焦照片,并合到一起吗?
HONOR Image Engine不止上述这些,它是很多种算法的集合。
除了黑白与彩色传感器的组合,还有彩色主摄和超广角的融合以及彩色主摄与长焦融合的算法,其底层逻辑是这样的:两个镜头同时拍摄一个场景,之后使用更长焦段镜头的像素对更广焦段的像素进行置换,达到增强画质的效果。
这样就能解决目前超广角镜头普遍素质不高的问题。毕竟,超广角受限于体积,一般解析力和画幅都弱于主摄很多,所以画面表现也会逊色不少。而主摄则是手机上素质最高的镜头,所以用主摄对超广角进行加持则能充分补充这一弱项,让超广角画面的中心画质大幅提升。
主摄和长焦的融合则可以解决主摄和长焦之间变焦区间的画质问题。手机的多个镜头实际上是多个定焦镜头,而以往的变焦都是通过主摄进行裁切,也就是数码变焦实现的,直到切换到另一个镜头才是光学变焦,所以这样的数码变焦会导致画质损失,所以想要更高画质的话最好还是用原生的焦段。
不过经过这样融合之后,即便是非原生焦段,利用主摄裁切和长焦的融合,也能得到不亚于原生较短的画质,对于用户构图来说可以更加灵活。
这样发挥了手机多摄的优势,从此,手机的多摄不再只是为了「凑齐焦段」,而是真的会让计算摄影足以媲美光学拍摄。
所以,手机摄影未来发展的方向并不是「大底」,更大的传感器面积虽然会带来更好的画质,不过相应的,由于光学还没有突破,更大的传感器镜头模组重量、体积都会大幅提升。而现在的影像模组已经在手机上占了相当大的体积,手机厂商不能也不该再在这个方向上继续了,不然为了影像能力的提升反而使得手机头重脚轻,影响整体的体验。
所以,荣耀这次的融合影像算法其实给手机摄影指明了一个新的方向,新的计算摄影不是再去卷传感器面积、卷夜景算法,而是应该在已有硬件的基础上来进行更深度的优化,让用户能在手机上得到更好的拍摄体验,这才是手机摄影乃至计算摄影真正的意义。
荣耀Magic3多主摄融合算法基于HONOR Image Engine计算平台,应当是如今世界上较为先进的算法,笔者还未见过更优秀的算法。
2021年将是一个历史节点,它标志着手机摄影与相机摄影真正在底层逻辑上分道扬镳。就像摩托车与汽车一样,它们无法横向对比,只能在自己的领域纵向对比。
用与相机截然不同方式在前期获取到极大信息量的手机摄影们,在未来会与相机并驾齐驱,成为大众创作的利器。
低情商:是的,已经结束了。
高情商:diy的时代暂停了,只不过我们暂时不知道重新开放的期限。