你的手机也有的功能:拼接+叠加
恰逢东方红一号50周年和哈勃30周年,致敬给全人类拓宽视野的人们。
===========
进入正题:
哈勃太空望远镜Hubble Space Telescope(HST)的CCD确实很小。
拍摄出天文界网红观测照片“创世之柱 Pillars of Creation”所用的广角相机3 Wide Field Camera 3 (WFC3)由两个可见紫外(Ultraviolate Visible :UVIS)的CCD组成。每个UVIS传感器的尺寸是2048x4096 [1] 也就是八百万像素双摄,跟当今各个旗舰机动辄一亿像素浴霸四摄比根本就是老年机水平。
但还是拍出了这么让人窒息的照片[2]。
低配摄像头能整出来如此高端的照片的主要原因有以下几个:
这个是摄影里的基本操作,视野范围(Field of View :FOV)不大没关系,只要拍摄的对象是静态的,多拍几张拼一起就行,和手机的全景模式一样。
NASA官方发布的Pillars of Creation是4800万像素[3]
也就是WFC3进行多个角方向的拍摄然后拼接在一起的。
CCD分辨率很大程度上取决于其设计视野范围和口径所对应的最小分辨角,所以天文望远镜的CCD并不一定有大规模的像素,但是拼出来的成片可以很大。
结果这么惊艳,很大程度上也得益于叠加,多图叠加主要是为了增加信噪比和动态范围同时去掉射线噪点,跟现在的手机的夜景模式是类似的,就是增加曝光时间,或者连续拍多张照片,找特征点对应一下叠在一起,并且把边缘裁掉。
任何电子设备都有底噪,在成像设备里底噪的表现就是在进光量小的时候成片里有磨砂感:
这是手机拍的一张夜景,通过手动拉高亮度,虽然能看清轮廓了,但是实物看起来还是非常的有颗粒感,其实这就是进光量少的时候随机底噪浮现了出来。
底噪是随机的,但是天体信号不是随机的, 通过叠加可以增强信号,随机信号的叠加速度没有天体信号快。
举个例子:
这是一个sinc信号,被一个幅度很大的高斯白噪声底噪淹没。
如果假设sinc信号不随时间变化,采样20次求平均是这样的:
采样200次求平均是这样的:
就能看出来信号原来的样子了,采样更多次求平均可以得到更好的信号。
所以,叠加求平均可以提高信噪比。
【这就是为什么女生拍照同一个姿势拍那么多张,因为需要叠加降噪】
叠加求平均的另外一个原因是可以提高动态范围,如果单像素传感器输出的是uint8,那么其强度只能是0到255之间的整数,动态范围就是传感器接收信号的上限比能识别的最弱的信号,也就是255/1。如果拿两张图求平均,最小能达到的值是0.5,量程依然是255,所以动态范围就变成了 255/0.5也就是510,提高一倍,当然实际情况没有这么线性,有一些其他参数需要考虑。相机上的HDR模式就是高动态范围(High Dynamic Range)模式,可以让闪光灯里亮瞎的前景和昏暗的夜景都被拍下来。
除了叠加降噪,HST成像算法中还有一个操作是对比消亮点。在相机成像中因为有高能宇宙射线轰击,成像结果中会出现这种大的亮点,分布比较稀疏,这些宇宙射线打出来的亮点也是随机的。可以通过对比多个次成像,如果亮点一直存在于某个位置亮度不变,那么它是发光天体,如果只在个别次采集中存在,那么它就是射线轰击产生的。
经过这样操作的图再拿去叠加去噪,以及经过一些图像主动降噪的方法,最终得到了丝滑清晰的高动态范围的成像。
其实去看HST成像半成品:单通道的拼接之后但还没进行多通道叠加以及裁切的数据就会发现,它的边缘有明显的堆叠痕迹,没有堆叠的部分就会有一些底噪和白点。[4]
叠加和拼接说起来比较容易,但是实现起来还是很困难的。
因为,哈勃在飞,以大概7.5km/s的速度飞行,而叠加和拼接对于指向的要求非常高,要长时间保持高于百分之一arcsec级别的指向,这个在地球上都不是一件容易的事情。
哈勃是使用Fine Guidance Sensor (FGS) 精细导星感测器来实现实时的姿态调整[5],原理就是在视野边缘找几个亮点,锁定亮点在视野内的相对位置通过陀螺仪微调飞行姿态来得到一个相对稳定的主镜视野。
所以,这是一个飞速奔跑但是还要拿稳照相机连续拍照的哈勃。
通过去噪和拼接得到的图片是只有强度值的,因为UVIS传感器只对强度敏感,不对波长敏感,这就需要UVIS滤镜(跟美颜滤镜不是一个东西)
滤镜可以选择通过某个波长附近的光,对应不同颜色。
通过切换滤镜得到不同波段的光。[6]
然后再组合起来,就是惊艳的宇宙照片了。
结:
搞天文的有一大批人在搞数字信号和图像处理
Process Signal 简称PS
=========
其他创作的分类整理: