奥林巴斯的超高分辨率模式VS堆栈合成超高像素VS扩展超高像素

2020-06-08 10:30·用户6317220047

和上一篇文章的风格必须反一反,今天用一幅很文艺的图片开头。内容却是完全枯燥无味的分辨率图表。

如果您需要查看清晰的分辨率拍摄图表请点击“阅读原文”用电脑浏览网站

前段时间同时拿到奥林巴斯三台相机进行一次深度体验,其中我也得到了一只镜头,M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO。一开始,我对这支镜头的性能有所怀疑。因为第一周用它拍摄的图片让我没有惊喜感。在众多的老法师中,我算是理论知识非常全面的。所以我相信赛先生。我不迷信大光圈镜头=好镜头。因为教科书上从来没有这样写过。就算我如此开明,拿到M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO,手中一掂分量,心里也有点凉。很轻的重量,让人主观上容易产生一种错觉。轻量化的镜头肯定不是好镜头。为此,我也不可避免受到重量的误导。一周的拍摄,说实话,时间太有限。很容易加深错误的感受。

随着自家的实验室不断完善。2017年就采购好的光学分辨率测试设备终于在这个月有了用武之地。我突然想把M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO装到台架上测试一下,尽管我没有抱多大希望。但是随着测试的进行,我生产了一系列颠覆性的想法。进而把实验不断推进下去。

我们大部分人比较保守,也比较不理性。喜欢看结果而不重视过程。所以过程的透明性,对于想追求真知的人就显得尤其宝贵。所以,我要分享整个过程给喜欢较真的朋友们。

图1:我第一次对M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO进行了测试,这里我使用了E-M1 Mark III相机的普通拍摄功能进行检测,以16:9画幅来拍摄。这里我使用了91 Optical Lab实验室目前目前配备的ISO12233加强型分辨率测试板,规格为4X型。测试中一律使用最大光圈。

图2:结果我在画面的中央部分获得了上图这幅画面(使用该镜头的12mm焦距,视角等效全幅机的24mm视角)。它在画面中央部分可以读取到的分辨率仅仅达到2000LW/PH的水平。

这里我有必要给大家科普一下我是如何读图和进行判读的

从分辨率可肉眼识别的清晰到不清晰的转换值读数为20。根据ISO分辨率检测板的规定,该读数需要X100。因此得到2000LW/PH这个最终的读数。这里读取的是ISO12233分辨率测试板的K2位置,是用来检测画面中心部分垂直分辨率的部位。而我获得的读数单位是LW/PH。这是国际上通用的可以跨越传感器尺寸和镜头规格来评价相机获得最终清晰度的一个标准。具体到什么意思呢? 也就是在奥林巴斯E-M1 Mark III相机配合M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO进行拍摄,以16:9画面时(5184X2792像素)在纵向整个画面可以拍摄到2000条横线。

根据公式:LW/PH=2*MTF数值(LP/PH) 。这里的MTF数值LP/HP是线对/mm除以传感器高度(mm),这是来自与imatest的标准解释。我发现不少网上的资料都是错误百出的。

因此,我可以换算到镜头的分辨率近似为107线对/mm。

图3,我也同样放大了位于画面边缘的画面。分辨率也不太高,只有96线对/mm,反差也有所下降。(学术上,这个位置是ISO12233测试版的扫频楔位置,通常用于极限分辨率测试和视觉清晰度判断)

这里我需要解释一下不同画幅之间分辨率等效的问题。以及数码相机综合清晰度的问题。

数码相机能达到什么样的清晰度由两个因素共同来决定,是完全可以计算出来的。

也就是说:像素密度如果大于镜头的分辨能力,那么最终的清晰度由镜头说了算;反之,如果像素密度如果小于镜头的分辨能力,那么最终的清晰度由CMOS说了算。

话分两头,首先是像素的排列密度,决定了CMOS本身能达到什么样的分辨率。例如:以我使用的这台E-M1 Mark III相机为例。它所使用的CMOS的横向宽度是17.4mm,排列了5184个像素。也就是298像素/mm。每个像素尺寸是0.0033mm。每一对相邻像素可以分辨一对线条,所以依据像素尺寸推算得出对应的这块CMOS的最大分辨率是151LP/mm(近似考虑为150LP/mm,也即是线对数量/毫米)。接着会出现3种情况:

1. 以小于等于这个密度投射到CMOS上的线条对能够被清晰分辨出来。

2. 以近似等于这个密度投射到CMOS上的线条,马上会让成像产生衍射,也就是大家看到的摩尔纹。

3. 以大于这个密度投射到CMOS上的线条对不能够被清晰分辨出来。

我得到图2的结果以后马上考虑是不是符合第一种情况。因为我印象中奥林巴斯的设计参考是60LP/mm。像素排列密度远远超过了镜头的分辨能力。

图4,隔了几天,我想试试奥林巴斯E-M1 Mark III的超高分辨率模式,结果把原来那套相机再次摆上分辨率测试台架。使用同样的镜头,同样的焦距。

图5,我随手在相机里看了一眼图片,我马上意识到我前几天的结论是错误的。这里我把画面的中心放大出来。M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO的描写能力直接击穿ISO检测板的分辨率指标2800LW/PH。

图6,如果说有人对中央的分辨率还有疑问(因为ISO检测版图形设计容易导致衍射,也因为这支镜头中心的分辨率太高了,和像素的排列极容易产生衍射,图5已经在3000LW/PH以上范围出现了阶段状的衍射),我们看看画面边缘的分辨率表现。3000LW/PH分辨能力,轻松达到。换算下来,这个镜头的分辨率轻松达到161LP/mm。远超设计这个镜头时所使用的测试参考标准(60LP/mm)。

图7,不要急,更加惊人的这幅,我们看看极限位置,右下角的分辨率表现。3000LW/PH的分辨能力,同样轻松达到。

读完这3幅图片,我自己也不得不倒吸一口凉气,再喝上一口咖啡,压压惊。M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO确确实实是当今世界上数一数二的顶级镜头之一。分辨率随时可以碾压最优秀的定焦镜头。

我之前错了!

图8,测试环境和大家略微做个交待。仪器设备都是正规的。(拍摄这幅图片的时候,还没有进行设备矫正。测试前,同事们帮我用激光测距机进行了矫正)用这幅图片做一个分割以后,我要展开疑问和思考了。

我一直坚持认为高像素是无用的,因为镜头的分辨率能力远远跟不上像素的密度。所以超高像素都是假的。尤其是合成出来的超高像素都是假的。它无助于分辨能力的提升。所以我多做2个步骤测试。

图9,我用2000万像素模式拍摄的图片用PS扩展成等同超高像素模式的图片(也就是用软件硬生生把像素扩展到6200万像素)

图10, 图9中心部分的放大,大家可以看到,分辨能力没有任何提升。符合我之前的观点。

那么我们再来看看移位拍摄后使用堆栈合成超高分辨率图片的做法。这个方法大家可以自己百度。

图11,在我们实验室中使用光学平台的精密位移功能进行移位拍摄,然后使用堆栈方式进行合成的图片,合成出的画面尺寸和超高分辨率模式一致。

图12, 图11的中心局部放大画面。大家可以看到,网上推荐的方法还是有一定效果的。画面的清晰度有明显的提升。但是我不是网上那些伪工科神棍,我不会给大家胡诌什么用移位拍摄可以提升清晰度。我们仔细看看分辨率就能明白:分辨率还是停留在2000LW/PH。其实和图2没有任何实质性的提升。但是这幅图的噪声明显下降了,在我们看2000LW/PH到2200LW/PH这个范围的时候,眼睛没有那么费力了。这是降噪的效果。也就是堆栈法确实可以提高画面的信噪比。能提升视觉上的清晰感。但是实际的分辨率丝毫没有提升。

直到做到这一步时,仍然证明我之前的设想并没有错。“伪像素”的提升,没有带来实际清晰度的提升。

《相机入门 --- 我为什么一直追随奥斯卡.巴纳克式的相机?为什么没有等效光圈?--- 伪理科谬误集合纠错》

到了这里,我必须要回到原点去找寻一下答案(因为我以前使用徕卡S中画幅相机对比奥林巴斯M43相机的时候我也遇到过类似问题,所以从过去的研究中很容易找到答案)。我要看看那块看起来排列密度很高的CMOS能对应多少线对数量。

根据像高公式: 物高/ 像高= 物距/ 焦距 ;根据像素尺寸;根据CMOS像素尺寸0.0033mm

当使用12mm焦距将画面填充满分辨率测试板时物距为2米(近似)。

我得出纵向可以获得的相邻2个像素在分辨率板上的实际高度是1.1mm(近似放大166倍)。

而我们使用的4X分辨率测试板上2000LW/PH的一对线对实际宽度就是1.25mm(通过镜头解析压缩投射到CMOS上正好被相邻2个像素分辨出来)。而更高的分辨率,实际线对宽度更窄。

所以,道理很简单。图2、3、9、10、11、12中只能测得镜头2000LW/PH的分辨率是因为CMOS的分辨率对应12mm的镜头物理焦距已经达到极限状态了。镜头的性能超出了像素的性能所致!也就是说这里拍到的分辨率不是镜头的分辨率,而是像素的分辨率。

我曾经一度怀疑我上面的想法是不是错了。所以,需要回顾一下高分辨率拍摄和普通拍摄模式的对比。为此,我准备了一份PPT。

然而,上面的理想状况在现实世界中是不太会出现的。

在这里我必须要补充一下:空间频率分布与像素的错位,才是引起噪声的一个重要源头。这个也是传统相机的一个重要缺陷。现实情况,出现错位的可能性几乎是100%。所有不能进行像素移位的相机都会遇到这个问题。这个问题的存在与镜头的性能无直接关系,但是叠加镜头性能不佳的情形下,会让画面更加劣化(如同第7行所示,PPT中文字有误,我不修改了)。

我们现在所用的最好的CMOS仍然有30%的空间是用来堆放原件和布线的,也就是像素之间实际上存在一定间隔。这会进一步导致有部分空间频率图像根本就没有投射到CMOS上。

正是图像空间频率与CMOS像素的错位正是导致了在图2的测试中使用普通模式拍摄,镜头只能发挥到2000LW/PH的分辨率的根本原因。按理如果镜头分辨率超过机身分辨率的话,相机应该发挥到2792LW/PH的最高分辨率(该相机使用16:9画面时)。所以,可以下结论:2000LW/PH是该相机实际使用时能发挥到的最高分辨率水平(使用普通拍摄模式时)。

也就是说:精密移位摄影有多么重要啊!它可以弥补CMOS像素空间间隔和像素与图像错位产生的原理性缺陷。

接下来,我们来看看高精密度移位摄影合成高分辨率图像是如何实现的?

我上面省略移位拍摄的很多后续步骤,直接给到一幅模拟的、比较直观的图像。

相信看到这里,大家都明白了我的PPT做的简明扼要,浅显易懂。移位拍摄合成高分辨率摄影,确实可以弥补传统CMOS的短板。所以,哪怕我自己在实验室里用手工方法拍摄的也非常有效地提升反差,降低噪声(大家可以参考图11和图12 对比图10的效果)。一旦你能用上象E-M1 Mark III相机能够控制精密位移和精密复位的高分辨率拍摄相机,就可以实现四分一格像素到二分之一格像素的精密位移控制(移动量大约小于1微米级别),从而实现真正的高分辨率图像合成。那比我在光学平台上只能做0.1mm级别的位移高级不知道多少。奥林巴斯E-M1 Mark III相机提供给我们用户的是一种真正的高分辨率图像。不是虚的!不是空的!是实实在在的、清晰度更高的图像。

移位拍摄合成高分辨率摄影,是一种来自冷战时代的旧科技。事实早就验证了这种方法除了带来高分辨率图像之外,还具有明显的提升轮廓特征,降低噪声的功效(所以M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO投射到CMOS上的高频率图像没有产生干涉)。这种方式在航空摄影领域早有使用。只是,包括我在内,广大的摄影人根本没有去好好了解过这种摄影方式的巨大优势和技术潜力。我自己研究过后,很容易得出一个结论。它能弥补传统的摄影方式在遇到空间频率错位时产生的误判误读。也就是它比同级别同像素数量的传统相机要优秀很多。你没有必要再去购买那些性能落后的8000万到1亿像素的中画幅相机了。

全幅相机的情况我是了解的,因为ISO12233 4X型测试板就是针对全画幅相机设计的,世界上大部分全幅相机配合顶级镜头全开光圈都很难实现到2500LW/PH的性能;我查下了某实验室的资料。尼康D850在配合28mm F1.4顶级镜头时在中心刚刚才能勉强达到2500LW/PH,近轴30%位置就急剧下降到1800LW/PH。说明尼康镜头的品质根本就配不上相机。这个我之前就写过文章。大家可以参考《当看到MTF曲线跳舞的时候,一切误解都被解释了。齐老师指导您如何开始设计一支MICRO FOUR-THIRD镜头》。这是全画幅镜头原理性的缺陷。我暂时还没有机会测试过中画幅相机的性能。根据以往的印象,我对中画幅相机镜头的性能是不满意的,因为原理上同视角中画幅相机镜头的分辨率比全幅相机更低。

当然,合成高分辨率摄影不是万能的。它有3个传统的原理性缺陷。1.不能拍摄动态目标;2.必须依靠稳定的支撑;3.不能将位移控制到像素尺寸级别。

现在,必须要感谢奥林巴斯!第2个,第3个问题已经不存在了。我们有机会能够将冷战的军事科技用于普通的摄影乐趣,造福世界。

还要再次感谢奥林巴斯!告诉大家一个业内的事实:相机工业界大部分人用来读取分辨率测试板的软件居然是奥林巴斯的软件。不管你的品牌有多牛,读图还得用奥林巴斯的软件。这是一种贡献于社会的企业精神!值得尊敬!

回顾前言,我还对是镜头喂不饱相机?还是相机喂不饱镜头?有一些疑问。其实,上面的理论已经告诉我答案。但是,需要用事实来证明一下。

其实非常简单,只需要用用同样的相机,配合一只分辨率不太高的镜头来做个对比实验就有结果了。

图13:奥林巴斯E-M1 Mark III相机配合一只17mm饼干镜头来拍摄一幅画面。使用超高分辨率模式。

图14, 放大图13的中心局部画面,读取到2400LW/PH的数值,对比使用M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO在12mm端拍摄的图片,尽管17mm饼干镜头的焦距占有优势,但是分辨率仍然大大比不上。

这个故事清晰无误地告诉我:移位拍摄合成高分辨率摄影要产生真正的高清晰度图像,仍然需要用超高分辨率的镜头来配合。

我需要强调一下:ISO12233测试方法读取到的LW/PH数值是一种跨越相机传感器画幅来对相机拍摄画面的清晰度进行研判的方式。它的上限是3800LW/PH。但是在扫频楔上上限为3000LW/PH。奥林巴斯E-M1 Mark III相机和M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO镜头的组合轻轻松松打破了扫频楔上上限3000LW/PH。如果大家仔细看图5,其实这套组合已经突破了位于K2位置的3800LW/PH极限(尽管此时有干涉产生,但是实际上肉眼是可以读取到的)。这是世界上用来描述相机拍摄的画面清晰度的最高标准。换句话说的透一点:M.ZUIKO DIGITAL ED 12-45mm F4.0 PRO镜头远远超出了对外公布的设计标准。至今,相机仍然没有喂饱这支镜头。

疫情过后,可以做几件事情!

1.买奥巴相机和镜头

2.开香槟,偷笑

3.拍照去

千万不要请买中画幅相机,买全幅相机的朋友一起来喝酒:)

本人仅具有浅显的工业用镜头的设计经验。理论知识和实践知识严重脱节。特别是对针对数码成像技术和分辨率实际检测技术了解不深(测试的方法也没有完全100%遵循标准,贪图方便没有使用4:3画面和使用画面比例的严格换算),文中如有差错,还请同行朋友多多教导指正!不胜感激!

如果您需要查看清晰的分辨率拍摄图表请点击“阅读原文”用电脑浏览网站


Biztime & Picturetime

职场小蝙蝠

91拍照团队倾力打造的自有摄影附件品牌

生活+摄影 . 随手拍摄 . 随心拍摄

举报
评论 10

请先 后发表评论~

  • 其实我写这篇文章的真实目的,不是吹12-45F4Pro镜头有多好。其实是发起了一个讨论,看看究竟是镜头喂不饱相机还是相机喂不饱镜头。我的结论是现在的镜头实际可以做到非常优秀。相机就算是上亿像素也喂不饱镜头。我在实验的过程中发现: 无论换什么全幅相机,配上最优秀的徕卡标准镜头,相机的解析力也只能达到2500LW/PH左右。再也上不去了。为什么呢?原来是空间频率与像素排列错位的存在!!!相机和镜头无论怎么组合,除非相机的像素一次提升4倍(也就是8000万像素仅仅比2000万像素提升一个档次,中间级别的改善无效,我想说靠硬生生分割更多像素实在是个笨办法。你要获得比8000万像素更好的画质不好除非你一口气升到3亿2千万像素),否则都不产生实际的分辨力提升的意义。全幅相机是这样,中画幅相机我虽然没有测试,应该也是这个结果,我猜。所以大家真的要好好琢磨一下我在PPT的理论。只有让像素真正地去移动一下,才能解决空间频率错位的问题。所以压电错位是没有意义的,因为这是像素整体的位移。最好的位移是把位移控制在半个像素的空间内。移动的距离越小就可以得到越好的分辨能力,照片就可以还原出更多的细节。但是,毕竟像素尺寸级别的移位还是很难从物理上实现的。我是想夸奥林巴斯的相机实在太好了,太优秀了。

(0)

相关推荐