首页器材频道观点 > DC软件研发工程师聊聊相机那些事儿

DC软件研发工程师聊聊相机那些事儿

色影无忌
乐寻
梁爽
2016-01-11

  泡菜“乐寻”,数码相机软件研发工程师,研发过卡片机、DV、安防,目前做手机拍照方面的开发,从业6年,拍照技术很渣,关于数码相机里面详细的部分,大家有什么要问的吗? 

 

 

以下将以QA问答形式展现该贴内容:

 

朵朵爸叫老木:相机可以使用安卓系统么?


乐寻:当然可以,前提是芯片需要支持,不过目前相机的系统都是自己开发的。比如早先主要的相机SOC厂家Zoran、Ambarrel、Novatek等都是使用自己的操作系统,类似于uCOS-II的小型实时操作系统,已经够用了。
 

 

三星Galaxy Camera2

MacWin:有没有可能把CCD和COMS的优点结合起来?


乐寻:制作工艺不同,工作原理也不同(CCD芯片出来是模拟信号、CMOS出来的数字信号),不可能结合的。另外,随着背照式CMOS等这些技术起来,CMOS的画质越来越好,CCD大势已去(功耗高,需要多组供电),以后都是CMOS的天下。

 

CCD与CMOS

nikoff:在国内吗?如何找到这样的工作?找到这样的工作需要什么知识积累?偏硬件?或偏软件?


乐寻:嗯,国内,需要懂嵌入式开发,软件硬件都要懂,另外图像算法也要懂。当然刚毕业什么都不懂,毕业后第一份工作是做相机开发,后面跳槽都是这行,慢慢积累,所以这些也就懂了。

 

高老庄少庄主 :图像处理芯片和对焦芯片都是厂家自家asic的么?


乐寻:高端的单反都是自己设计芯片,低端的相机,不要说设计芯片,大部分都是贴牌的。楼主有做过某日企客户的卡片机(SONY, 奥林巴斯,松下,其中一家,自己猜,不想被人肉),客户负责制定一个目标(就是你要做到哪个标准)和最终交货的检测,从研发到生产都是我们自己搞,最后贴他们的牌子卖。芯片用的就是Zoran,Novatek,Ambarrel中的某一家的。


富士通图像处理器

 

 原帖地址6年数码相机软件研发工程师,聊一聊

 

东西南北溜溜:有没有研究过色彩处理方面的?比如SONY和NIKON的直出烂色彩可以套用其他家的色彩风格。现在的第三方LR、ACR、DXO总感觉不尽如人意。

 

乐寻:色彩方面在相机中一般归为Image Quality Tuning,效果调试。这方面是非常主观的,没有一个标准,通常是客户自己提要求,然后我们帮他们调到满意,比如有些客户喜欢平淡的能够真实反映实际景物的色彩,有些客户则喜欢色彩浓郁的(这些比较少,因为色彩浓郁的图像刚看时会觉得很好看,看久了就会觉得发腻,所以一般会建议调到真实的色彩,不过有一次听到一个客户说我才不管腻不腻,我就是要让顾客拿起来我的相机就有想买的冲动,好吧,你是对的)。各家有各家自己的风格偏好。

 

  另外就是芯片的运算能力有限,比如一个小波去噪算法,做得好去噪效果是非常好的,但是做得好就意味着运算量很大,而相机里面毕竟是小CPU+ISP,不是电脑的CPU或GPU,如果你想要做好,首先芯片的运算能力,实时处理能力能够跟上才行,处理能力跟上,功耗又是一个问题,功耗上如果加大电池可以解决,体积又是问题.......

 

dtouzhu:研发一块ccd和cmos共生片芯吧。


乐寻:不要迷恋CCD,过几年就会淘汰的。另外CCD国内无法生产,没有一家公司能够做CCD的(良率低,功耗高,配套的外围电路复杂,目前也落后了)。未来是CMOS的天下,说个题外话,其实CMOS是中国人发明的(楼主也是去年才知道,真是惭愧)。大家可以去查陈大同这个人,展讯的老总,CMOS的发明人。

 

CCD与CMOS 光电转换差别

voia :小波用DSP或者FPGA做更合适吧。BTW:有接触Fujitsu的方案吗?


乐寻:嗯,只是拿来举个例子说明运算量大,一般是做成硬件模块,处理能力和实时性才能跟上。Fujitsu有接触过,怎么了?

 

voia:考虑性能功耗的话用通用处理器肯定不行,一般是方案验证完做asic。fujitsu至少随便问问


乐寻:其实Fujitsu有认识一些人,有工程师有销售。目前Fujitsu有普通的ISP业务和ASIC业务,如果自己没有IP kernel,也可以跟他们买,按照你自己的意愿定制化ISP。但是,价格摆在那里,看你应该是行业内的人,应该知道开一个芯片的大概的费用多少,如果不是特殊的复杂应用还不如用FPGA,虽然功耗大...目前应该没有哪个公司愿意定制ISP,如果有,我可以介绍他们的销售给你

 

尼康的图像处理器

zl2008boy:买工厂封装好的全画幅CMOS,有可能自己做一个相机吗。类似数码后背的想法,带镜间快门的镜头通过PC线和CMOS同步。


乐寻 :数码后背没有接触过,为此楼主特地去查了资料。百度百科上的资料说只能只用CCD不能使用CMOS,我看也不太对,画质上CMOS已经追赶上来了。从个个高端单反都使用CMOS可以说明。如果说是因为CMOS录影只能进行Rolling Shutter曝光这个问题。数码后背主要又不是拿来录影的。从技术上来看,应该没有问题,从CMOS出来RAW data用FPGA或者ISP都可以处理。

 

新七秀:高端中画幅还有ccd,怎么说?


乐寻 :我说的是一个趋势,CCD优势越来越不明显,CMOS最终会取代CCD。举个例子,就像胶片和数码,虽然今天是数码的天下,但是还是会有人用胶片。在我看来,CCD目前唯一的优势是可以帧曝光录影,但是SONY已经研究出可以帧曝光录影的CMOS了。

 

voia:半导体的费用和量有很大关系,除了比较固定的NRE费用,流片费用,其他基本都和量正相关。FPGA的好处是灵活,数码后背里基本上图像处理都靠这个(主要还是量太少),二次开发能力弱点的公司就定制。


乐寻 :没错!!!

 

 

新七秀:楼主,数码相机定制模块化是趋势么?可行么?对焦,快门,图像处理……做成单独可拆卸的模块,d700自己可以换成d4的cmos


乐寻:目前来说,没看到有这个趋势。我觉得各个模块之间的分界不是很明显,然后就是接口、协议,没有统一的标准化。从技术上来看,可以实现,但是实现起来特别麻烦,需要协调和考虑的东西太多,投入的人力成本不小,开发周期也长,而产生的效益有多少好像也挺难说,反正在行业内混了这么久没听到有这种趋势。举个简单的例子,每厂家的CMOS的PIN脚的顺序,个数都是不同的,首先你得让每个CMOS厂家都生产统一pin脚顺序和个数的CMOS。

 

模块化相机

高烧北纬40度:遇到业内人士了,借机问几个小问题,苹果手机拍照出来的效果比安卓好一大截,到底是哪个环节造成的,苹果貌似也是用的SONY传感器,手机上有白平衡传感器吗?各个厂家是如何处理白平衡的?

 

乐寻:你这个问题看似简单,但是要说清楚这个问题可不简单啊。因为涉及到多方面的东西,比较复杂,而说得简单又不是楼主的风格,楼主会尽量试着去说明。

 

  首先要说明的是,任何拍照产品(手机or相机),影响图像质量的主要因素都是sensor+ISP。如果是两个手机使用的同一款sensor,那么差异主要就是有2个,一个是工程师对这款sensor的调试,另外一个就是ISP的处理能力。每款sensor都有自己的特性,比如说光电敏感度,暗态效果等都不同,工程师需要根据这款sensor的特性再结合ISP去做调试,而不同ISP里面有不同的图像处理流程和算法(包括软件算法和硬件算法),比如说去噪,色彩还原,AWB算法,不同的ISP处理出来的效果也不同,就算是同一款ISP,在上面运行不同的软件算法,配合不同的硬件参数,出来的效果差异也很大,这就需要依靠工程师的能力了。

 

  安卓手机主流方案有高通、MTK、三星等,所以使用的ISP也是高通MTK芯片上自带的ISP,当然也可以外挂ISP(Fujitsu、Altek等),工程师就是在这些ISP上去调试的。

 

苹果的A9处理器

  说到苹果的拍照效果,应该说他家的拍照综合能力是业内顶尖的,(话说我们都是拿着苹果手机作为对比机)。这里要说明的是苹果用的sensor是苹果专门跟SONY定制的,虽然是800万,但是无忌这里大家都知道像素不是唯一。如果换算成pixel size,苹果用的sensor绝对算是手机中的大尺寸sensor。关于大尺寸sensor的成像质量表现,相信你也明白。另外苹果所用的ISP是自己设计的,里面有它自己的ISP软硬件算法,个人觉得他家ISP专门为自己的手机所匹配的sensor设计,所以跟其他家需要兼容各类型sensor的ISP相比,针对性更强。(以前有个大牛对楼主说过一句很经典的话:ISP里面所有的处理,都是为了修正sensor的缺陷!)。另外多说一句,其实ISP设计和算法这块,楼主所知道的国内的牛人也很多(能够自己设计整个ISP并且流片),以苹果的薪水,在全球范围招人,也不愁请不到这方面的牛人。

 

  最后就是白平衡(AWB),手机上目前都是用AWB算法,是软硬件结合处理的。现在已经有公司在做AWB传感器的应用研究了,因为目前的AWB算法有自身的缺陷,比如说对大色块的判断往往会失效,单反相机使用的AWB算法跟手机差不多,一样也有这个问题。所以我觉得以后会转向使用AWB传感器吧,不用算法去判断,传感器过来什么色温就是什么色温,准确快速。

 

ssmmss :有没有DIY全副数字简单后背,装在胶片机上过瘾的技术可能性?像R8\R9那样的?


乐寻:个人DIY基本不太可能,就算你能够弄齐配件,能够自己组装起来,各个芯片和模块之间也要相互通信和传输数据的,这个需要你能够自己去写驱动程序去控制,简单的比方就是直接将CCD/CMOS接上ISP/FPGA是不能够工作的,ISP里面需要工程师根据CCD/CMOS的开发手册去写驱动程序驱动,CCD/CMOS才能工作跟ISP传输数据。

 

 

该拍的不拍:CMOS是中国人发明的,太震惊了,怎么没有专利?


乐寻:当然有专利,以下是百度百科上的介绍。在CMOS图像传感器和手机芯片方面有诸多创造发明。他创造性地用CMOS工艺设计和成批生产图像传感器,开创了用CMOS取代CCD的新时代。成功研制和生产出亚洲首颗2G/2.5G GSM/GPRS核心基带单芯片和世界首颗TD-SCDMA 3G/2.5G双模单芯片。他的“2G/2.5G手机核心芯片的研制和开发”获上海市科学技术进步奖一等奖。以他为第一发明人的“Single Chip Color CMOS Image Sensor with Two or More Line Reading Structure”、“Image Acquisition and Processing System”等19项发明获欧、美、英等国发明专利。

 

陈大同 展讯通信(上海)有限公司首席技术官。

在CMOS图像传感器和手机芯片方面有诸多创造发明。

  楼主忽略了一个事实,就是专利发明人和专利所有权是两码事。就比如楼主,虽然有五个专利的发明人,但是然并卵,没错,专利是我发明的,但是只是专利的发明人,而专利的所有权是公司的。呃...每份专利公司只给了3000元奖金。

 

brownpony :赞楼主一下,看来数码相机还有很长的路要走啊,期待苹果弄个好点的相机出来。另外想请楼主点评一下苹果6S和6Sp上的1200万像素的CMOS效果

 

乐寻:因为楼主没有亲自去测试对比,所以也只能从网上能够找到的资料和拍照对比图片去分析对比,如果有不足之处请谅解。首先楼主比较诧异iPhone从800万像素提升至1200像素而sensor尺寸不变,因为提升后pixel size就必然变小,Pixel size从1.5um下降到1.2um,其色彩饱和度,暗态表现等肯定要下降一个档次?后来楼主从找到的各类的对比测试中惊奇地发现这两款手机的暗态效果,颜色饱和度表现居然没什么差异,甚至6s的某些场景下的暗态细节表现还要比6要好,想想也是,一个公司怎么可能发布一款拍照水准比前一款还要差的产品?就比如我们公司每出一款手机都要经过测试部门针对不同环境的严苛测试环境做成千上万次的不同机型的对比测试,何况是苹果?

 

 

chipworks拆解苹果手机  摄像头部分

  所以你能想到的苹果也一定能够想到。但是这个pixel size变小带来的问题苹果是怎么解决的呢?直到后来楼主看到了这一篇文章(点击),里面提到了一个sensor上的DTI像素隔离技术,才恍然大悟。解决了这个矛盾后,1200万像素直接的优势就是解析能力大大提高了。如果拿两个手机去拍ISO12233的解析图,估计6s能比6提高一大截(可惜网上没有这方面的评测)。所以总得来说6s比6在颜色饱和度、亮度、AWB、暗态效果等方面表现基本一致(网上有人说在6s的AWB算法做得更好了,这个因为没有找到有专门严格地针对AWB的对比测试,楼主这里也不能下结论),而在解析度上有不小的提高。另外要说一下的就是6s和6在阴天下拍植物有偏蓝偏冷,当然这个很主观,有人说我就喜欢偏冷的调子那也没办法。

 

 

关于相机人眼对焦:

 

乐寻:大家应该知道相机对焦跟人眼对焦,相机的对焦是改变对焦镜片的前后位置,将其移动到焦距位置上。而人眼对焦则是通过改变眼睛内的晶状体的焦距来做对焦动作的。那么根据这原理,之前就有人提出,可不可以让相机也跟人眼一样,用一个“晶状体”镜头来改变对焦。我原本以为这个技术只存在在实验室阶段,没想到前段时间有看到实物,并且已经具备量产能力可以商用了。搞错,相机对焦也是改变焦距,将焦点落在sensor上。

 

关于液态镜头:

 

液态镜头

乐寻:液体镜头。根据该公司的美国工程师的现场介绍,液体镜片的原理基本和人的晶状体类似,用一个高分子薄膜,形状就做得跟镜片一样,里面装有某种液体(具体什么液体人家是保密滴),然后利用电磁霍尔效应,用一个小装置去抽吸薄膜里面的液体,让这个“镜头”改变曲面和折射的方向,达到改变光路的目的。从这里可以看出,这已经是跟人眼的晶状体的工作状态时一样的了。另外要提一下的就是这个光路折射的方向是完全可以通过电流的强度去做精确的控制。

 

  这里面的控制对方的美国工程师没有讲得很详细,不过楼主已经猜到里面大概的原理。这里剖析一下。根据公式F=BIL,当磁场强度和受感应的长度固定时,产生的力F和电流I是成正比的。做过电子研发的人都知道,如果使用比较好的电流控制芯片,这个电流I其实可以非常容易控制得很精细的。这里控制上不是什么难事,楼主觉得最难的是材料部分,折射率,可控变化范围,还有耐久性等,这个材料才是真正的核心技术!

 

  这个液体镜头模组做得虽然比普通的手机模组要大,但是在能够光学变焦的模组上来说,已经是很小了。(可以看看三星的光学变焦手机)当然这个液体镜头模组有这么多的好处,当然就有一些副作用。根据楼主之前数码相机的开发经验,其实镜头的解析度和畸变程度跟温度是有很大关系的,另外就是跟材质有很大的关系;通常大家觉得使用的手机或者相机的发热对镜片的热胀冷缩改变有限,所以觉得影响不会太大。其实一般一个3~10倍光学变焦的镜头,里面的镜片有10多片,如果每一片因为温度的变化都改变一点点。在光学上,每个镜片误差的累加可以说是指数级别的,不是简单的相加关系。所以最终造成的误差累积其实是很大的。

 

  之前提到关于镜头受温度影响的问题。除了累加误差以外,还有一个就是不同材质的镜片受温度的影响是不同的。其中液体受温度的影响是最大的,然后是树脂镜片,接下来就是玻璃镜片。这里说的树脂其实就是塑料,(镜头行业的人都说是树脂镜片,我也跟着这么称呼好了),一般多用于家用消费级数码相机,手机。也是受限于材质对畸变和解析度的影响,这类镜片的直径没办法做得大,所以直径大的镜片都是使用玻璃材质。另外由于树脂镜片受温度的影响比较大,所以一般行车记录仪这类产品,镜头一般都是使用玻璃材质,因为车内的温度变化比较大,对成像的影响还是挺大。

 

  也不知道有意还是无意,在整场介绍过程中,并没有提到关于镜头的解析能力和受温度影响的问题。于是在介绍结束后楼主问那两个美国工程师有没有测过每个温度下镜头解析的能力。他们回答说有测试小范围的温度,但是手上没有测试报告。于是楼主要求需提供这份测试报告,并且提出由于手机使用的环境不同,温度变化差异很大,希望能够做提供一个-20度到+70度的测试报告。然后就没有然后了,到目前楼主也没有见到这份测试报告...

 

  这个基本证实了楼主的猜想。应该说这个高大上的液体镜头是有致命缺陷的,那就是受温度的影响太大。特别是对于手机,有时候CPU在满负载的状况下,温度的变化是极大的。
如果能够解决这个问题,商业前景非常巨大。

 

 

louisschumacher:请问楼主是做图像质量调教这一块呢?还是数码相机Firmware? 使用什么操作系统? 谢谢。


乐寻:因为楼主在产品终端厂带过,在ISP原厂也呆过,所以基本上都做过,Firmware,3A,IQ Tuning,也写过图像算法,比如图像融合,双边滤波....系统一般都是SOC厂自己写的,大部分都类似UCOS-II这种RTOS。

 

关于行业状况:

 

乐寻:其实可以跟大家说一说这个行业的一些状况。相机研发(包括安防,手机,相机,行车记录仪,ISP原厂,sensor原厂)这个圈子不大。这个行业呆久了几乎每个公司都会有认识的人。

 

  总的来说数码相机有日薄西山的感觉,薪水相对手机来说没有优势(有些除外,比如说运动相机,无人机上的相机等),所以这个行业好多人都转到手机行业中做拍照部分的开发。毕竟目前来讲手机行业这几年还是挺热的。

 

  另外就是芯片研发,包括ISP和sensor(CCD/CMOS)的研发,能够设计算法和芯片的图像处理模块,这些才是基础性的东西,如果懂这些,管你手机相机无人机还是监控设备,全部通吃,因为原理都是一样的,这些人在国内绝对是稀缺人才。

 

树懒:请问楼主,佳能的图样传感器是如网上流传的那样,比索尼的要差得多么?另外佳能的DIGIC系列处理器在业界处于什么水准?

 

乐寻:这两个问题好难回答啊。以楼主有限的知识恐怕是心有余而力不足咯。sensor方面,楼主没有去对比过,所以没办法回答。但是总体来讲SONY的CMOS sensor技术比佳能的要高一个档次,这个是没有争议的(事实上总得来看恐怕不止高一个档次,千万不要只拿一两款sensor来做对比然后得出结论,要从对CMOS sensor的设计、制造、技术储备、量产能力,所能达到的最高水准这个角度去做对比)事实上也有传言佳能后续的sensor有极大可能会采用SONY的CMOS sensor。

 

佳能DIGIC6处理器

  另外,DIGIC是单反的ISP,应该放到单反的ISP里面去比,这里面的处理模块、算法,日本都封得死死的。根本没有机会能够了解得到。也只能从他们官方所宣称的表现来看,应该是顶级的。

 

  之所以不能跟其他的ISP比是因为侧重点不同,没有可比性。比如说手机或者其他能够做快速HDR、连拍能力、全画幅预览、小波去噪、3D降噪(这个算法做得好对噪点的抑制效果能让ISO再提高一个档次),还能4K 录影,这些单发不一定都能够做得到。

 

 

树懒 :感谢。这让我开始憧憬装着索尼“心”的佳能单反了。

 

乐寻:可以看一篇帖子:(点击)帖子里面有几个重要话,如果有空可以深挖一下,里面折射出SONY在CMOS Sensor和影像方面的实力。而单反只是冰山一角,很多技术,不是有钱有能够弄出来的:

 

索尼 F55

  F55最屌东西:人类第一次在这么大的CMOS上实现全区域电子快门!没有果冻效应,没有闪光带效应!而且最大帧率可以达到240fps(DCI 2K)。注意,F35用的是CCD...s35mm画幅(画幅和F65/F55一样,就比APS-C小点)50fps的速度输出!CCD无法在大画幅高像素下高速输出的罩门,直接无视!“这游戏能玩?!”,索尼:“我玩给你看!”

 

  D.CineAlta Premium 2K数字摄影机:F23“3D-A world created by Sony”,说到3D,大家肯定想到阿凡达,而阿凡达16台(F23和F950各8台,两两组合,8套3D,老卡自称Fusion 3D)电影机正是索尼专门给卡梅隆做的!物料+研发花了大概2亿美刀!

 

  例如最初提到的F65,那块CMOS十分逆天。首先是Q67斜交排列的8K分辨率,66.6%的像素利用率(Q67名字的由来)用两倍像素密度实现了拜尔滤色片四倍像素密度才能达到的分辨率,让4K-RGB输出成为可能,并且能有效避免拜耳排列造成的伪色。

 

越玩越抽抽:楼主已经从CMOS讲到镜头了。那么请教一个原始粗暴的问题:经常有人讨论对于成像的影响是镜头重要还是机身重要。那么,就目前趋势下,是否说明更侧重于机身性能,或者说CMOS性能了吧?谢谢


乐寻:两个都重要,这两个是相互配合缺一不可的。事实上一个好的成像是:Lens+Sensor+ISP,没有好的ISP去处理,再好的镜头加上再好的CMOS也白搭。楼主的看法是千万不要纠结于剑宗和气宗...令狐师兄已经给出答案了,你说左手重要还是右手重要?

 

dogo:请教楼主一个问题,cmos或CCD的寿命,买二手单反就怕遇到视频机,用单反摄像对CMOS的寿命有多大的影响?不用担心CMOS或者CCD的寿命。楼主做了那么久相机基本没亲眼见到因为拍照次数过多坏掉的Sensor。

 

乐寻 :可以告诉你一个数据,一般相机开发的过程中,测试部(QA)会做耐久测试,楼主帮他们写过很多测试程序,比如说测试机械快门耐久测试,程序控制相机自动正常拍照50次,间隔5秒,然后关闭机械快门拍照一张,然后再自动正常连续拍照50张,再关闭机械快门拍照一张,如此往复,循环不断...

 

  理论上如果机械快门是没有问题的,拍到的是一张全黑的图片,如果机械快门有磨损或者故障,则无法得到全黑的图片。就这样测试机械快门的寿命,能够拍照几张。很多时候机械快门坏了会更换接着测试,而CMOS/CCD都没见过有出现问题,所以不必担心CMOS/CCD的寿命问题。

 

  另外,在我们开发的时候,CMOS规格书或者开发文档都没有标注拍照张数或者寿命信息。可见Sensor的寿命问题是一个不需要担心的问题。

 

 

parkar :请教一个问题,这东西的薄膜或液体会不会受重力影响而导致薄膜表面形状改变?

 

乐寻 :好想法! 这个楼主还没注意到咧! 高手很多啊,呵呵~!楼主认为理论上一定会,不过这个影响有多大是可以衡量的,如果影响在1%这个级别可以忽略,如果在10%这个级别就不行了,这个就要问具体设计这个镜头的人,这个影响是在哪个级别楼主也无法得知。

 

闰土老师:其实我想知道,国内的产业链,能支撑起一台有一定水平的消费级DC研发、制造和市场化全过程吗?不一定要全部自己制造,能以合理价格买到的都算。
(如果一个变焦镜头组要500,或者一个APSC感光组件要1000,那就不算了,这样要价就是不想卖给你的意思)如果可以的话,希望会有真正好用的DC上市。

 

乐寻 :研发,制造完全没问题,几年前就可以了。深圳大把这样的Design House,可以帮你研发,联系厂家生产。配件供应他们也可以搞定,甚至你要的Lens,CMOS,ISP全部国产的也可以。做好后你要贴什么牌子都行。问题是你拿到这样的机器卖给谁?由于手机拍照的挤压,现在的消费级DC基本上是市场萧条,卖不出去。所以具体这样的实力,但是不会有人去做这一块。

 

新七秀:拍照,拍视频一样?


乐寻 :其实从CMOS这个角度来看,拍照和拍视频是一样的。把自己当成一块CMOS,拍照就是我丢给ISP一帧图片数据。如果拍视频是30FPS,那就是1秒内我拍照30次,丢给ISP 30帧图片数据。

 

parkar:还有个问题不大明白,为何手机和一些小dc从照片切到视频模式,视角会明显减小,而一般单反拍视频好像不会?


乐寻 :你这个问题跟前面新七秀问的那个问题同源,看来楼主要讲得深入一点了。一般sensor是有好几个sensor mode,就是说sensor是由不同的工作模式的。因为相机上LCD的分辨率的关系和ISP的处理能力。

 

  假设CMOS的最大分辨率是1920*1080,而LCD的分辨率是640*480。如果CMOS里面有几个sensor mode,可以输出1920*1080@30fps的数据,也可以输出640*480@30fps的数据。因为LCD的显示分辨率比较低,所以这两种数据给到LCD上的显示效果其实是一样的。所以考虑到功耗或者ISP的性能限制根本无法处理1920*1280@30fps的数据,所以会用640*480@30fps去做预览或者录影,而拍照就切换到1920*1280这个分辨率。

 

  好了这里就有个问题了,1920*1280的画面比例是16:9,而640*480的画面比例是4:3。1920*1280 是无法Scale Down到640*480的,只能Scan Down到854*480。因为CMOS原始的尺寸是16:9的,所以4:3的640*480的数据可以由854*480这个分辨率裁剪而来。这就是为什么视角会明显减小的原因。你可以想一下4:3的CMOS如果要拍出或者录出16:9的视频或照片应该怎么处理?

 

 

8d:请问LZ 用TB上的小铲子+无水酒精,自行动手清理CMOS时是否会破坏掉CMOS?影响有多大? 谢谢


乐寻 :小铲子不知道会不会划伤CMOS表面,无水酒精是没问题的。楼主由于工作关系,在镜头产线呆过一个月。所以有机会亲眼看见他们是如何生产镜头的,楼主亲眼看见他们是用无尘布+酒精 擦拭CMOS和镜片。

 

清洁相机传感器

sorneed:但是用久了,CMOS会噪点增加吧?我的iPhone 3GS刚买的时候拍照很好,用几年就很糟糕了。。


乐寻 :噪点增加有可能是其他元件有问题高频干扰造成。就CMOS来说,老化程度不至于这么严重。如果真是的老化,那么其他人的iPhone 3GS也应该有同样的问题。可以对比一下其他人的iPhone 3GS。

 

和月一字生:我也借帖问一个困惑挺久的心病。因为这心病有不少熟络的摄友都说我这是开始信玄学了。是这样,我有一台尼康的D3数码相机,后来我也买了索尼的A7S数码相机。这两台相机,都是1200万像素。当然,尼康的那台照比索尼的这台,年代上可是骨灰级的了,相差太久。由于两台相机像素一样,且索尼的那台也可以通过转接环转接任意的镜头,我试过用同样的镜头(包括尼康自己的,以及第三方的,也就是副厂头),在同样的布光条件下,同样的机内/镜头设置下,包括ISO快门光圈啊这些,都一样的数值,然后拍同样的东西,都同时用RAW输出。也都同时用同一个软件来打开(PS或者LR或者飞思ONE)但是尼康拍出来的东西,我就觉得比索尼拍的要厚重的多,有质感的多。这简直是很奇怪的事情。


乐寻 :我先回答你一部分吧,如果是RAW就不存在有工程师调教的因素。因为RAW是直接有CMOS出来,然后简单打包一下,没有经过ISP里面各种降噪模块,色彩的处理的,工程师根本没有参与进去。另外你有提到厚重感和质感,这个跟CMOS的宽容度有关。如果把这些RAW用色阶直方图去看的话,D3的色阶曲线一定会比A7S要宽,而且要平。所以呈现出来的就比较有质感很多。这个还是CMOS的宽容度和光电敏感度的问题了。因为RAW是Sensor出来的,比较纯粹,没有经过ISP处理, 所以原因一定是跟CMOS有关,其他基本排除。

 

  另外你提到一个是14BIT另外一个是12bit,理论上,14bit记录的数据和细节更多。但是电脑显示器似乎是8bit 256色阶的。

 

 

dogo :愿闻其详,跟传统的理解的确有出入,景深不是由镜头决定的么?


乐寻 :说来惭愧,楼主开发数码相机很久了,知道今年才知道Pixel Size和景深的关系。起因是在高通平台上面去调对焦算法,其中有用到一个工具。这个工具可以通过填入一些参数自动计算景深。当时楼主发现居然需要填入Pixel Size的大小,于是楼主不淡定了,疯狂地查资料,最后终于明白其中的关系。可以先去查一下 “模糊圈” 这个东西,英文名字 Circle of confusion 。百度百科篇幅太小, 建议去查一下※※※※,讲得比较详细(点击)。

 

dogo :感谢楼主热心的回复,以前没有往这方面想过,提到模糊圈我大概理解一点了。往极端方面想,把Pixel Size放大到碗口那么大,即便模糊圈有碗口那么大,却还是落在一个pixel里面,所以还是在景深范围内。这样想的话,景深跟观看的画幅和距离也是有关系的。看这个点在视网膜上是不是落在一个细胞上。

 

乐寻 :厉害,很快就能够理解。如果要说得理论一点就是看景深的计算公式,下面是景深的计算公式。其中:


δ——容许弥散圆直径
F——镜头的拍摄光圈值
f——镜头焦距

L——对焦距离
ΔL1——前景深ΔL2——后景深ΔL——景深前景深ΔL1=FδL^2/(f^2+FδL)
(1)后景深ΔL2=FδL^2/(f^2-FδL)
(2)景深ΔL=ΔL1+ΔL2=(2f^2FδL^2)/(f^4-F^2δ^2L^2)

 

  以上的公式中看似好像没有Pixel Size什么事。实际Pixel Size决定了δ——容许弥散圆直径,这个量的大小。如果这个公式还能够扩展,δ是需要由Pixel Size计算出来的。从以上可以看出,Pixel Size是景深的主要决定因素。可以说是最核心的那种决定因素。

 

toxic1994:如果要提升iPhone6s手机画质的10%,怎么做合理?采用光学玻璃加镀膜?重新优化isp?加入传感器位移?

 

乐寻 :基本是这么几个方向,用大尺寸sensor,继续优化ISP,采用更好的光学玻璃和镀膜。不过实际上应该会有很多设计上的限制和妥协,没那么简单。

 

 

jjtv:楼主接触过x3吗?从软件的角度看,x3和马赛克的区别是什么?


乐寻 :普通的Sensor是拜耳阵列排列(Bayer Array)的,即第一行如果是RGRG...,第二行就是GBGB...(当然现在有出了四色CMOS,这个也是一样的原理)我们继续拿三色CMOS来举例吧。所以三色CMOS每个Pixel只能记录RGB中的一种。如果CMOS是1920*1080,那么这里只能记录25%的R,25%B和50%的G。如果直接变成一张图去看得话,画面就是花花绿绿的,如同马赛克一样。

 

马赛克与X3

  如何让每个Pixel都能记录一个完整的RGB呢,这就需要用到插值算法。好的比如双线性插值算法,边缘差值算法,自适应插值算法等。差值算法非常多种,总的来讲,效果好的差值算法计算量大,效果差的差值算法计算量相对小。同时效果差的插值算法在边缘处容易出现马赛克和伪色。所以这个就要进行平衡,因为计算量大意味着处理时间长,对于ISP的实时处理性来讲,这个是需要进行评估的。

 

  而X3不是拜耳阵列CMOS,它比较特殊,分层结构,每个Pixel都能完整地记录RGB,不需要进行差值算法。这个是它的优势,因为插值算法无论如何插都没有完整的好,另外就是插值出来的图像边缘处效果比较不好,所以后期需要经过很多边缘增强的锐化算啊进行处理。

 

  但是X3的设计虽然有优势,也是也同样存在副作用,因为一个Pixel同时去记录RGB,这样相当于就变相缩小了每个Pixel的Size,这样算起来理论上X3的Pixel Size是拜耳阵列的1/3,
带来的问题是色彩饱和度,还有光电敏感度没有拜耳阵列的效果好, 另外在高感也没有相同等级的拜耳阵列的CMOS好。这个可以明白?

 

centurion:感谢业内人士的分享!我想问一个大家应该都很关心的问题:近年国内逐渐有镜头登场了,国内什么时候才能出现自己的单反?还需要什么条件,能否学习棒子举国体制办企业的思路?需要苏维埃、※※※、国家计划委员会、军事工业委员会和九个国防工业部、600个相关专业、8000家配套厂家?是不是需要一个伟大的强国才能完成他?这个问题太高屋建瓴了, 楼主从自己的角度来回答吧.

 

乐寻 :原因有以下几个:

 

  第一个是技术上, 一台好的单反是Lens+Sensor+ISP。ISP部分目前不是问题了, 国内不缺好的图像算法工程师, 芯片设计工程师也不少。另外CMOS部分, 以目前的实力, 可以生产手机上和消费级DC上的CMOS, 但是高端的CMOS还没见到有国内的厂家生产。这部分我觉得技术上应该是没有问题, 可能是没有这方面的需求吧.接下来就是Lens部分, 这个非常重要, 因为CMOS还可以买, 这个站在企业发展的角度来看, 是没办法买的。只有自己能够设计制造, 才能形成一个配套的镜头群, 国内目前还无法批量生产高端的商业单反镜头. 注意, 是批量生产高端商业镜头. 这个是要卖钱产生效益的.可不是不考虑成本和性价比, 做航天航空镜头.

 

  第二就是投入产出的问题了, 在以上都不成熟的情况下, 必然有一部分会去购买. 这就涉及到成本问题. 然后就是研发成本, 和设计制造成本, 这种情况下往往花比别人多的成本还制造出不如别人的产品.拥有技术和做出产品卖钱是两码事.

 

  第三就是在目前这个日系厂商几乎把持整个市场的状态下, 你的产品不如别人, 品牌不如别人, 要想得到消费者的认可不容易.要挤入这个市场并且赚钱, 有如螳臂当车. 想想都觉得艰难异常.毕竟, 企业要能赚钱才能接着往下走.

 

  其实也有想过可不可以像华为海思发展ISP的模式那样(很多人可能不知道, 华为海思的ISP相当牛), 找到一个切入点, 从低端做起, 然后做中端, 最后一举杀入高端, 按照他们的说法是洗盐碱地, 变成产粮田.但是日系单反的整个生态已经非常完善, 非常难找到一个突破点.

 

  再回到问题上就是, 国内的镜头, 拿到日系的整个生态系统中去看, 微不足道.人家完全可以不告诉你镜头控制协议, 或者加密, 让你装到他们的机身上也用不了.另外, 以美国的强大, 单反这块也不咋地啊, 也拼不过日本啊?所以, 这个似乎不是国家强大就能够完成的啊. 还是回到生态上看, 日系的生态太强大了. 没办法下手.

 

  最后, 我觉得以后的各方面的技术跟上来了, 或许可以像德国一样, 独立于日系生态之外自己玩自己的.虽然市场相对没日系大, 但也可以有一定份额.

 

  以上, 个人看法, 或有不足之处.

 

 

walkman20 :不是说也可以片上降噪么(索尼好像称之为模拟降噪)?听说这就是cmos的优点。


乐寻 :我说的是IQ Tuning,工程师能够参与进去的降噪模块.是可以通过设定参数控制降噪等级的. 或者通过编写降噪算法来对图像数据进行降噪.片上降噪, 应该是CMOS上有特殊设计的物理电路, 直接去提高CMOS输出的信噪比.这个是IQ Tuning工程师没办法参与进去的.其实降噪这部分范围很广, 看你是怎么定义. 电路上加的几个电容也可以说是一个降噪模块, 因为它确实能提高信噪比。

 

walkman20:楼主能 818 曲面传感器么?手机拍照想要更好的效果,体积又不增加太多恐怕还是需要靠曲面cmos吧?

 

乐寻 :SONY的曲面Sensor, 大概是两年前在某个相机算法开发群里面有见到大家讨论一块.Lens Shading的严重程度跟入射光和Sensor平面的夹角有关.光轴中心入射光和Sensor表面的夹角为90°, 越往周边的地方入射光和Sensor表面的夹角越小.假设中心的入射光强度为E, 那么周边的等效强度应该是E乘以入射角余弦的四次方.(因为大光圈周边的夹角大, 所以这也是为什么大光圈Lens Shading 较为严重的主要原因)

 

索尼曲面传感器

  曲面Sensor理论上可以让中心和周边的入射光跟Sensor切面都为90°, 整个Sensor面的受光均匀自然就不会有暗角.所以 Lens Shading(暗角)这一块, ISP上可以不用算法去做校正了.另外由于周边相当于变成直射受光了, Sensor整体的受光也比之前要多(可以变相理解为光通量增强),所以理论上ISO应该可以提高, 楼主感觉应该可以提高一个等级吧.当然受光亮增多, 对整幅画面的饱和度和颜色也是有提高的.特别是让画面周边部分和中心部分能够保持一致.

 

  另外就是对解析度的影响.目前的平面Sensor, 如果拿去拍ISO12233的解析图, 假设中心在2000 TV Line, 周边(大概0.7视场部分)可能只有1000 TV Line.除了镜头的影响以外, 也和整个Sensor的中心和周边无法同时处于焦点上有关系.而曲面的Sensor的让整个Sensor都处于焦平面上, 理论上除开镜头的影响, 中心和周边的解析度可以表现一致. 特别是对于微距镜头, 这一点尤为重要.

 

  以楼主的剖析, 可能不全面, 遗漏部分请其他高手补充.不过就目前来看, 并没有看到哪块产品有在使用.

 

 

张军长:LZ能否介绍一下相机防抖的情况。相机上有镜头防抖,机身防抖,手机上有何新玩意不?

 

乐寻 :除开电子防抖, 相机上的光学防抖有两大类, 恰好楼主都有调过(调过相机上的, 还没调过手机上的).一种光学防抖是移动Sensor做补偿, 由Gyro Sensor, 也就是陀螺仪侦测到抖动量, 将抖动量反馈给OIS 控制IC, 然后OIS 控制IC根据当前的抖动量计算出补偿量, 控制步进马达移动CMOS/CCD Sensor移动. 抵消抖动, 这个也就是你说的机身防抖.另外一种是镜头防抖, 前面的原理是一样的, 不同的是OIS IC是通过霍尔效应, 用电流的大小去控制镜头里面有一块Hall Lens的移动量. 改变光路来补偿机身抖动。

 

松下GX8  传感器位移防抖+镜头防抖

  第一种防抖, 如果是两轴的话, 就需要将CMOS/CCD做到一个可以上下左右移动的板上, 另外还需要加两个步进马达进行控制.而第二种防抖, 则需要外加一个可以用Hall 效应移动的Hall镜片. 同时在镜头上也需要加磁铁或电磁铁.而手机上的镜头模组的大小是有严格限制的, 不可能做得很大, 而第一种光学防抖方案单单那两个步进马达就不可能做得非常小.所以第一种光学防抖方案是不行的.

 

  而第二种光学防抖方案, 除了在手机模组那么狭小的空间里面外加一个Hall镜片, 还需要加上磁铁或者电磁铁, 这在工艺上是一个难点.所以目前手机模组上有做另外一种方案, 就是将整组镜头变成可以移动.即是整个6P或5P镜头组都可以上下左右移动. 这样工艺上就比较容易实现, 这样就变相地变成了CMOS在相对移动. 而控制上则是采用霍尔效应.

 

  所以这种放学防抖方案其实就是用前面两种光学防抖方案的一部分然后组成一个新的方案. 即是用第二种放学防抖方案的控制方式, 但是思想借鉴第一种光学防抖方案的做法.
等效于第一种光学防抖方案的效果.这样做的目的主要也是考虑到工艺上实现比较简单. 能够尽量控制手机模组的尺寸.但是无论怎么做, 光学防抖的模组总是会比非光学防抖模组做得要大, 或者说比较厚.所以好多带光学防抖的手机都无法避免的会让镜头那一块凸出来.

 

  当然也有不凸出来的, 不过楼主觉得在同等机身厚度下, 没有凸出来的一定是有做性能上的妥协.即牺牲一部分的性能, 换来视觉上的美感.楼主之前有在部门里讲过这部分课程, 摊开讲的话可以可以讲1个多小时的课.这里楼主就大略讲一下, 哪里不懂得可以继续问.

 

 

lzserver : 你说的相位差没算法在里面这个我能理解,因为拆解后我也明白,相位差对焦是独立工作的,还是以富士S3为例,这相机跑焦,我拆机调整相位检测模块的相对位置的时候,只需保证这部分供电正常即可。单反相机发展那那么多年,相位差对焦理论也非常容易理解,硬件发展也非常成熟,以宾得这样技术型的公司,在这方面应该早就吃透了,为何在对焦及追焦方面与尼康产生如此差距以至于用镜头镀膜技术去换尼康的对焦技术?作为一个宾得的用户,非常的希望楼主有时间能在这方面有所阐述、解惑,谢谢。

乐寻 :先从PDAF(相位差对焦)的原理说起吧.首先光线从镜头进来, 然后进行分光处理, 然后分别折射到相位差传感器上.相位差传感器会出来两个类似抛物线的波形, 如果这两个波形叠到一起就说明对焦是清晰的.而相机相机则会根据这个相位差值去动作马达(超声波 or VCM)驱动对焦镜片. 直到两个相位叠加到一起, 从而完成整个合焦动作.

 

 

相位对焦模块 分光过程

  这个过程中, 没有算法参与进来. 所以对焦精度的影响因素有这么几个:分光的精度、相位传感器的转换准不准确、马达的控制精度、动作齿轮的精密度,一般再好的齿轮都是有空隙的, 如果一直往同一个方向运动还好.如果来回运动, 在没有反馈信号的计数上, 就会出现误差, 而这种误差随着来回运动的增加累积, 我们称为Back Lash.基本上也就这么几个地方的差异会导致对焦精确度的不同.

 

   另外你说对焦模块和镜头都是一样的, 但是对焦效果却不同, 这个本身楼主也比较费解, 因为这样已经把上面的原因都排除掉了.极有可能的原因是, 一般镜头厂都会对每个镜头进行误差测量, 比如这个镜头的Back Lash是5, 解析度是1500 TV Line, 另外一个镜头的Back Lash是10, 解析度是1000Line, 而这个镜头规格可能是Back Lash是12以内, 解析度1000 TV Line以上, 那么以上这两个镜头其实都是合格的.但是镜头厂会将其分等级, 根据不同的客户卖不同的等级产品.比较重要的客户或者自己都用等级最高的镜头.这是想到楼主想到的可能的原因。

 

欢乐英雄:那么,猜想在相机里装上测温并反馈镜头液体的调节误差量软件可以部分解决?
 

乐寻 :实际上在镜头上装温度传感器, 然后根据温度来补偿对焦误差, 这个技术在不少镜头上都有运用.比如楼主之前开发一个安防监控器上使用的佳能镜头.开发规格书里面有说明, 当温度从几度到几度的时候, 需要将镜片Offset多少量.

 

  这个方法是有个前提的, 就是你的镜头一致性的问题.比如说, 温度从30度到0度, 需要将对焦镜片Offset 50.好了, 因为是量产的产品, 每个产品用的都是同一套固件, 那么你的补偿量就必须是一样的.也就是说你生产10万个镜头, 每个镜头从温度30到0度产生的误差都必须是一致的. 这样我才能用相同的补偿量去做补偿.

 

  而液体镜头由于液体的浓度, 还有温度导致的误差变化比较大. 所以能不能在量产的时候在误差上保持一致性, 这个是个难点.

 

 

欢乐英雄:请教楼主,一个传言的问题,数码相机的像素改变是什么规律?比如2000万改设置成800万,是在整体传感器里平均“抽出”部分像素还是其他办法?有说法在满像素的下一级(就是减少像素数)成像会更好(比全像素),是真的么?


乐寻 :可以用采样也可以用合并.采样就是在每行/每列上每隔N的Pixel抽取一个Pixel, 这样就可以将图像按比例缩小.

 

  另外一种是合并, CCD/CMOS里面有一种工作模式叫做Binning Mode, 可以去查一下.它是将N个Pixel的能量合并成一个, 比如水平两个,垂直两个, 总共四个合并成一个.相当于变相增加的进光量, 这样方式可以增强Sensor的光电敏感度和饱和度.同时将暗部的效果提高. 最终画质会更好.而ISO也能高一个等级.

 

  所以 "满像素的下一级(就是减少像素数)成像会更好" 这个说法就要看用的是以上哪一种方式.第一种会变得更差, 第二种虽然牺牲了像素, 但是提高了画质.

 

光学老刘:不过以我了解到的视角变窄主要还是由于电子防抖算法的缘故,不管这些细节了


乐寻 :在普通相机和手机上, 使用的电子防抖的机型只占总体的很少一部分.比如手机, 中华小酷联, 魅族一加乐视, 其中有几款手机是用电子防抖的, 占整体手机中又有多少?
另外, 以楼主对相机市场的了解, 使用电子防抖的消费级相机也不算多. 至少不是大部分。

 

  目前有牺牲视角的电子防抖, 一般用于运动相机(比如Gopro).原因有这么几个, 一个是运动相机一般小型化, 由于体积限制, 没办法加效果很好的光学防抖系统(注意, 是很好的光学防抖系统).另外就是光学防抖的防抖等级目前还有极限, 对于高频率剧烈的抖动无法补偿.,而电子防抖可以在这方面做得比光学防抖要好.所以为么多电子防抖一般用于运动相机.

 

  而手机只是多运用于生活场景, 要么加光学防抖, 要么不加防抖.而牺牲视角的电子防抖对于手机并没什么太大的意义. 所以手机厂商一般都不会加进去.

 

光学老刘 :iPhone在录像时是电子防抖(除了plus 不过视频时电子防抖也工作)……。大法的Z系列也是……手机中使用电子防抖的还是占了大多数,也许这是索尼的某些(注意是某些 并不是全部)IMX手机系列CMOS打包的功能,暂时无法考证……其实能加光学防抖的相机或者手机几乎都加这个功能,运动相机其实更应该加光学防抖,没加的原因一个是成本问题,另一个是可靠性,毕竟运动相机对使用场景要求比较苛刻,光学防抖再怎么着也不如电子防抖耐操……再一个电子防抖的实现成本很低,属于算法范畴,没有硬件要求,所以好一点儿的手机在录像时几乎都有电子防抖,也都有视角损失。因此你的观点“手机厂商一般不会加进去”是错误的。


乐寻 :除了iPhone的部分机型和SNOY的部分机型, 还有哪些是用电子防抖呢?所以我说你要看一下加了电子防抖的手机占全部手机中有多少.另外, 可以告诉你IMX手机系列CMOS没有打包这个功能, 我自己本身就是做手机的.(中华小酷联, 魅族一加乐视 其中一家, 你猜是哪家? 呵呵)。还有一个就是牺牲视角的电子防抖, 是要硬件成本的, 一样要加一块Gyro Sensor IC.

 

pentax1001 :请问楼主关于缩图算法的问题...在PS里缩图的时候,有几个选项:临近、两次线性、两次立方(两次立方里又分为平滑和锐利),这几个选项...

 

乐寻 :光看名字没办法知道里面的算法是如何实现的,这个实际哪个比较好还是要看PS的说明文档对这几个功能的解释或者自己拿图片去实验。楼主也不知道它图像算法的具体实现
另外,图像的后期,锐度和噪点基本上是一个矛盾,锐度调高,噪声多少都会变大,所以一般图像算法在进行去噪以后锐度都会下降,有些可以明显看到图像锐度明显降低,一般复杂的图像去噪算法锐度的影响小,反之亦然。另外,缩图要看它用的是哪种算法进行缩图,处理上当然可以通过缩图算法来降噪。

 

 

pentax1001:谢谢回复!随便再请教楼主一个问题...目前比较流行的,解RAW文件的算法有几种...哪种比较好用!?

 

乐寻 :这个似乎不能归结到算法的范围了吧!?怎么说呢, 从sensor出来的的raw数据的格式可能是 第一行RGRG…, 第二行GBGB…, 第N行…
如果是16bit数据深度, 数据的排列可能是0x0A0B(R), 0x0A0C(G), 0x0A0D(R)…在这个数据基础上, 每个厂商对这个数据进行扩展或者重新编排, 加入相机的信息, 比如机身型号, 镜头型号,类似这些信息, 将sensor出来的raw数据重新打包成一个文件。

 

  所以从这里可以看出, 这里面似乎不能归为算法的内容,而要看每个厂商是怎么打包这些raw数据的, 然后按照他们打包的格式进行解码读取就行了.当然, 前提是你要知道他们是怎么打包的格式是怎样的.目前来看, 每个厂家都有自己打包raw数据的方式.(感觉类似是以前手机的功能机时代, 各家手机有自己的充电和数据接口)所以也没流行不流行的说法.

 

pentax1001:可能是我没说清楚...现在比较流行的第三方软件PS;ACDSEE;LR......都可以解RAW!它们和原厂软件是否有本质差别?如果差的话能差多少?

 

乐寻 :我觉得你可能没表述清楚解raw和对raw进行处理的区别.单解raw是没差别的, 但是对raw的处理上不同的处理软件会有不同. 比如其中一个处理: 插值,是用三次样条插值还是自适应插值, 或者用几种插值算法的结合,这些各家都有自己的一套算法.效果也不同。

 

佳能DPP RAW显像

  另外提一个就是用后期软件对raw差值和ISP上对raw插值的不同,ISP对实时性有要求, 要同时兼顾插值效果和处理时间.而LR这些软件就不用考虑处理时间, 哪个效果好用哪个, 哪怕一张raw上用的插值算法的处理上得花10秒20秒都没问题, 只要是插值出来的效果好就行, 画质才是首要的, 哪个效果好用哪个.但是如果相机上拍个图花5秒钟才出Jpg, 估计得被人骂死.

 

关于JPG压缩算法

 

乐寻 :这个问题有意思.不过先纠正一下, JPG压缩算法无太大差别, 这个是标准的图像压缩算法, 各家都一样, 不一样的是从raw到jpg的这个过程中各家处理得不同.因为这个问题限定条件太少, 从严谨方面, LZ要说明一下会影响的因素, 首先从raw的源头摊开讲.

 

  就是sensor方面, 就算是两个同样的sensor, 出来的raw都可以不同.因为ISP可以对sensor设置曝光时间, Gain值, 还可以通过光圈控制进光量.Zoom在哪个位置, 镜头用的是哪个.
另外某些sensor上还有自带有降噪功能, 而降噪等级是可以进行设定的.以上这些因素都会影响sensor出来的raw的质量.如果受以上这些因素影响, 出来raw差异太大, 后面是很难调成风格一致的.就像一个苦瓜, 一个青瓜, 要炒成一样的味道, 理论上是有可能, 但是实际上很难.

 

CMOS(84)
DC(527)
数码相机(991)
软件研发(1)
猜你喜欢