华为P8的RGBW传感器真的好吗?

  4月15日,华为在伦敦如约发布了传说中的华为P8,不错的外观设计,精巧的做工,不差钱的发布会和媒体宣传,让华为P8这两天在媒体上刷屏。

  从产品看,华为P8外观和做工不错,但是配置乏善可陈,麒麟930性能平平,1300万摄像头,1080P屏幕都是大路货,唯有还有点靓点的就是这个RGBW传感器,华为号称能够提升照片32%的亮度(高对比度),低光环境下降低78%的彩色噪点,这个技术真的这么好吗?

  我们用手机拍照,手机拍照的过程是这样的,镜头进入光线,CMOS把光线转化成电信号,记录下来,ISP芯片对信息进行处理,最后由手机处理器处理储存。华为的这个RGBW指的就是CMOS上的技术。

  CMOS可以视为一个个小点的阵列,每个小点对光线进行转换,但是CMOS本身是单色的,而我们看到的世界是彩色的,这就需要一个转换。

  通常,我们用拜尔排列的滤色片来做这个转换,在图像传感器前面,设置一个滤光层,上面布满了一个个滤光点,与下层的像素一一对应。每个滤光点只能通过红、绿、蓝之中的一种颜色,不同颜色的滤光点的排列是有规律的:每个绿点的四周,分布着2个红点、2个蓝点、4个绿点。绿点的数量是其他两种颜色点的两倍。这是因为人眼对绿色最敏感,所以滤光层的绿点最多。

  而红蓝绿三色经过调和计算可以组合出五颜六色,于是CMOS采集的信号在经过处理环境,就能拍出彩色照片来了。

  

553092ead9586.jpg

 

  华为所谓的RGBW,就是在红、蓝、绿三色之外,再加一个白色的滤色片,组成四种颜色,然后再计算。

  为什么要这样干呢?因为红蓝绿三色滤色,每一个都会过滤掉部分光线,这就降低了亮度,因为光线损失的比较多。而加入一个白色滤色片,白色是不会过滤光线,投过滤色片照射到CMOS上的光线就比较多,这就增加了亮度。

  而亮度增加,低光环境下的噪点就减少了,这就是华为宣称的提升照片32%的亮度(高对比度),低光环境下降低78%的彩色噪点。

  从实际拍照的样张画面看,华为P8在暗光下的色点确实减轻了不少,这个技术是有效的。

  但是,为什么这种东西并不普及呢?只有索尼在新款CMOS里面部分使用。因为这种技术并不是没有代价的。

  一个CMOS上的点阵数量是有限的,当你把四分之一的滤色片去掉换成白色,就意味着这个CMOS上面采集色彩的CMOS面积下降了四分之一。

  

5530936e7b5c5.jpg

 

  意味着,色彩信号下降了四分之一,对于彩色图像来说,原始信号的减少意味着色彩饱和度的下降和色彩层次的丢失。虽然通过后期处理,可以强行提升色彩饱和度,但是色彩层次感的下降是很难通过后期ISP的算法优化来解决的。

  所以这种CMOS拍出来的照片会显得比较平。亮度的提升是以色彩的下降为代价的,这是一把双刃剑。

  其实,类似的技术曾经被用在液晶屏幕上,传统上液晶屏幕也是RGB三色排列(不是拜尔排列),曾经有厂商加入白色,来提升亮度,但是代价是色彩黯淡,这种屏幕反而没有流行开。

  如今华为吃了螃蟹,在手机上用RGBW的CMOS,市场反应如何我们还要看看,大家是更喜欢亮度还是色彩,市场说了算。

  现在手机拍照技术发展了很多流派,RGBW算一种,双摄像头,多帧合成……。

  

553093fde81d1.jpg

 

 

  但是从对比看,还是诺基亚808简单粗暴的大面积CMOS画质最好。未来厂商如果真正想有所突破的话,还是定制大面积CMOS才是王道。