用NewsHub追踪最热门的话题,分分钟更新,不容错过。 现在马上安装。

陈可辛的《三分钟》:手机拍照的五年

2018年2月8日 上午7:57
41 0
陈可辛的《三分钟》:手机拍照的五年

  导演陈可辛最近帮苹果拍了一部广告片《三分钟》,片尾的“iPhone X拍摄”引发了不少争议,因为这次拍摄陈可辛用到了大量外设:比如长焦镜头、无人机、OSMO手持云台。

  通过这短短的三分钟,或许你已经对手机拍照这近五年来的发展和表现失去了信心。但实际上,2012年以来,手机厂商们“绞尽脑汁”,用上了各种改善手机拍照成片效果的方法。手机拍照与单反的差距正在逐渐缩小。

  根据 DxOMark的统计,从最早的诺基亚808到今天的旗舰手机(比如Google Pixel 2、iPhone X和三星Galaxy Note 8),苹果、三星和谷歌手机的图像质量和视频性能逐代上升,成片效果越来越好。

  要想说清楚具体某一款手机的拍照水平,首先需要建立一个评价照片质量的指标体系。根据DxOMark的评价体系,照片质量的优劣主要由纹理和噪点、曝光、自动对焦、变焦质量和散景效果这六大指标决定。

  为了减少噪点,提升画面纯净度,同时兼顾夜景的亮度(亮度太低,画面也会损失大量的纹理细节),无论是相机还是手机,最常用的方法是增加图像传感器尺寸来改善相机的光线捕捉能力和图像质量。

  但是更大的传感器尺寸对于设计轻薄化的手机来说是一个很容易达到的瓶颈——手机内部留给相机模组的空间就那么点大小,很难塞得下更大的传感器尺寸了。这条路基本上被堵死了。

  另一种办法是长曝光——用较低的快门速度增加进光量,比如Android手机相机UI普遍提供的手动模式,你可以手动调节曝光时间和ISO。这样拍出来的夜景的确很“光滑”,亮度也能达到“夜视仪”的水平。但前提是你需要一个三脚架,而且拍摄的物体最好是静止不动的——8秒的曝光时间非常容易拍糊。

  目前主流旗舰手机的解决方案是算法,具体到低光照片的专业名称为时域降噪(TNR),结合多帧图像数据以增加拍摄时累计的曝光时间。合并多帧图像来消除噪点。

  以iPhone 5s以来的历代iPhone为例,iPhone 6的成像硬件与iPhone 5s相同,但它的噪点和纹理都比前代产品好。主要的原因是iPhone 6配备了苹果的A8芯片,与iPhone 5s的A7处理器相比,A8具有改进的图像信号处理器(ISP)。DxOMark提供的5勒克斯低光照片显示:从iPhone 5s到iPhone 6,照片细节的增加非常明显,就像是你看腾讯视频的时候清晰度从标清上调到高清的差别。

  比如新一代的iPhone 7 Plus,相比前代,iPhone 7 Plus的像素更高,镜头光圈更大,而且配备了光学防抖。但在细节方面,它和iPhone 6并没有太大的差别。因为苹果为了使iPhone 7 Plus的噪点少于iPhone 6,调整了iPhone 7 Plus的图像处理参数。

  降噪算法“坑队友”的情况到了iPhone X这一代得到了改善——iPhone X得益于改进的时域降噪算法,噪点比iPhone 7 Plus低,而且拥有更丰富的纹理细节。

  历史总是惊人的相似——同样的“坑队友”也曾发生在诺基亚808上。而且这位“前辈”其实更冤,因为诺基亚好不容易往手机里“塞入”了一个传感器尺寸高达66平方毫米相机模组(即使是2017年,市面上尺寸比较大的传感器,比如华为Mate 10 Pro也只达到了29平方毫米),最终的成片效果却被算法坑了,甚至还不如传感器尺寸只有18平方毫米的iPhone 5s。

  白天拿起手机拍照的时候,在有蓝天和风景的情况下,如果你想拍清楚风景的暗部纹理,需要点击屏幕把测光的焦点对准要拍的风景。这种场景下拍出的照片,蓝天有很大几率过曝或者偏色。不断优化的HDR算法发挥了作用,你在这种高对比度场景也能拍出比较蓝的天空。

  自动HDR早在2010年的手机就有应用,但是直到2013年发布的iPhone 5s,自动HDR优化的也并不好。由iPhone 5s拍摄的样片可以看到蓝天,但天空的色彩仍然比较偏青色而非蓝色,而且最亮的高光位区域仍然出现了一些剪贴纹理。到了新一代的iPhone 7 Plus,自动HDR已经能够完美地保留天空的色彩,而且iPhone 8 Plus也使阴影变亮了些,以便在非常黑暗的前景区域中还原出一些细节。

  每年HDR算法的升级也在不断提升逆光人像的拍摄效果。iPhone 8 Plus还增加了人脸检测功能,人脸和背景的图像细节变得更容易兼顾了。

  说到拍摄人像,由iPhone 7 Plus带动的手机拍照潮流是双摄像头加持的“人像模式”。有了这个功能,你再也不能像以前那样,简单的以有没有人像的背景虚化来区分照片是单反还是手机拍摄的。

  手机厂商们的背景虚化目前分成了三大流派:以苹果为代表的“广角+长焦镜头”的双摄派,以华为为代表的“双广角”派,以谷歌为代表的单摄像头派。

  其中Google Nexus 6P和Pixel仅通过单摄像头就可以实现人像模式,可以说是真正体现了谷歌“用数学拍照”的强大实力。不过与双摄像头的iPhone X、三星Galaxy Note 8、华为Mate 10 Pro相比,还是不够完美。

  根据DxOMark的测试,谷歌这种单摄像头实现背景虚化的方法是在不同的焦点设置下快速连续拍摄几张照片,然后合并拍摄结果。比如Nexus 6P在摄像头稍微向上移动时拍摄了一系列照片,由此产生的景深图经常会出现一些错误。

  苹果和华为代表的另外两个流派目前的旗舰机都能很好的实现背景虚化,不过Mate 10 Pro的“双广角”在焦距上有些吃亏。Mate 10 Pro的景深模式采用等效35 mm左右的视野来拍摄人像,这并不是典型的人像焦距,无法拍出与配备了等效50 mm副镜头的iPhone X完全相同的人像照片。

  陈可辛在拍摄《三分钟》的过程中,最为重要的外设之一是大疆OSMO手机云台。那个小男孩在人群中穿梭,奔跑着找妈妈的那段就是导演把iPhone和云台固定在小男孩身上拍出来的。

  苹果是第一个通过集成陀螺仪数据来增强视频稳定性的手机厂商。陀螺仪和图像传感器数据同步需要很好的软硬件协作,苹果发挥了它完全控制其手机上的所有硬件和软件元件的优势,早在2013年发布的iPhone 5s上就已经实现了比较稳定的视频效果。

  而Google Pixel再次发挥了算法的优势,通过“非因果防抖”的技术,使用大约一秒钟的视频缓存器来让防抖系统预测未来的摄像头运动。但是这种防抖功能需要陀螺仪提供非常可靠的数据,2012年或2013年的老旧陀螺仪组件已经力不从心了——你在比较旧的Android手机上即使安装了Google Camera,也达不到Pixel的视频稳定效果。

  长江后浪推前浪,手机拍照一代比一代更好了,除了算法和光学防抖的改进,新技术层出不穷,手机摄像头的光圈在变大,双像素传感器与相位传感器的结合带来了更快的自动对焦,人脸检测依托算法也变得更加智能。

来源: tech.huanqiu.com

分享社交网络:

评论 - 0