5G已经片区使用,很多小伙伴对通信这块还不熟系!越来越多的人开始对IT、5G信息方面产生兴趣,近来陈可辛的《三分钟》 手机拍照的五年的话题也是引起了很多人的关注,那么既然现在大家都想要知道陈可辛的《三分钟》 手机拍照的五年,小编今天就来给大家针对陈可辛的《三分钟》 手机拍照的五年做个详细介绍。
导演陈可辛最近帮苹果拍了一部广告片《三分钟》,片尾的“iPhone X拍摄”引发了不少争议,因为这次拍摄陈可辛用到了大量外设:比如长焦镜头、无人机、OSMO手持云台。
陈可辛的这次拍摄击中了大部分人心中的痛点:与专业的单反和微单相比,手机摄影经常还是那个“甘拜下风”的落败者。
通过这短短的三分钟,或许你已经对手机拍照这近五年来的发展和表现失去了信心。但实际上,2012年以来,手机厂商们绞尽脑汁,用上了各种改善手机拍照成片效果的方法。手机拍照与单反的差距正在逐渐缩小。
根据DxOMark的统计,从最早的诺基亚808到今天的旗舰手机(比如GooglePixel 2、iPhone X和三星Galaxy Note 8),苹果、三星和Google手机的图像质量和视频性能逐代上升,成片效果越来越好。
本文梳理了苹果、三星、Google和华为的旗舰手机是如何提升拍照的质量,让你在购买某一款手机之前,就对它的拍照水平有了一个详细、全面的参照系。
“漆黑一片”还是“噪点爆炸”
要想说清楚具体某一款手机的拍照水平,首先需要建立一个评价照片质量的指标体系。根据DxOMark的评价体系,照片质量的优劣主要由纹理和噪点、曝光、自动对焦、变焦质量和散景效果这六大指标决定。
其中噪点和纹理对照片观感影响最大,尤其是夜景——拍照水平不及格的手机常常表现为漆黑一片或者噪点特别多,比如这样的:
为了减少噪点,提升画面纯净度,同时兼顾夜景的亮度(亮度太低,画面也会损失大量的纹理细节),无论是相机还是手机,最常用的方法是增加图像传感器尺寸来改善相机的光线捕捉能力和图像质量。
瓶颈——传感器尺寸
但是更大的传感器尺寸对于设计轻薄化的手机来说是一个很容易达到的瓶颈——手机内部留给相机模组的空间就那么点大小,很难塞得下更大的传感器尺寸了。这条路基本上被堵死了。
另一种办法是长曝光——用较低的快门速度增加进光量,比如Android手机相机UI普遍提供的手动模式,你可以手动调节曝光时间和ISO。这样拍出来的夜景的确很光滑,亮度也能达到夜视仪的水平。但前提是你需要一个三脚架,而且拍摄的物体最好是静止不动的——8秒的曝光时间非常容易拍糊。
用手机拍个照不仅要带着三脚架,还要等上个8秒甚至半分钟,这可以说是用户体验的巨大倒退了,也违背了手机轻便化的初衷。
力挽狂澜的降噪算法
目前主流旗舰手机的解决方案是算法,具体到低光照片的专业名称为时域降噪(TNR),结合多帧图像数据以增加拍摄时累计的曝光时间。合并多帧图像来消除噪点。
以iPhone 5s以来的历代iPhone为例,iPhone 6的成像硬件与iPhone 5s相同,但它的噪点和纹理都比前代产品好。主要的原因是iPhone 6配备了苹果的A8芯片,与iPhone 5s的A7处理器相比,A8具有改进的图像信号处理器(ISP)。DxOMark提供的5勒克斯低光照片显示:从iPhone 5s到iPhone 6,照片细节的增加非常明显,就像是你看腾讯视频的时候清晰度从标清上调到高清的差别。
降噪算法不只是会让“差的变好”,如果没优化好,也会让“好的变差”
比如新一代的iPhone 7 Plus,相比前代,iPhone 7 Plus的像素更高,镜头光圈更大,而且配备了光学防抖。但在细节方面,它和iPhone 6并没有太大的差别。因为苹果为了使iPhone 7 Plus的噪点少于iPhone 6,调整了iPhone 7 Plus的图像处理参数。
降噪算法坑队友的情况到了iPhone X这一代得到了改善——iPhone X得益于改进的时域降噪算法,噪点比iPhone 7 Plus低,而且拥有更丰富的纹理细节。
历史总是惊人的相似——同样的「坑队友」也曾发生在诺基亚808上。而且这位前辈其实更冤,因为诺基亚好不容易往手机里塞入了一个传感器尺寸高达66mm²相机模组(即使是2017年,市面上尺寸比较大的传感器,比如华为Mate 10 Pro也只达到了29mm²),最终的成片效果却被算法坑了,甚至还不如传感器尺寸只有18mm²的iPhone 5s。
虽然诺基亚808底大,但是诺基亚工程师只是简单地移植了之前用于较小图像传感器的曝光策略,最终在1勒克斯的极低光下拍摄的样片是这样的:
“车祸现场”的诺基亚808
自动HDR
白天拿起手机拍照的时候,在有蓝天和风景的情况下,如果你想拍清楚风景的暗部纹理,需要点击屏幕把测光的焦点对准要拍的风景。这种场景下拍出的照片,蓝天有很大几率过曝或者偏色。不断优化的HDR算法发挥了作用,你在这种高对比度场景也能拍出比较蓝的天空。
自动HDR早在2010年的手机就有应用,但是直到2013年发布的iPhone 5s,自动HDR优化的也并不好。由iPhone 5s拍摄的样片可以看到蓝天,但天空的色彩仍然比较偏青色而非蓝色,而且最亮的高光位区域仍然出现了一些剪贴纹理。到了新一代的iPhone 7 Plus,自动HDR已经能够完美地保留天空的色彩,而且iPhone 8 Plus也使阴影变亮了些,以便在非常黑暗的前景区域中还原出一些细节。
“逆光也清晰”——这可能是vivo最成功的广告词之一,借用这句广告词可以很形象的说明自动HDR的另一功效:改善逆光人像。
每年HDR算法的升级也在不断提升逆光人像的拍摄效果。iPhone 8 Plus还增加了人脸检测功能,人脸和背景的图像细节变得更容易兼顾了。
人像模式
说到拍摄人像,由iPhone 7 Plus带动的手机拍照潮流是双摄像头加持的人像模式。有了这个功能,你再也不能像以前那样,简单的以有没有人像的背景虚化来区分照片是单反还是手机拍摄的。
如果你有女朋友的话,一台有人像模式的手机可以说是必备品了。
手机厂商们的背景虚化目前分成了三大流派:以苹果为代表的“广角+长焦镜头”的双摄派,以华为为代表的“双广角”派,以Google为代表的单摄像头派。
其中Google Nexus 6P和Pixel仅通过单摄像头就可以实现人像模式,可以说是真正体现了Google“用数学拍照”的强大实力。不过与双摄像头的iPhone X、三星Galaxy Note 8、华为Mate 10 Pro相比,还是不够完美。
根据DxOMark的测试,Google这种单摄像头实现背景虚化的方法是在不同的焦点设置下快速连续拍摄几张照片,然后合并拍摄结果。比如Nexus 6P在摄像头稍微向上移动时拍摄了一系列照片,由此产生的景深图经常会出现一些错误。
苹果和华为代表的另外两个流派目前的旗舰机都能很好的实现背景虚化,不过Mate 10 Pro的双广角在焦距上有些吃亏。Mate 10 Pro的景深模式采用等效35 mm左右的视野来拍摄人像,这并不是典型的人像焦距,无法拍出与配备了等效50 mm副镜头的iPhone X完全相同的人像照片。
“三大流派”需要改进的依然是夜景,在昏暗的环境中,所有的图像都出现了大量的亮度噪点,这在人像的肤色上尤其明显。
视频防抖
陈可辛在拍摄《三分钟》的过程中,最为重要的外设之一是大疆OSMO手机云台。那个小男孩在人群中穿梭,奔跑着找妈妈的那段就是导演把iPhone和云台固定在小男孩身上拍出来的。
其实,如果不是剧烈奔跑的场景,只是日常生活视频,比如最近很火的Vlog,一台有视频防抖功能的手机也基本够用了。
视频防抖是一个需要手机软硬件高度协作的系统,除了目前旗舰手机标配的光学防抖,更早的集成陀螺仪也已经成为必备功能。
苹果是第一个通过集成陀螺仪数据来增强视频稳定性的手机厂商。陀螺仪和图像传感器数据同步需要很好的软硬件协作,苹果发挥了它完全控制其手机上的所有硬件和软件元件的优势,早在2013年发布的iPhone 5s上就已经实现了比较稳定的视频效果。
而Google Pixel再次发挥了算法的优势,通过“非因果防抖”的技术,使用大约一秒钟的视频缓存器来让防抖系统预测未来的摄像头运动。但是这种防抖功能需要陀螺仪提供非常可靠的数据,2012年或2013年的老旧陀螺仪组件已经力不从心了——你在比较旧的Android手机上即使安装了Google Camera,也达不到Pixel的视频稳定效果。
长江后浪推前浪,手机拍照一代比一代更好了,除了算法和光学防抖的改进,新技术层出不穷,手机摄像头的光圈在变大,双像素传感器与相位传感器的结合带来了更快的自动对焦,人脸检测依托算法也变得更加智能。
看到手机厂商们这么努力提升拍照水平,生产研发单反的“牙膏厂们”是不是也要加把劲了?
图片和测试数据来源:DxOMark