首页>教程>实用技巧>为什么只有部分iPhone支持人像模式?

为什么只有部分iPhone支持人像模式?

2017-10-11
21459
来源:爱思助手


去年苹果兴高采烈推出iPhone 7 Plus,手机的摄像头增加一个新功能,很快这个功能就成为许多人谈论的话题,还有很多企业复制,它就是“人像模式”(Portrait Mode)。


人像模式用手机的两个摄像头和苹果软件模仿单反相机,让图像变得和单反一样,简单来讲就是将拍摄对象突出显示,让背景虚化。


最开始时,人像模式只用在iPhone 7 Plus手机上。一年多过去了,现在人像模式又出现在iPhone 8 Plus上,很快还会进入iPhone X。


人像模式到底是如何工作的?如何使用?为什么只有部分iPhone支持,另一些不支持?今天我们就来深入解释一下:


需要双摄像头


为什么只有部分iPhone可以使用人像模式呢?比如iPhone 7 Plus、iPhone 8 Plus、iPhone X,原因很简单:苹果人像模式需要双摄像头。


2016苹果推出人像模式,没多久,这个功能就出现在其它旗舰手机上,比如三星Galaxy Note 8(叫作Live Focus)、谷歌Pixel(叫作Lens Blur)。


看看Pixel手机,它只有一个镜头,谷歌利用软件让图像达到人像模式的水平。苹果iPhone需要两个摄像头才能实现,至少目前需要两个。如果你购买iPhone 8,没有办法使用人像模式。


为什么需要2个镜头


为什么苹果人像模式需要2个镜头?因为每一个镜头都是不同的,一个是1200万像素广角镜头,还有一个是1200万像素远距镜头。


当我们拿起手机用人像模式拍照时,两个镜头发挥不同的作用。


远距镜头负责捕捉图像,捕捉时广角镜头正在忙着收集数据,判断拍摄对象离手机有多远,然后用数据制作9层深度图。


深度图相当关键


广角镜头制作的深度图影响最终结果,有了深度图,苹果图像信号处理器才能知道哪部分应该清晰显示,哪部分应该虚化。


看看上面这张图片,左边是标准iPhone照片,右边是用人像模式拍摄的。扫一眼就会发现,右边的照片背景完全虚化,这说明深度图发挥了作用。


为了让照片看起来更自然,更接近单反照片,苹果图像处理器会一层一层扫视深度图,一层一层虚化,虚化的程度各有不同,这种处理技术名叫“散景”(bokeh)。


靠近拍摄对象的层会比远一些的层更清晰,细细查看上面的照片,就会发现靠近女子的物体更容易辨识,比如草、地面上的木条,远处的悬崖更难辨别。


人像模式也有不足的地方


一般来说,如果拍摄的对象包含人物和静物,使用人像模式比较好,不过该功能也有一些限制:它对光强、人与拍摄对象的距离要求比较高。


在低光环境下,人像模式的效果并不好,或者根本无法使用。如果太黑暗,人像模式无法使用,拍照App会提示你。


如果离拍摄的对象太近,手机也会提醒你保持距离。如果想拍好人像模式照片,你离拍摄对象的距离最好不要小于19英寸。


还有一点要注意:如果拍摄对象与背景对比强烈,人像模式拍出的效果最好。如果拍一只白色咖啡杯,杯子放在白色柜台上,传感器就会着急,它无法判断焦点在哪里,不知道哪部分应该虚化。


使用更简单


苹果希望人像模式使用时能够变得更简单,例如,如果照片中有一些效果你不喜欢,可以自由删除。


如果你拍了一张人像模式照片,后来又改变主意,想在拍完之后删去虚化效果。好办,只要选择照片,按编辑按钮,然后触击“人像”选项。此时照片就会变成标准iPhone照片。


只有iPhone 7 Plus、iPhone 8 Plus和iPhone X支持人像模式,后两款手机还支持“Portrait Lighting”,它可以调节拍摄对象周围的光线,让照片呈现出不同的效果。


iPhone 8和8 Plus已经开始销售,iPhone X将于11月3日开售。

相关文章