MENU

为何 iPhone 像素低拍照却好?

• 2021 年 02 月 24 日 • 信息互联

对于高像素手机的追求,手机厂商可谓铆足了劲的追赶,特别是近 2 年,我们可以看到很多手机厂商都在宣传自家 4800 万像素、6400 万像素甚至是一亿像素的手机。然而,苹果的 iPhone 却是一个例外,从 iPhone 6S 开始,苹果就一直沿用祖传的 1200 万像素,现在售价近万元 iPhone 12 系列依旧如此。这么多年 iPhone 像素一直没变,但是其综合拍照能力却处于第一梯队,这背后的原因到底是什么?

很多用户认为手机像素越高就越好,手机摄像头的像素固然对手机的成像有着很大的影响,但要搞清楚的是,像素高并不意味着拍照就好。

像素是构成一张照片的最小单位。 我们看到的图片其实都是由每一个像素点组成,而每一个单独的 “色点” 就是我们常说的像素。一张图片由 1200 万个色点组成,那么图片像素就是 1200 万。

成像效果并非取决于像素高低,感光元件的大小更加重要。胶片时代感官元件指的是底片,而发展到现在的智能手机年代,感光元件就是指镜头后面用来接收光线的一块 “小板”。

成像画质的好坏取决于感光元件捕捉到光的多少来决定,感光元件越大,能捕捉到的光线就越多,传感器感光性能越好,就能够带来更细腻的画质。同时,更大的底,在单个像素面积相同的条件下能堆积更多的像素点。

举个例子,iPhone 12 Pro Max 虽然是 1200 万像素,苹果专门为其定制了一枚 1/1.7 英寸的大底传感器,其感光元件尺寸增大 47%,像素尺寸增大至 1.7 微米,低光拍摄效果更是提升高达 87%。iPhone 的像素虽然没变,但传感器等硬件却不断升级,这是其成像水平保持稳定在第一梯队的重要原因之一。

像素高只能证明图像承载的信息多、细节丰富,但并不能代表照片质量一定就高。手机的成像质量,除了受像素影响外,还与手机镜头本身、传感器感光元件、图像信号处理器以及软件算法等有关。

苹果供应链的整合能力是业界出了名的强,影像方面也毫不例外。首先,财大气粗的苹果,对于 iPhone 零部件相来都是独家定制,目前主流手机厂商的传感器供货商只有少数的几家,而索尼是目前全球最大的影像传感器供货商,苹果同样采用索尼的 CMOS,但是其素质却更好,同时也没有任何一家厂商能拿到和 iPhone 同样的模组,毕竟苹果对于其供应链要求是相当严苛的。

其次,苹果 iPhone 在软件算法上的积累同样深厚,2017 年 iPhone X 发布,A11 仿生芯片也随之面世,之所以称其为 “仿生”,是因为苹果在这款芯片上首次集成自研的 Neural Engine 神经网络引擎,其配合新型的 ISP 算法,iPhone X 率先在业界实现了光照环境侦测等一系列拍照算法。

之后,A 系列仿生芯片不断更新换代,其神经网络引擎算法对于拍照的优化也不断增强。例如,iPhone 12 系列的智能 HDR3 算法,会利用机器学习技术,智能地调节照片的白平衡、对比度、质感和饱和度,让画面看上去更自然。

全新的计算摄影功能,所有摄像头均支持夜间模式和处理速度更快的深度融合技术,应对复杂场景下的拍摄能力进一步增强,苹果能够同时将这些功能算法集于一款手机上,足见其深厚的影像技术功底。

另一方面,新的手机摄像头、感光元件和软件算法之间的协同,任何一家手机厂商都不敢保证能在短时间内完全吃透,它需要花时间去打磨,而苹果而言这也不是问题。苹果不仅有来自于全球各地的优秀工程师,而且每年只更新一代产品,影像团队有充足的时间去优化产品,相比于其他手机厂商一年发多款产品,苹果显然更有时间上的优势。

定制的镜头、传感器感光元件等硬件,配合影像技术上的深度调教,再加上通过收购吸纳全世界优秀的影像技术团队,最终打造出一套完整的 iPhone 影像系统。

原文

- - - The END - - -
  • 文章标题:为何 iPhone 像素低拍照却好?
  • 文章链接:http://blog.uiuweb.cn/index.php/archives/12275.html
  • 版权所有:本文版权归 安静先生 所有,转载请注明出处!除特殊注明外 (如有侵权,请 点此联系我 )
  • 返回文章列表 文章二维码 打赏
    本页链接的二维码
    打赏二维码
    添加新评论

    已有 2 条评论
    1. 不错非常喜欢

    2. 文章不错非常喜欢