iphone资讯

关于苹果iPhone6s的成像: 我们需要弄清楚两点

2015-09-22 16:04:04

自从苹果正式发布了新款iPhone之后,有不少网友在讨论关于iPhone6s成像效果好坏的话题,日前,网友“死神游戏”针对这一话题发表了自己的看法,一起来看看吧。

该网友表示,在争论像素点大小对成像质量的影响之前,我们需要分清楚“屏幕分辨率像素”和“感光芯片像素”这两个概念。有不少网友认为,屏幕上的像素点越多、越密集,则显示屏效果越好,但其实它跟数码相机感光芯片像素完全不是一个概念。

下面,我们来说一说数码相机成像原理跟感光芯片像素间的关系:

首先,我们要了解数码相机是如何成像的。当物体反射过来的光通过镜头,经过快门开关控制,照射到相机的感光芯片,通过感光芯片把进来的光转换成电子信号,再由CPU处理后得到一张数码相片。因此,感光芯片面积越大,当光线瞬间照到感光芯片上时,感光芯片所能够接收到的光越多,可供CPU转换的信号就越强,相应的照片效果就越好。

也就是说,对于摄影来说,光是非常非常重要的一个因素。当镜头把光引进来的时候,感光芯片面积越大,那么它在单位时间内能够接收到的光照也就越多,光越多转换的信号越好。所谓单位时间,也就是快门数度,比如1/100秒,也就是百分一秒时间内通过镜头照到感光芯片上的光。

至于感光芯片的像素,简单的说也就是感光芯片上的小格子,这跟屏幕倒是很像。一个小格子就是一个像素点,当感光芯片本身面积不变,假设它上面的像素由800万提升到1200万,则每一个小格子的面积变小,这意味着单位时间内每个像素能接收到得光也少了,所以每个像素收到的信号减少,信号减弱,CPU可以转换的效果也会变差,因此,虽然像素提升了,但是画质反而降低了。

最好的升级像素的方法其实要增加感光芯片的体积,当感光芯片面积越大,上面的像素点多了,每个像素点也不会变小,这样才能保证高像素和高画质。因此,用屏幕分辨率的原理来描述感光芯片像素其实完全是错的。

网友“死神游戏”表示,数码相机成像其实是个非常复杂的过程,镜头的好坏、感光芯片的工艺技术和材质、CPU的处理能力以及软件的算法等方面都会影响到最终照片的质量,单单一个感光芯片或是像素大小多少并不是照片好坏的必然原因。

最后,随着9月25日的临近,赶上苹果首批预购发货的网友应该会对iPhone6s和iPhone 6之间的拍照成像效果进行一番对比,小编届时也会在第一时间给各位带来报道。

相关文章

推荐文章