下什么组件可以提升苹果手机怎么调摄像头清晰度度

APP111苹果园为用户提供苹果游戏软件介绍,视频,攻略,评测,iphone6游戏,iphone5s游戏下载
iphone6 plus软件下载,ipad mini软件,ipad游戏,最新最全的限时免费游戏信息主流旗舰手机像素 1300W、1600W、2000W 层出不穷,技术瓶颈应该是没有的。技术瓶颈尚未达到的情况下,如果仅是说 800W 像素够用,恐怕不能令人信服,尼康当年的 600W 够用论,1200W 够用论就曾经被打脸。
一直想写篇文章纠正一些数码影像领域一般用户常见的误解,解答一些问题,但确实这个话题涉及的知识比较多并且还比较困难,好多专业性的资料我的水平根本看不懂,所以总是在等知乎有一些内行出来科普。但既然这么久以来都没什么专业人士发言,我就以我目前能掌握的知识尽可能就这方面的问题做些科普吧。首先纠正一个几乎所有普通用户都会搞错,也曾困扰我多年的误解:绝大部分数字成像设备的传感器是拜耳阵列传感器。这种传感器的基础形态如下:拜耳阵列传感器的每一个像素都是单色像素,相邻的2x2共四个像素组成一个基本阵列,每个阵列有二绿一蓝一红像素。拜耳阵列传感器的像素数量即是所有负责成像的单色像素数量之和。典型地,一个1000万像素传感器会有500万个绿色、250万个红色和250万个蓝色像素。但是几乎所有的数字显示设备,包括显示器、投影仪等,其像素数量是所有彩色成像单元的总数量。每一个显示器的“像素”都是由红绿蓝三个子像素组成的,一些特殊的显示设备如三星的Pentile屏幕,每一个像素由一个绿色和一个红或者蓝色像素,共两个像素组成。换句话说,一般的显示设备的单色像素数量是其标称的像素数量的3倍或2倍。如果像成像设备一样以单色像素计算像素总数,那么典型的1080p显示器就有,大约620万的单色像素。大部分的显示屏都是这样的形态,每个像素由红绿蓝三个子像素组成。常说的“24bit色彩”指的就是红绿蓝三色各有8bit深度,加起来就是24bit。但是大家都知道,大多数的数字成像设备拍摄出来的图像都是以三色像素计数的。例如800万像素的相机输出的jpg照片,在浏览器里看属性一定是800万像素,每个像素都是24bit彩色。可既然传感器每个像素都是单色,为什么输出的却是彩色的信息呢?这就涉及到拜耳阵列传感器输出图像的关键步骤——反拜耳运算了。所谓反拜耳运算属于数字插值技术的一种。具体来说就是传感器生成图像时,每一个单色像素参考同阵列的其他三个像素捕捉的光学信息,“猜”出本像素接收的其他两种光线的数据,并以此生成包含三色光谱信息的像素。换句话说,反拜耳运算是一种三倍插值运算。与普通用户的常识不同,绝大多数拍摄设备所生成的图像从一开始就是这样插值出来的,所谓“没做任何插值运算”的图像除了少量专业设备外一般是不存在的。接下来进入主题:成像设备像素数量、感光面积和图像质量的关系。首先,既然我们已经知道拜耳传感器生成的图像都是经过插值的,那么该如何计算图像的清晰度呢?倘若没有这个插值过程,比较好理解的就是理想状况下图像的清晰度=图像的像素数量,亦即每一个像素都真实地还原了其捕捉到的场景的某一点的光线信息。但是既然存在这样的插值,就有可能出现生成图像的信息并不是真实的场景信息的情况。这方面有一些对应的数学研究,其结论是在理想状况下,拜耳传感器生成图像的实际清晰度在每个方向都等于传感器像素数的约78%。例如某个传感器的分辨率是,则纵向上其实际清晰度是3120条垂直线;横向上其清晰度是2340条水平线。理想状况下如果用它拍摄一组密集排列的黑白相间的细条纹,生成的图像上可以数出横向最多2340条黑色/白色的条纹。测试设备分辨率时,用设备拍摄类似这样的测试卡,输出图像后看看能看清哪个等级的线条组,则设备分辨率就是什么等级。而医学上经过研究发现,人眼的分辨率同样是有限的。我们常说某人视力是1.0、1.5,指的就是眼睛分辨场景细节的能力。典型1.0的视力下,在30cm的距离上人眼最多分辨每英寸300条水平线。物体距离人眼越远,人眼能分辨物体的细节就越少(亦即“越远越看不清楚”);同时,距离越近人眼聚焦的范围越小,越远范围越大,30cm距离上人眼只能关注一小块屏幕,3m距离上人眼可以关注一个60寸的电视。进一步就可以推导出,人眼不动时对于某一张图像的细节分辨能力是有极限的。比如一幅清明上河图,无论是放大到原始大小还是缩小到A4纸尺寸,人们都不可能一眼就看清整幅图像的全部细节——尺寸太大,一次看不过来;尺寸太小,过小的细节又不可能看得清楚。这个极限经过研究,大约是在水平线左右。那么结合上面拜耳传感器的清晰度计算方法我们可以知道,理想状况下大约的传感器生成的图像就足以让人一眼看上去觉得足够清晰了。无论是在7寸照片上打印还是在100寸屏幕上投影,这样精度的图像不细看是看不出细节的不足的。然而现实总是比理想残酷很多。上面所说的这种情况仅仅是最佳条件下的状况。实际情况远比这要复杂许多。首先,拜耳传感器生成图像的清晰度受算法的影响。虽然理想状况下其能达到像素数78%的清晰度,但当场景颜色排布较为复杂时,生成的图像往往会出现物体边缘伪彩、条纹物体摩尔纹、边缘锯齿等状况。这些状况降低了图像的实际清晰度。更为严重的状况出现在场景明暗反差过大时。传感器捕捉场景信息时,场景的明暗反差很有可能超过传感器性能极限。场景的明暗反差程度被称为动态范围,传感器承受场景明暗反差的范围被称为宽容度,单位是ev。某个场景的动态范围是1档,意味着场景最亮点的亮度是最暗点亮度的2倍;如果是两档就是2^2=4倍,以此类推。晴天中午,太阳与树荫下的亮度差异可以达到近20档。当场景的动态范围超过传感器的宽容度时,记录下的图像中超过宽容度的部分就会变成相同的亮度,且细节基本丢失。可以看出,第一张图片明亮部分的细节以及男性身体阴影部分的细节几乎完全丢失。很显然,传感器的宽容度会在明暗反差较大的场景中影响图像的细节还原能力。另一种情况出现在场景过暗时。绝大多数用户都很熟悉“噪点”这个词汇。当设定的传感器灵敏度过高(亦即ISO设定过高)时,接收较少光线照射的传感器像素的自身电流会掩盖接收光线所产生的电流,生成无规则色彩的像素点,亦即噪点。黑暗场景下为了拍出亮度正常的照片,用户往往需要设定较高的ISO值,结果就会在图像上发现大量噪点。很显然,这些噪点会严重影响图像的清晰度。传感器抑制噪点的性能被称为信噪比,信噪比越高则噪点出现的越少。哪些是星星,分得清吗?讲了这么多宽容度和噪点的东西,这些又和传感器像素有什么关系呢?非常不幸的是由于数字成像设备的技术原理限制,在其他条件都相同的情况下,一定尺寸的传感器的像素数量与宽容度和信噪比都成反比。想要同时增加像素数量、宽容度和信噪比,只有提高传感器整体技术水平或缩减色彩表现力(很少使用的手段)、降低像素刷新速度等(会影响连拍、摄像性能,所以也很少用)。换句话说如果技术水平没有提升,传感器尺寸不变,那么提升像素数量几乎必然会影响到宽容度和信噪比。而宽容度和信噪比的下降,反过来又会在很多场景中严重影响成像清晰度。本来增加像素是为了提高清晰度,可是这样一来增加的清晰度又被抵消很多,甚至于下降了。可是很少有成像设备能够经常在理想的场景下拍摄图像,尤其是通常没有任何辅助拍摄器材,又需要随时记录生活的普通消费者最容易碰上上面这个尴尬的矛盾。专业的摄影场景通常都会使用遮光、反光设备和灯光来降低整个场景的明暗比,增加场景的亮度。为了尽可能获得理想的成像,专业设备通常使用尺寸较大、耗电较多的高性能传感器以及沉重、巨大、高精度的镜头;结果经常需要面临更加严苛拍摄场景的用户却只能拿着小体积的手机拍照,简直就是痛苦的考验。在这样的事实面前,消费级成像设备就必须做出艰难的选择和取舍。一方面,成像单元的体积、重量、能耗往往受到严格的限制;另一方面,用户拍摄的场景却是千变万化。寻找应对这样情况的最佳策略是非常困难的。最理想的情况是技术迅速进步,使得小尺寸设备达到如今高性能摄影机的性能水平——但多年的经验证明这方面的进步速度相当缓慢。那么在种种限制下,选择成像器件的像素数量指标就成了很重要的一环。前面我们已经知道,当像素数达到千万级别时理想状况下生成的图像只要不做裁剪就已经足够绝大多数用户使用了。但是当宽容度和信噪比过低时,图像清晰度会受到严重的影响。如今典型的1000万像素级别手机摄像头的宽容度只有5档甚至更低,而信噪比与高级单反的差距可达数十倍。由于这两项指标的巨大差距,一颗2000万像素手机摄像头在较为严苛的场景下生成图像的清晰度,甚至比不上一部467万像素摄影机。片面提高像素只能在一部分场景中产生正面作用,在另外很多场景中反而会有严重的负面效果。事实上,在手机常用的1/2-1/3寸的传感器上,像素数超过5-600万(这是拍摄《复仇者联盟》使用的摄影机的传感器像素水平)后负面作用就会越来越明显。传感器厂商如果完全为用户考虑,提高产品整体技术水平的时候不应该把改进后的技术用来增加像素,而是应该保持较大像素尺寸并提高宽容度与信噪比指标。小尺寸传感器的像素提升道路早在一两年前就应该终止了。遗憾的是,增加像素数量指标的市场效果是如此之好,以至于厂商都热衷于提升设备的像素数,而对其他指标有意避而不谈。多年来的宣传让消费者形成了“像素数量=画质”的印象,结果到头来损失最大的还是消费者自身。苹果在专业图像处理领域的技术积累是很深的,拥有较好的图像和视频处理算法。现在新款iPhone又拥有性能较好的芯片,因此手机整体的图像处理性能在业界是数一数二的。苹果选择手机图像传感器的标准重心并不是像素数量,其首先考虑的其实是传感器的体积、重量和耗电。这几个指标大致确定之后传感器的感光面积自然也就确定了。接下来,苹果是选择这个尺寸下使用最新技术,但像素数最少的传感器产品。苹果的传感器供应商现在是Sony,iP6选择的传感器尺寸约是1/3英寸(实际要更大些)。800万像素应该是Sony在这个尺寸下能供货的单像素面积最大的传感器了。如果Sony肯以最新的技术生产600万甚至500万像素的传感器,其综合画质会更佳——但是Sony自然不会这样做,恐怕消费者也难以认可。因此,800万像素算是苹果的一种妥协:尽可能地在这样的尺寸下提高宽容度、信噪比指标,提高摄像头在复杂环境中的成像品质,同时还能保证产品的供货量。那么为什么苹果不换用尺寸更大的传感器?一方面是手机整体设计的考虑,另一方面,Sony能提供的大底传感器因为像素数量太多,单个像素的尺寸反而比现在的800万像素版本要小不少。增加的像素带来的效果被减少的宽容度、信噪比抵消后也就所剩无几,甚至可能有反效果。既然如此还不如继续使用体积较小的800万像素传感器,还能减少电力损耗。讽刺的是,当大量专业拍摄设备的像素数量还停留在2000万以下,甚至1000万以下时,普通消费者使用的小小的手机的摄像头却普遍有了千万甚至两千万的像素数。苹果作为少有的坚持较少像素数量的厂商却招来很多无知的嘲弄与讥笑。希望这篇文章能够帮助一般用户更好地理解相机像素、尺寸与画质的关系,在选择和评价设备时多一点理性,少一些盲从。
首先声明,这是一个纯粹的技术问题。而且我这里讲的将是800w像素的摄像头成像质量也会如此巨大,这里面有多少可以play的空间,而不是讲apple如何做,因为这是谁也不可能知道或者讲出来的绝对商业机密。我们先来看看Imaging Sensor(图像传感器)如何工作。毫不客气的说,手机和单反里面的Imaging Sensor是设计难度最低的Imaging Sensor,核心技术几乎完全是工艺的问题。因为手机的Imaging Sensor全部采用4T结构的设计。什么是4T结构?一张图解决问题:首先,这个是日本和美国发明的,所以现在行业内做的最好的依然是日本和美国公司。几乎所有的手机相机,低到200w,高到2300W,几乎无一例外全部是这样的结构。因为这样的结构相比较6T,7T的结构,Fill Factor(感光率)高很多,而且支持Global Reset(全局重置)并且如果使用一些特殊技术,也可以实现Global Shutter(全局快门),从而很好的保证了拍照的速度。那么什么决定了一个Imaging Sensor的好坏呢?那就是感光器件的核心——Photo Diode(感光二极管),Photo Diode的工作原理是利用特殊掺杂的硅,让照射进来的光子激发出电子空穴对,然后利用Transfer Gate(传输门TX)读出。工作原理是很简单的,但是说起来容易,做起来就难了。首先,具体到硅基上的Photo Diode尺寸,究竟该如何设计?设计成什么形状?这几乎没有任何设计工具可以依赖,完全是一次次的实验,而这种实验是以千万美金计算的研发费用。除了Photo Diode的设计之外,感光部分的硅基如何掺杂,Transfer Gate如何平衡传输电子的势能差,这都十分影响一个Imaging Sensor的功能。感光质量的好坏,最基本地可以用以下三个指标来衡量:解析力,线性度,和 Dynamic Range。我们经常谈及的所谓800W像素,可以影响的就是解析力,但是解析力并不只依赖于有多少的pixel(像素点)。现在pixel已经小到1-2um的时代,Cross Talk(串扰)和Micro lens的质量才是解析力的关键。而且如果在面积一定的情况下,1300W像素的成像质量很可能差于800W。线性度的问题,很大程度上取决于器件的工艺和读取电路的设计。Dynamic Range影响了我们究竟可以拍出多亮的白色和多暗的黑色,最好的体现就是夜间和强光下拍摄的质量。这一项,首先取决于Charge Well的面积,越大则越好。所以小的感光芯片,比如说手机,是没有任何可能拍出好夜景的,这也就是为什么全幅单反都那么大。除了Charge Well的面积,Dynamic Range很大程度上也受工艺和使用时温度的影响,比如说有没有使用SOI,有没有使用Local sensor来校准。所以暗光拍摄的质量和像素的多少,没有很大的关系。如此可以继续得出,发热大的手机,也部分影响成像质量。说了这么多,回到问题,iphone的800w像素为什么牛逼?首先,iphone的摄像头,历来是Sony为其定制的,Sony最好的工艺(也就是全世界最好的工艺)一定会用在这上面,而我私以为,Apple和Sony在这一部分上是有排他协议的。也就是说,Apple的摄像头,用的工艺就比别人的好,起点就比较高。其次,由于高度保密,我们无法知道iphone的pixel究竟是如何设计,Micro lens是什么排布。虽然官网上很笼统的标注了pixel的大小是1.5um,但是pixel里Photo Diode的形状和面积,尤其是在面积一定的情况下,如何和Charge Well进行trade off,所有这些关键参数,我们根本无法知道。同样是1.5um的pixel,因为设计的不同,表现出的成像特性也会千差万别。Appple的800w像素是精心定制的,和其他厂商用的800w,完全不是一个概念。所以用Apple的800w和其他手机的800w相比较,是很业余的做法。综上所述,根本原因就是Apple用的800w是专业量身定制的,不可以和其他的所谓800w,1300w拿来比较。除了Imaging Sensor,影响相机成像的还有DSP,而Apple在这一方面,是领域内的专家,如何做一个好的ISP(Image Signal Processing) ,Apple是很有信心的。甚至我认为Sensor部分和ISP的设计是一体的,这个概念是法国人提出的可计算电路,就是在电路层面实现一部分固定的算法,这个技术现状主要使用在核成像上。除了这个,在硬件上,一个良好的读取电路对保证成像的线性度是很重要的,而这一部分,Apple也下了大工夫。几年前ISSCC做ADC的best paper得主现在就在Apple工作。而且在整机设计,比如说消除串扰,散热方面,Apple也做到了业界最好。Apple把提升成像质量的工作都做在了消费者不容易看见的地方,而不是一味提高像素这种噱头上,这是一种认真,求实的工程态度。所以,iphone 800w像素的高成像质量是事实,这背后体现的是Apple整个公司超高的工程实力和品质把控,是一个多因素影响的复杂工程。这是真正的硬实力!-------------------------------------------------------------------------------------------------------------------------------------------最后,鉴于有些朋友略微捉急的阅读理解能力,我强调一下,我没说apple 800w是最好的,但是和其他普通的800w还有部分1300w比起来,还是有优势的。而且,我说了,ISP很重要的。。。你让我具体说说?我想就算是入门的讲出来非技术人员也听不懂,不想听。。。至于Sony为啥不用这个,IP啊,IP啊,这是一个customized design啊。Apple也不是不升级,你看6 plus不也上浮动镜组了嘛。。。
14.09.12 20:58编辑----------我看此问题的时候,回答不过十数个。现在回答越来越多,删掉攻击性言语。------------先来看单反的两个例子:Nikon D5300,像素2416wNikon D4,像素1625w你觉得哪个好?前者入门级,报价4200左右;后者专业级,报价3.8w左右。难道花3.8w买D4的人都是冤大头吗?当然不是。------------同样的,在手机有限的空间内,只能塞得下有限的镜头模组的情况下CMOS的尺寸显然已经是固定了的,那么在有限尺寸内,如何保证每一个像素都记录准确和记录尽可能多的像素,就成了一个难题。举个简单的例子,你有一张A4纸,如果让你在这张纸上写10个字,你可以保证每个字都写的很清晰。但如果让你在这张纸上写100个字,1000个字,10000个字,乃至更多个字的时候呢?你还能保证每个字的质量和清晰度都有保证?很多高像素论者只考虑了“当像素越高,解析力就越强,毛刺越少,锐度越高”,但恰恰忽略了他们的显示设备,包括他们自己本身的输入设备(眼睛)真的有与之配套的解析力?目前民用最好的显示设备,所谓的full 4k分辨率,分辨率为,也就是1270w个像素点而已。在摄影上,更高的分辨率和解析度,是为了方便后期的裁剪和创作,有些是因为专业需要比如需要印制一个200米*150米的巨幅海报,而绝大多数手机用户会做到这些事情?因此,在每一个像素质量,和更多的像素之间,必须有一个权衡,而不是刻意的去追高,因此互相制约的双方,必须要寻找一个帕累托最优。这才是光学模组的意义,也是摄影本身的一些基本原理。-------------大家都不是专家,我也无意为苹果洗地,资本逐利,控制利润率无可厚非。但我相信AAPL的是有对应的专家的,他们会去根据最最优的体验,来调教这个镜头模组和拍摄效果。因为在这摄影方面,AAPL不需要像素这样毫无意义的”非核心竞争力”。我只是觉得,在知乎这样的平台,能不能做的知之为知之,不知为不知?至少去搞明白其中的一些原理,而不是单纯的“节约成本”“多赚点钱”这样的答案吧,贴吧即视感太强了。iPhone6的摄像头为什么还是800万像素?够吗
iPhone&6相机画素维持800万画素,让许多Android手机使用者嗤之以鼻,然而苹果为何这么做,带你来探究个中原因。&苹果新机iPhone&6以及iPhone&6&Plus发表以来,消费者们最大的疑问应该就是「为何相机画素还维持800万」?为了解开大家……
iPhone 6相机画素维持800万画素,让许多Android手机使用者嗤之以鼻,然而苹果为何这么做,带你来探究个中原因。
苹果新机iPhone 6以及iPhone 6 Plus发表以来,消费者们最大的疑问应该就是「为何相机画素还维持800万」?为了解开大家的疑问,并澄清「画素不等于画质」的迷思,请大家一起来了解苹果坚持此路线的原因吧!
苹果自iPhone 4S以来,已连续四代(iPhone 4S/5/5S/6),都采用800万画素相机,让许多惯用Android手机的朋友可说是笑掉大牙。然而,平心而论,iPhone自iPhone 4以来多代手机都连庄Flickr网站中,网友最爱的相机,将一线光学大厂的数为单眼远抛脑后,其中iPhone的相片画质也为人所称道,这究竟是为什么呢?
一、感光组件与画素是什么?
要解开「画质与画素」之间的迷思,首先要介绍大家了解两个概念。一是「感光组件」,第二则是「画素」。感光组件的角色是将数码相机镜头透射进来的光线,经过感光组件(或称影像感测器)的处理,会将类比讯号转为数码讯号。规格部分,则以规格尺寸(如常见的APS-C、M4/3,都是指特定大小感光组件)以及实际大小(以长x宽的方式来注明,单位mm)来说明。
若以不同大小的感光组件来拍摄同一场地的夜景,意即光线较为不足的地点,是最容易分辨出成像画质差别的方法,感光组件越大,则在高感亮度(ISO)的情况下,相片的杂讯(noise)越少,成像则相对清晰。也就是说想在昏暗情况下拍出好照片,选择感光组件面积较大的产品,才是对的选择。
感光组件在数码相片成像时的角色。(图/laxybox)
「画素」(pixel)则是指一张数码相片的最小组成单位。若将数码照片不断格放,就会看见相片细节出现一格一格的状态,每一格画面也就是一个画素所组成。而若说到手机的「相机画素」,指的是所能拍摄的「相片大小」,以编辑本身所持有的iPhone 5所拍摄的相片长宽为来看,相乘起来等于7990272,趋近于800万,所以会说iPhone 5的主相机为800万画素。因此,若是手机相机的「画素高」,其实说的就是拍摄的相片会比较大张,跟画质没有绝对关系。不过,若以相同相片大小、构图来比较,使用较高画素相机来拍摄,在格放后的部分相片细节,普遍会比低画素相机所拍摄的成品更为精细。
相机画素直接影响相片的尺寸。(图/laxybox)
二、相片画质与画素的关系
了解画素以及感光组件的概念后,接着来了解相片画质与画素之间的关系。基本上,成像画质取决于「感光组件的大小」以及「每个画素的受光面积」。因此若是相同画素的相机,用来拍摄同一场景,那么使用较大感光组件的相机,成像效果,也就是画质,肯定比较好。
若以刚才的例子来说,同样的场景透过相同画素、但不同大小感光组件的相机来拍摄,那么较大感光组件的每一个画素,因为都比小尺寸感光组件来得大,因此受光面积也更大,品质自然较好,也能避免画素之间的相互干扰(杂讯noise是其中一个情况)。
同样构图下与拍摄条件下,感光组件越大,成像细节会更精细。(图/laxybox)
感光组件的尺寸影响了每一颗画素的受光面积。(图/laxybox)
第三、iPhone 6的相机好在哪?
透过以上观念的解说,应该大致上可以了解相片画质是受到感光组件尺寸以及画素受光面积的影响。接下来看看自iPhone 4S以来,四代iPhone的相机规格。
&1&iPhone 4S相机,采用800万画素背照式CMOS感光组件、五片镜片、光圈f/2.4,提升对焦与快门速度。
&2&iPhone 5相机,采用800万画素背照式感光组件,感光组件大小为 1/3.2&,光圈f/2.4,具有数码防手震、脸部辨识、HDR相片以及全景相片拍摄功能。
&3&iPhone 5S采用800万画素相机,像素直径扩大至1.5微米(&m),光圈为f/2.2,感光能力较iPhone 5提高了33%,搭配双色True Tone 闪光灯,并首度可拍摄720p@120fps慢动作影片。
&4&iPhone 6(iPhone 6 Plus采用同款感光组件,但额外加入光学防手震功能),采用全新800万画素感光组件,像素直径扩大也是1.5微米(&m),光圈为f/2.2,在低光源下表现力更好。在拍摄影片时具有连续追焦(continuous autofocus video)以及影像稳定(Cinematic video stabilization)功能,可拍摄240fps慢动作影片以及1080p@60fps影片。iPhone 6首度采用了Focus Pixel技术,其实是一项相位对焦检测系统,可以加速对焦速度。
基本上iPhone自iPhone 5S这一代开始(iPhone 5C的相机与iPhone 5相同,本篇先不讨论),相机感光组件便采用了1.5微米大小的画素,因此每一颗画素都受光面积更大,而iPhone 6感光组件依旧采用1.5微米的画素(面积仅小于HTC One M7/M8 UltraPixel的2微米),然而感光组件采用全新组件,并加入Focus Pixel相位对焦检测系统,来加速对焦速度(Galaxy S5采用同样的对焦技术,号称对焦速度可达0.3秒)。
相片的画质,除了感光组件以及画素多寡、大小、受光面积的影响之外,也与软件算法与系统优化有着密不可分的关系,而这一点也是iPhone相机的优点之一。最后,根据The Verge网站编辑Austin Mann带着iPhone 6以及iPhone 6 Plus前往冰岛旅行所拍摄的实际相片与经验,他评价iPhone 6是当前800万画素相机中,在低光源拍摄中最为出色的一款,并且AE/AF Lock(曝光和对焦自动锁定)以及缩时摄影功能都令人印象深刻,以下是多张他所拍摄的相片。
iPhone 6实拍相片。(图/The Verge)
iPhone 6实拍相片。(图/The Verge)
iPhone 6实拍全景照片。(图/The Verge)
iPhone 5S与iPhone 6 Plus实拍相片对比(iPhone 6与iPhone 6 Plus采用同款感光组件)。(图/The Verge)
iPhone 6与iPhone 6 Plus虽然维持800万画素,但是除了相片尺寸比不上高规格Android手机之外,iPhone 6软硬件之间的配搭,让相片画质依旧往前迈进了一步,是一款以技术取胜的相机,虽然帐面上的相机画素等级没有对手好看,不过以实际拍出来的相片来比一比,才是真实的。
赞助商链接:您好,分享的企鹅
摄像头、内存全升级 iPhone 6S 新功能大盘点
陕西苹果用户服务中心
  功能介绍  iPhone 6S------新功能大盘点  最近,关于iPhone 6S 的信息爆料层出不穷,小编也为大家搜罗了一些,不过信息均来自于网络,仅供果粉们参考,最终新机功能参数以苹果官方正式发布为准!   据媒体援引产业链的消息披露称,苹果已经开始向零组件厂商下单,新一代iPhone或将开始生产,并且由于整体的生产良品率要优于预期,所以预计会在今年9月份准时发布。  那么,新一代的 iPhone 6S 究竟会有哪些新功能呢?  据称,新的 iPhone 6S 和 6S Plus 的主要卖点将是压力触摸,这项对压力敏感的显示技术已经用于苹果Apple Watch 和Macbook当中。新一代iPhone 还将采用 2GB内存,A9处理器,1200万像素摄像头,增加新的玫瑰金配色,还可能配备蓝宝石镜头盖。  iPhone 6S 新功能大盘点:  ◆ 压力触摸将是最大的升级卖点,压力触摸可以提升用户体验,提供更多的输入方式,支持手写签名。   ◆ 屏幕将保持在4.7和5.5英寸,分辨率同现有机型。不会有新的4英寸机型;  ◆ 将有一个新的外壳配色,玫瑰金,搭配玫瑰金Apple W   ◆ 摄像头像素将提升至1200万像素;  ◆ 新麦克风和扬声器提升语音质量;  ◆ 采用A9处理器,运行内存提升至2GB;  ◆ 使用不同外壳材料和内部机械设计改善弯曲问题;  ◆ 如果跌落试验问题能够得到解决,5.5英寸型号将配备蓝宝石镜头盖;  ◆ 提升触摸ID的识别率,推动苹果支付进一步提高;  ◆ 支持手势控制;  综合以上信息,只是摄像头像素升级和内存升级其实已经令小编很激动了!毕竟苹果近几年一直都是800万像素和1G内存,相信硬件的提升会给用户带来更完美的体验,让我们耐心等待这一天的到来吧!
正文已结束,您可以按alt+4进行评论
谢贤自曝跟谢霆锋并不熟,我们一年也就见一两面。
看过本文的人还看了
大秦网官方微信,更懂城市更懂你
陕西地界最全娱乐消息全知道
打造陕西最有影响力的美食平台
读完这篇文章后,您心情如何?
[责任编辑:wyyhshi]
夏天到了,女孩子就是要把自己打扮得漂漂亮亮的,穿上好看的连衣裙,去外面好好的......<a title="详细"
Copyright & 1998 - 2015 Tencent. All Rights Reserved

我要回帖

更多关于 航拍摄像头组件 的文章

 

随机推荐