数码相机里1/1.7英寸的传感器是指传感器在使用指定镜头时传感器相当于使用胶卷的相机的胶片对角线尺寸。
CCD是数码相机的“影像传感器”,其作用相当于感光胶片。CCD尺寸常见的有1/1.8英寸、1/2.5英寸、2/3英寸。理论上讲,CCD尺寸越大,采集光线的效果越好,画面记录的信息就越多,保留的细节也就越丰富,所以图像更完美漂亮。
尺寸越大越好。
其中的2/3英寸是最大的,理论上讲在同等条件下其成像应该是最好的。其次是1/1.7英寸、1/2.3英寸、1/2.33英寸、1/2.5英寸。
单反相机按传感器尺寸分大致可分为两类,一是全画幅,二是半画幅。
CCD的第二层是“分色滤色片”,目前有两种分色方式,一是RGB原色分色法,另一个则是CMYK补色分色法这两种方法各有优缺点。RGB即三原色分色法,几乎所有人类眼睛可以识别的颜色,都可以通过红、绿和蓝来组成,而RGB三个字母分别就是Red, Green和Blue,这说明RGB分色法是通过这三个通道的颜色调节而成。
再说CMYK,这是由四个通道的颜色配合而成,他们分别是青(C)、洋红(M)、黄(Y)、黑(K)。在印刷业中,CMYK更为适用,但其调节出来的颜色不及RGB的多。
原色CCD的优势在于画质锐利,色彩真实,但缺点则是噪点问题。一般采用原色CCD的数码相机,在ISO感光度上多半不会超过400。相对的,补色CCD多了一个Y黄色滤色器,在色彩的分辨上比较仔细,但却牺牲了部分影像的分辨率,而在ISO值上,补色CCD可以容忍较高的感光度,一般都可设定在800以上。
提到数码相机,不得不说到就是数码相机心脏——感光元件。与传统相机相比,传统相机使用“胶卷”作为其记录信息的载体,而数码相机的“胶卷”就是其成像感光元件,而且是与相机一体的,是数码相机心脏。感光器是数码相机的核心,也是最关键的技术。数码相机的发展道路,可以说就是感光器的发展道路。目前数码相机的核心成像部件有两种:一种是广泛使用的CCD(电荷藕合)元件;另一种是CMOS(互补金属氧化物导体)器件。
感光元件工作原理
电荷藕合器件图像传感器CCD(Charge Coupled Device),它使用一种高感光度的半导体材料制成,能把光线转变成电荷,通过模数转换器芯片转换成数字信号,数字信号经过压缩以后由相机内部的闪速存储器或内置硬盘卡保存,因而可以轻而易举地把数据传输给计算机,并借助于计算机的处理手段,根据需要和想像来修改图像。CCD由许多感光单位组成,通常以百万像素为单位。当CCD表面受到光线照射时,每个感光单位会将电荷反映在组件上,所有的感光单位所产生的信号加在一起,就构成了一幅完整的画面。
CCD和传统底片相比,CCD更接近于人眼对视觉的工作方式。只人眼的视网膜是由负责光强度感应的杆细胞和色彩感应的锥细胞,分工合作组成视觉感应。CCD经过长达35年的发展,大致的形状和运作方式都已经定型。CCD的组成主要是由一个类似马赛克的网格、聚光镜片以及垫于最底下的电子线路矩阵所组成。目前有能力生产CCD的公司分别为:SONY、Philps、Kodak、Matsushita、Fuji和Sharp,大半是日本厂商。
互补性氧化金属半导体CMOS(Complementary Metal-Oxide Semiconductor)和CCD一样同为在数码相机中可记录光线变化的半导体。CMOS的制造技术和一般计算机芯片没什么差别,主要是利用硅和锗这两种元素所做成的半导体,使其在CMOS上共存着带N(带–电)和P(带+电)级的半导体,这两个互补效应所产生的电流即可被处理芯片纪录和解读成影像。CMOS的缺点就是太容易出现杂点,这主要是因为早期的设计使CMOS在处理快速变化的影像时,由于电流变化过于频繁而会产生过热的现象。
两种感光元件的不同之处
由两种感光元件的工作原理可以看出,CCD的优势在于成像质量好,但是由于制造工艺复杂,只有少数的厂商能够掌握,所以导致制造成本居高不下,特别是大型CCD,价格非常高昂。这几年来,CCD从30万像素开始,一直发展到现在的600万,像素的提高已经到了一个极限。
在相同分辨率下,CMOS价格比CCD便宜,但是CMOS器件产生的图像质量相比CCD来说要低一些。到目前为止,市面上绝大多数的消费级别以及高端数码相机都使用CCD作为感应器;CMOS感应器则作为低端产品应用于一些摄像头上,若有哪家摄像头厂商生产的摄想头使用CCD感应器,厂商一定会不遗余力地以其作为卖点大肆宣传,甚至冠以“数码相机CCD是1969年由美国的贝尔研究室所开发出来的。进入80年代,虽然CCD影像传感器有缺陷,但不断的研究终于克服了困难,制造出了高分辨率且高品质的CCD。到了90年代,百万像素之高分辨率CCD的出现,标志着CCD技术的飞速发展。而SONY在1989年开发出的SUPER HAD CCD,则是一种在CCD面积减小的情况下,依靠内部放大器的放大倍率提升成像质量的新感光元件。
CMOS作为另一种重要的图像传感器,具有便于大规模生产、速度快、成本较低的特点。在CANON等公司的努力下,新的CMOS器件不断推陈出新,高动态范围CMOS器件已经出现,这一技术消除了对快门、光圈、自动增益控制及伽玛校正的需要,使之接近了CCD的成像质量。
Aps-c大约是24*16mm,而一英寸大约是13*8mm,Aps-c的面积几乎是一英寸的四倍。在适度的前提下,Aps-c通常更有效。
全帧DV也可使用,并没有技术问题与大传感器DV。但由于成本问题,家用相机通常不使用大传感器。其一,传感器越大,价格越贵;另一个原因是,传感器越大,处理器负担就越重。
有一个传感器大的镜头场也大,足以覆盖传感器,这样镜头的成本又上升了。机器不能小型化。
图像传感器提供的视频现在具有1080p的高清分辨率,而相机的设计也正朝着使用更小的光学格式发展。这就需要更小的像素结构,以在不影响图像性能或光敏度的情况下降低整个系统的成本。
CCD图像传感器以其高灵敏度和低噪声的特点,逐渐成为图像传感器的主流。但由于技术原因,传感器和信号处理电路不能集成在一块芯片上,导致CCD图像传感器组装的相机体积大、功耗高。
CMOS图像传感器因其体积小、功耗低而在图像传感器市场中脱颖而出。最初市场上的CMOS图像传感器并没有摆脱光灵敏度低、图像分辨率低的缺点,图像质量无法与CCD图像传感器相比。
相机传感器的一英寸,是指对角线16mm的大小尺寸。不同画幅的图像传感器,尺寸大小是各不相同的。其中,像大画幅、中画幅、全画幅、APS画幅是按照图像传感器的长与宽的具体数值去标注其尺寸的。而对于其他画幅的图像传感器来说,就是根据其对角线长度的具体数值去标注其尺寸了。
对于1英寸图像传感器来说,其对角线长度就是16mm。按照常理,1英寸应该是25.4mm,而不是16mm……但是在相机领域,1英寸约定俗成,就是指16mm。之所以会有如此状况,是有原因的。
在二十世纪五、六十年代,电子成像技术开始出现。在那个时候,感光元件是用真空管制作的。现在数码相机上的CCD和CMOS传感器在那时候还不存在。真空管有个特点:在其表面有一个玻璃罩子。在计算真空管外径的时候是要把那个玻璃罩子的厚度也算进去的。问题是,那个玻璃玻璃罩子是不能成像的。于是,这样做出来的感光元件的实际成像尺寸,就要比起标称尺寸小……1英寸的真空管,实际成像区域只有16mm左右。于是,16mm就成了业内一个约定俗成的计量单位。它就代表1英寸。虽然真空管成像技术已经不使用了,但是这种计量方式却被继承了下来。现在数码相机的图像传感器中1英寸的感光元件就不是按照1英寸=25.4mm来计算,而是按照1英寸=16mm来计算。这就是标准的力量……即使标准不合理,也得照着做……。
联系我时,请说是在武汉领优通信科技有限公司看到的,谢谢!