上次谈到的APS像素只是一个单点的光电传感器,只获取整幅图像中一个点的光照强度值。而在CMOS成像器芯片上,整幅光学图像是成像在一个APS像素阵列Pixel Array的平面上,整幅图像信息的获得是由这个像素阵列实现的,像素阵列的结构决定了图像的分辨率和画面结构。
一般的像素阵列是由水平方向的行(Row)和垂直方向的列(Column)构成,如图3(A)所示意。阵列中相邻像素中心线的距离称为步距Pitch,在大多数设计中,垂直和水平方向采取相等的像素步距;而像素的形状采取边长相等于步距的正方形:
Pixel height =Pixel width = Pitch row = Pitch column。
无论如何,设计的一般原则是:摄像器件像素排列的图案,必须与显示的像素排列完全相同对应,才能无失真地摄取和还原图像画面。在一个正方像素阵列(M,N)中,行和列的像素数决定了图像的分辨率和宽长比。图像的总有效像素数Total Pixel Number通常被用来表达图像的分辨率,TPN = M x N;而图像的宽高比Aspect = M / N。
表 1,典型数字图像的结构
因为经过聚焦的光学图像成像在像素阵列上,像素阵列的尺寸与光学系统相关,阵列尺寸实际上就是光学成像画面的尺寸。在数字单反照相机DSLR上,普遍采用“全幅”36 x 24 mm2画面,这就是传统135照相胶片的成像尺寸;或者“半幅”24 x 16 mm2画面,也就是35 mm电影胶片的成像尺寸,以便充分延续利用胶片时代优秀的光学镜头设计。DSLR画面的宽高比Aspect通常也采用3:2,如胶片时代的照片和普通电影画面一样。譬如要求图像的分辨率为TPN = 24 Meg Pixels,而图像画面即像素阵列尺寸为36 x 24 mm2,计算出来单个像素的尺寸和步距应该是6 x 6 μm2。对于一个移动电话摄像用的3.1 Meg Pixels CMOS成像器而言,采用1/4英寸光学镜头,芯片的像素阵列尺寸为3.6 x 2.7 mm2,像素尺寸为1.75 x 1.75 μm2。数字影院级摄像机的CMOS传感器通常也用类似DSLR“半幅”的像素阵列尺寸,使画面的尺寸看上去象是沿袭电影胶片的。作为例子一个高清影院级4K画面CMOS成像器,其阵列尺寸为24.2 x 12.5 mm2,总像素数为4480 x 2304 = 11 Meg Pixels,像素尺寸为5.4 x 5.4 μm2。
图3(B)示意由最简单3T-APS像素阵列的像素间互连。在阵列的水平方向,每一行像素共享一组重置信号Rst(n)和选择控制信号Sel(n);在阵列的垂直方向,每一列像素共享输出信号线Out(m),并最终连接到一个恒流源上。这个恒流源作为m列每个像素中源极跟随器SF的共享负载。在这个结构中,每行像素同时执行相同的重置Rst和选择Sel操作。曝光的控制是通过Rst(n)按行操作的,而所有在一行上的像素又同时被Sel(n)选择输出光电信号;在被选中行(n)中,分属于不同列的输出
Out(m)分别输出;阵列中所有像素上的电源Vdd都是被连在一起的。
为了在同一颗成像器芯片上,即一个成像器阵列上获得彩色的图像,CMOS成像器在每一个像素上加上红绿兰不同基色的滤光层。以产生分别对不同基色感光的红R、绿G、兰B像素,以检测不同基色光照强度的信息。最通常采用的基色像素排列图案,称为Bayer像素排列(或图案),如图3(C)所示。Bayer排列由4个上下左右相邻的像素构成一组,这一组像素获得的光能量为:
Ec = 1R + 1B + 2G
相邻行读出像素的顺序为:G、R、G、R、G …,和B、G、B、G、B …。不同基色的信号,可以在模拟层面或数字层面用时序分别切换到三基色RGB的信号输出。实际上在一组Bayer排列的4个像素上,三个基色并不真正在一个空间坐标点上,而三个基色的感光的能量也是不同的。直接来自像素的信号读出后,用数字处理方法可以把一组4个相邻像素获得的信息,处理成一组能量均衡的接近真实的RGB信息。但是即使这样也会引起彩色的失真,以及实际图像空间分辨率的下降。
下一期话题:像素阵列的曝光
用户1579255 2013-1-18 20:06
用户1102217 2013-1-16 11:18