01
物联网系统中为什么要使用摄像头模组
物联网系统中使用摄像头模组的原因主要基于摄像头模组在数据采集、监控、智能分析以及增强用户体验等方面的关键作用。以下是详细的原因分析:
综上所述,物联网系统中使用摄像头模组的原因主要包括数据采集与实时监控、智能分析与决策支持、用户体验提升以及安全性与隐私保护等方面。这些优势使得摄像头模组在物联网领域得到了广泛的应用和认可。
本文会再为大家详解传感外设家族中的一员——摄像头模组。
02
摄像头模组的定义
摄像头模组,全称CameraCompact Module,简写为CCM。CCM 包含四大件: 镜头(lens)、传感器(sensor)、软板(FPC)、图像处理芯片(DSP)。决定一个摄像头好坏的重要部件是:镜头(lens)、图像处理芯片 (DSP)、传感器(sensor)。CCM的关键技术为:光学设计技术、非球面镜制作技术、光学镀膜技术。决定一个摄像头好坏的重要部件是:镜头(lens)、图像处理芯片 (DSP)、传感器(sensor)。
03
摄像头模组的原理
景物(SCE)通过镜头(LENS)生成的光学图像投射到图像传感器(Sensor)表面上然后转为电信号,经过A/D(模数转换)转换后变为数字图像信号再送到数字信号处理芯片(DSP)中加工处理,转换成标准的RGB、YUV等格式图像信号再通过I/O接口传输到CPU中处理,通过display就可以看到图像了
04
摄像头模组的硬件组成
4.1 Lens(镜头)
Lens是一个能够接收光信号并汇聚光信号于感光器件CMOS/CCD的装置。Lens决定sensor的采光率,其整体效果相对于一个凸透镜。
一般camera的镜头结构是由几片透镜组成,分有塑胶透镜(PLASTIC)和玻璃透镜(GLASS),通常CAMERA用的镜头结构有:1P,2P,1G1P,1G3P,2G2P,4G,8P等。透镜越多,成本越高;玻璃透镜比塑胶透镜贵,但是玻璃透镜的成像效果比塑胶透镜的成像效果要好。目前市场上针对mobile phone配置的camera以1G3P(1片玻璃透镜和3片塑胶透镜组成)为主,目的是降低成本。
4.1.1 Lens主要指标
A、消除尽可能多Flare
B、画质清晰度
C、CRA(Chief Ray Angle主光线角度)要match,减少shading(Lens cra < Sensor CRA, 相差最好在2度以内)
D、光圈尽可能的大
E、Distortion 尽可能的轻微等
4.1.2 Lens主要参数
(1)焦距:镜头焦距的长短决定着拍摄的成像大小,视场角大小,景深大小和画面的透视强弱。一般来说对于单片镜头就是镜头中心到焦点的距离,而相机镜头是由多片透镜组合,就要复杂许多。这里焦距就指的是从镜头的中心点到感光元器件(CCD)上所形成的清晰影像之间的距离。
(2)视场角:我们常用水平视场角来反映画面的拍摄范围。焦距f越大,视场角越小,在感光元件上形成的画面范围越小;反之,焦距f越小,视场角越大,在感光元件上形成的画面范围越大。
(3)F值(口径比):F 值即指镜头之明亮度(即镜头的透光量)。F=镜头焦距/光圈直径。F值相同,长焦距镜头的口径要比短焦距镜头口径大。
(4)光圈:光圈是位于镜头内部的、可以调节的光学机械性阑孔,可用来控制通过镜头的光线的多少。可变光圈(Iris diaphragm)。镜头内部用来控制阑孔大小的机械装置。或指用来打开或关闭镜头阑孔,从而调节镜头的f-stop的 装置。
(5)景深:当某一物体聚焦清晰时,从该物体前面的某一段距离到其后面的某一段距离内的所有景物也都相当于是清晰的。焦点相当清晰的这段从前到后的距离就叫做景深
4.2 VCM(Voice Coil Motor)音圈马达
全称Voice Coil Montor,电子学里面的音圈电机,是马达的一种。因为原理和扬声器类似,所以叫音圈电机,具有高频响、高精度的特点。其主要原理是在一个永久磁场内,通过改变马达内线圈的直流电流大小,来控制弹簧片的拉伸位置,从而带动上下运动。手机摄像头广泛的使用VCM实现自动对焦功能,通过VCM可以调节镜头的位置,呈现清晰的图像。
音圈电机用于微摄像头调焦/音圈电机用于微摄像头调焦/音圈电机用于调焦
4.2.1 VCM性能指标
VCM的性能主要是看电流和行程距离的比值。从启动电流开始,电流上升要和所能驱动的行程距离成比例,所需要上升电流越小,精度越高,同时还看最大耗电量,最大功率,尺寸大小。
4.2.2 VCM分类
从结构上大致可分三类: (1)弹片式结构 ;(2)滚珠式结构; (3)摩擦式结构。
从功能上大致分为五类: (1)Open loop开马达; (2)Close loop闭环马达 ;(3)Alternate中置马达 ;(4)OIS光学防抖马达(分平移式、移轴式、记忆金属式等);(5) OIS+Close loop六轴马达 。
4.2.3 AF原理
进入自动调焦模式后,Driver从0到最大值,使得镜头从原地移动到最大位移处,此时sensor成像面自动拍摄图片保存到DSP内,DSP通过这些图片,计算每一副图片的MTF(Modulation transfer function)值,从而在这条MTF曲线中找到最大值,并通过算法,得到这个点对应的电流大小,再一次指示Driver提供给音圈这个电流,而使镜头稳定在这个成像面,使得达到自动变焦。
4.2.4 变焦和对焦
A:实现光学变焦采用变焦马达(ZOOM)
通过移动镜头内部的镜片来改变焦点的位置,改变镜头焦距的长短,并改变镜头的视角大小,从而实现影响的放大与缩小。
B:实现自动对焦采用对焦马达(AF)
过微距离移动整个镜头(而不是镜头内的镜片)的位置,控制镜头焦距的长短,而实现影像 的清晰.手机中常用的方法。
光学对焦和光学变焦是不同的概念:
光学变焦是通过移动镜头内部镜片的相对位置来改变焦点的位置,改变镜头焦距的长短,并改变镜头的视角大小,从而实现影像的放大与缩小;
光学对焦是实际上是调整整个镜头的位置(而不是镜头内的镜片)的位置,控制镜头焦距的长短,而实现影像的清
晰.手机中常用的方法。目前VCM是使用最广泛的对焦方式.
DW9763 马达驱动移植
马达驱动一般比较简单,只需要按照时序控制,设置位置的寄存器即可控制马达移动,这里以RK3588安卓12平台,移植DW9763马达驱动为例,内核版本为kernel-5.10。
①从马达规格书获取控制时序图和控制模式
datesheet一般都有描述马达所支持的控制模式和控制时序,如DW9763就支持,Direct mode和SAC mode,SAC mode分为SAC1,SAC2,SAC2.5,SAC3,SAC4,具体的模式选择有寄存器可以配置:
控制时序一般如下:
A. 设置Ringing control寄存器:这个寄存器设置是direct mode还是ringingmode
B. 设置具体的SAC mode和DIV
C. 设置Tvib
D. 向寄存器设置DAC
②驱动实现
驱动的关键点如下:
A. 设备资源的获取;RK私有资源定义,命名方式如rockchip,camera-module-xxx,主要是提供设备参数和Camera设备进行匹配。VCM参数定义,命名方式如rockchip,vcm-xxx,主要涉及硬件参数启动电流、额定电流、移动模式,参数跟马达移动的范围和速度相关。
B. entity.function的指定,与camera sensor驱动不同,马达驱动注册的需要指定为:MEDIA_ENT_F_LENS
C. v4l2_subdev_core_ops:设置ioctl回调接口,目前使用了私有的ioctl实现马达移动时间的查询:RK_VIDIOC_VCM_TIMEINFO;;
D. v4l2_ctrl_ops:实现dw9763_get_ctrl和dw9763_set_ctrl,也就是获取和设置马达的位置接口,即对V4L2_CID_FOCUS_ABSOLUTE这个ioctl进行支持。
E. RK AF算法将模组镜头整个可移动行程的位置参数定义为[0,64],模组镜头整个可移动行程在VCM驱动电流上对应的变化范围为[启动电流,额定电流],该函数中建议实现这2者间的映射换算关系;
static int dw9763_set_pos(struct dw9763_device *dev_vcm, unsigned int dest_pos) { int ret; unsigned int position = 0; struct i2c_client *client = dev_vcm->client; u32 is_busy, i; if (dest_pos >= VCMDRV_MAX_LOG) position = dev_vcm->start_current; else position = dev_vcm->start_current + (dev_vcm->step * (VCMDRV_MAX_LOG - dest_pos)); if (position > DW9763_MAX_REG) position = DW9763_MAX_REG; dev_vcm->current_lens_pos = position; dev_vcm->current_related_pos = dest_pos; for (i = 0; i < 100; i++) { ret = dw9763_read_reg(client, 0x05, 1, &is_busy); if (!ret && !(is_busy & 0x01)) break; usleep_range(100, 200); } ret = dw9763_write_reg(client, 0x03, 2, dev_vcm->current_lens_pos); if (ret != 0) goto err; dev_dbg(&client->dev, "%s: set reg val %d\n", __func__, dev_vcm->current_lens_pos); return ret; err: dev_err(&client->dev, "%s: failed with error %d\n", __func__, ret); return ret; } ③dts配置 dts配置参考如下: dw9763: dw9763@c { compatible = "dongwoon,dw9763"; status = "okay"; reg = <0x0c>; rockchip,vcm-max-current = <120>; rockchip,vcm-start-current = <20>; rockchip,vcm-rated-current = <90>; rockchip,vcm-step-mode = <3>; rockchip,vcm-t-src = <0x20>; rockchip,vcm-t-div = <1>; rockchip,camera-module-index = <0>; rockchip,camera-module-facing = "back"; }; ov13855: ov13855@36 { ...... lens-focus = <&dw9763>; ...... };
vcm-max-current设置最大电流,vcm-start-current设置启动电流,vcm-rated-current设置额定电流,vcm-step-mode设置VCM的模式。
④安卓上层配置
如果支持VCM的话,安卓XML需要添加对应的AFmode支持,camera3_profiles.xml添加如下:
⑤JSON效果文件配置
效果文件需要打开AF:
⑥调试命令
上述效果文件打开会自动对焦,调试的时候可以将上述关掉,手动使用命令控制马达移动:
v4l2-ctl -d /dev/v4l-subdev3 --set-ctrl 'focus_absolute=64'
v4l2-ctl -d /dev/v4l-subdev3 --set-ctrl 'focus_absolute=0'
3.3 IR-CUT
自然界存在着各种波长的光线,人眼识别光线的波长范围在320nm-760nm之间, 超过320nm-760nm的光线人眼就无法见到;而摄像机的成像元器件CCD或CMOS可以看到绝大部分波长的光线。由于各种光线的参与,摄像机所还原出的颜色与肉眼所见在色彩上存在偏差。如绿色植物变得灰白,红色图画变成浅红色,黑色变成紫色等。在夜间由于双峰滤光片的过滤作用,使CCD不能充分利用所有光线,不产生雪花噪点现象及其低照性能难以令人满意。为了解决这个问题,就使用IR-CUT双滤镜。
IR-CUT双滤镜是指在摄像头镜头组里内置了一组滤镜,当镜头外的红外感应点侦测到光线的强弱变化后,内置的IR-CUT自动切换滤镜能够根据外部光线的强弱随之自动切换,使图像达到最佳效果。也就是说,在白天或黑夜下,双滤光片能够自动切换滤镜,因此不论是在白天还是黑夜下,都能得到最佳成像效果。
4.3.1 IR-CUT 组成及原理
IR CUT双滤光片切换器由一个红外截止低通滤光片(一片红外截止或吸收滤光片)、一个全光谱光学玻璃(一片全透光谱滤光片)、动力机构(可以是电磁、电机或其他动力源)以及外壳组成,它通过一块电路控制板来进行切换、定位。当白天的光线充分时,电路控制板驱使切换器切换并定位到红外截止滤光片工作,CCD或CMOS还原出真实色彩;当夜间可见光不足时,红外截止滤光片自动移开,全光谱光学玻璃开始工作,这时,它能感应红外灯的红外光,使CCD或CMOS充分利用到所有光线,从而大大提高了红外摄像机的夜视性能,整个画面也就清晰自然了。
4.3.2 IR-CUT指标
a、滤光片的红外线截止程度,透光率,和光整形效果等。
b、动力驱动部分
c、控制电路
d、滤光片:一般用镀膜(IR Coating)的方法或蓝玻璃来滤除红外光。
4.4 Sensor
Image sensor(图像传感器)是一种半导体芯片,其表面有几百万到几千万个光电二极管,光电二极管受到光照就会产生电荷,将光线转换成电信号。其功能类似于人的眼睛,因此sensor性能的好坏将直接影响到camera的性能。
4.4.1 Sensor结构
4.4.2分类
感光原件:CCD、CMOS(PPS和APS)
CCD(Charge Coupled Device)是贝尔实验室在1969年研发成功的,后经索尼、松下、夏普等公司改进并批量生产。十多年前,以CCD作为感光元件相机多一些,如尼康的D3000等,但现在越来越少。
CCD感光元件具有噪点小、反映灵敏度高、动态范围大等优势,所以作为相机成像的感光元件,所成像的质量要更好,但因为其制作成本高、制作工艺复杂、价格昂贵、耗电高等劣势,不利于进一步推广,并且CCD的尺寸越大,越难以生产,制作成本越高。
CMOS(Complementary Metal Oxide Semiconductor)感光元件是在二十世纪八十年代诞生的,当时电子技术水平相对落后,特别是系统集成这一领域,因此CMOS感光元件的成品质量一直不高,并且生产效率低下,所以CMOS感光元件的普及率不足。随着系统集成技术的发展,世界上主流的影像传感器厂商已经能够快速、高质量地生产尺寸较大的CMOS,并且这种感光元件的成像质量在一定程度上也达到了CCD所能达到的水平,当前的主流数码单反相机均采用了CMOS感光元件,只有部分卡片机和高端中画幅相机仍然使用CCD感光元件。`
不同工艺:前照式FSI、背照式BSI、堆栈式
对于FSI(Front side illumination)技术而言,光是从前面的金属排线之间进入,然后再聚焦在光电二极管上。这带来的结果就是在金属排线这层光线会被部分阻挡和反射掉,而光电二极管吸收的光线就只有刚进来时候的70%或更少;且这种反射还有可能串扰旁边的像素,导致颜色失真。
采用BSI(Back side illumination)技术来构建像素,光线无需穿过金属排线层,光线几乎没有阻挡和干扰地就到达光电二极管,光线利用率极高,所以背照式CMOS传感器能更好的利用射入的光线。
FSI和BSI为非堆栈式结构,堆栈式的结构首先由SONY应用在了Exmor RS 产品上。对于像素区域的制造工艺,可以使用65nm的制程,但对于处理电路的区域,如果能用45nm的制程制造,那么在处理电路上的晶体管数量就能翻倍,这样,像素处理的速度就更快。
由于像素部分和电路部分独立,因此像素部分可针对高画质优化,电路部分可针对高性能优化。堆栈式不仅继承了背照式的优点(像素区域依然是背照式),还克服了其在制作上的限制与缺陷。因为处理回路的改善和进步,摄像头也将能提供更多的功能,比如说硬件HDR,慢动作拍摄等等。像素与处理回路分家的同时,摄像头的体积也会变得更小,但功能和性能却不减,反而更佳。像素区域(CMOS的尺寸)可以相应地增大,用来种植更多或者更大的像素。
4.4.3 指标
常见缩略语
点击图片可查看完整电子表格
A. 图像压缩方式JPEG
(joint photographic expert group)静态图像压缩方式。一种有损图像的压缩方式。压缩比越大,图像质量也就越差。 当图像精度要求不高存储空间有限时,可以选择这种格式。目前大部分数码相机都使用JPEG格式。
B. 图像噪音
指的是图像中的杂点干扰,表现为图像中有固定的彩色杂点。
C. 白平衡处理技术(AWB)
白平衡指不管在任何光源下,都能将白色物体还原为白色。白平衡是描述显示器或相机中红、绿、蓝三基色混合生成后白色精确度的一项指标。色温表示光谱成份,光的颜色。色温低表示长波光成分多。当色温改变时,光源中三基色(红、绿、蓝)的比例会发生变化,需要调节三基色的比例来达到彩色的平衡,这就是白平衡调节的实际。
图象传感器的图象数据被读取后,系统将对其进行针对镜头的边缘畸变的运算修正,然后经过坏像处理后被系统送进去进行白平衡处理(在不同的环境光照下,人类的眼睛可以把一些“白”色的物体都看成白色,是因为人眼进行了修正。但是SENSOR没有这种功能,因此需要对SENSOR输出的信号进行一定的修正,这就是白平衡处理技术)。
D. 彩色深度(色彩位数)
反映对色彩的识别能力和成像的色彩表现能力,就是用多少位的二进制数字来记录三种原色。实际就是A/D转换器的量化精度,是指将信号分成多少个等级,常用色彩位数(bit)表示。彩色深度越高,获得的影像色彩就越艳丽动人。非专业的SENSOR一般是24位;专业型SENSOR至少是36位。24位的SENSOR,感光单元能记录的光亮度值最多有2^8=256级,每一种原色用一个8位的二进制数字来记录,最多记录的色彩是256×256×256约16,77万种。36位的SENSOR,感光单元能记录的光亮度值最多有2^12=4096级,每一种原色用一个12位的二进制数字来记录,最多记录的色彩是4096×4096×4096约68.7亿种。
E. 图像格式(image Format/ Color space)
像素格式,比如: RGB24,RGB565,RGB444,YUV4:2:2等。 RGB24,I420是目前最常用的两种图像格式。
RGB24 表示R、G、B ,3种基色都用8个二进制位表示,那么红色、绿色、蓝色各有256种,那么由这三种基色构成的颜色就是256X256X256=16,777,216种,约等于1677万。这就是计算机表示颜色的原理,同样也是手机屏幕和显示器屏幕等显示颜色的原理。
YUV YUV 和我们熟知的 RGB 类似,是一种颜色编码格式。 YUV 包含三个分量,其中 Y 表示明亮度(Luminance 或 Luma),也就是灰度值。 而 U 和 V 则表示色度(Chrominance 或 Chroma),作用是描述图像色彩及饱和度,用于指定像素的颜色。 没有 UV 分量信息,一样可以显示完整的图像,只不过是黑白的灰度图像。 YUV的采样方式
F. 分辨率(Resolution)
所谓分辨率就是指画面的解析度,由多少像素构成的数值越大,图像也就越清晰。分辨率不仅与显示尺寸有关,还会受到显像管点距、视频带宽等因素的影响。
我们通常所看到的分辨率都以乘法形式表现的,比如1024*768,其中的1024表示屏幕上水平方向显示的点数,768表示垂直方向的点数。
点击图片可查看完整电子表格
G. 码流
码流就是指视频数据在单位时间内的数量大小,也叫码率,是视频编码画面质量控制中最重要的部分,同样的分辨率和帧率下,视频码流越大,画面质量越高,对应的存储容量也就越大。
H. 曝光
曝光就是图像的明暗程度 ,照片太暗称为曝光不足 ,照片太亮称为曝光过度。曝光由光圈、曝光时间、ISO三者共同决定。
I. 像素
传感器上有许多感光单元,它们可以将光线转换成电荷,从而形成对应于景物的电子图像。而在传感器中,每一个感光单元对应一个像素(Pixels),像素越多,代表着它能够感测到更多的物体细节,从而图像就越清晰,像素越高,意味着成像效果越清晰。摄像机分辨率的乘积就是像素值,例如:1280×960=1228800
J. 靶面尺寸
图像传感器感光部分的大小,一般用英寸来表示。和电视机一样,通常这个数据指的是这个图像传感器的对角线长度,如 常见的有1/3英寸,靶面越大,意味着通光量越好,而靶面越小则比较容易获得更大的景深。
K. 感光度
即是通过CCD或CMOS以及相关的电子线路感应入射光线的强弱。感光度越高,感光面对光的敏感度就越强,快门速度就越高,这在拍摄运动车辆,夜间监控的时候尤其显得重要。
L. 电子快门
是比照照相机的机械快门功能提出的一个术语。其控制图像传感器的感光时间,由于图像传感器的感光值就是信号电荷的积累,感光越长,信号电荷积累时间也越长,输出信号电流的幅值也越大。电子快门越快,感光度越低,适合在强光下拍摄。
M. 帧率
既指单位时间所记录或者播放的图片的数量。连续播放一系列图片就会产生动画效果,根据人类的视觉系统,当图片的播放速度大于15幅/秒(即15帧)的时候, 人眼就基本看不出来图片的跳跃;在达到24幅/s——30幅/s(即24帧到30帧)之间时就已经基本觉察不到闪烁现象了。
每秒的帧数(fps)或者说帧率表示图形传感器在处理场时每秒钟能够更新的次数。高的帧率可以得到更流畅、更逼真的视觉体验。
N. 信噪比
是信号电压对于噪声电压的比值,信噪比的单位用dB来表示。一般摄像机给出的信噪比值均是AGC(自动增益控制)关闭时的值,因为当AGC接通时,会对小信号进行提升,使得噪声电平也相应提高。
信噪比的典型值为45——55dB,若为50dB,则图像有少量噪声,但图像质量良好;若为60dB,则图像质量优良,不出现噪声,信噪比越大说明对噪声的控制越好。这个参数关系的图像中噪点的数量,信噪比越高,给人感觉画面越干净,夜视的画面中点状的噪点就越少。
4.5 DSP
数字信号处理器DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备
3.5.1 DSP和ISP区别
名词解释:
在介绍Camera ISP和DSP区别前,我们先看看Camera的工作流程
拍摄景物通过镜头,将生成的光学图像投射到传感器上,然后光学图像被转换成电信号,电信号再经过模数转换变为数字信号,数字信号经过DSP加工处理,再被送到电脑中进行处理,最终转换成手机屏幕上能够看到的图像。
数字信号处理器DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。DSP结构框架:
ISP(image signal processor)(图像信号处理器)
JPEG encoder(JPEG图像解码器)
USB device controller(USB设备控制器)
ISP一般用来处理Image Sensor(图像传感器)的输出数据,如做AEC(自动曝光控制)、AGC(自动增益控制)、AWB(自动白平衡)、色彩校正、Lens Shading、Gamma 校正、祛除坏点、Auto Black Level、Auto White Level 等等功能的处理。
DSP功能就比较多了,它可以做些拍照以及回显(JPEG的编解码)、录像以及回放(Video 的编解码)、H.264的编解码、还有很多其他方面的处理,总之是处理数字信号了。
ISP是一类特殊的处理图像信号的DSP。
05
摄像头模组的分类及相关概念
5.1 按接口分
5.1.1 USB接口
UVC,全称 USB Video Class 、是 USB-IF 定制的一套标准,所有遵循这一标准的 USB 接口摄像头在 Windows Linux 等系统下,几乎能直接使用,达到类似免驱的效果。
当然了,并不是说真正的不需要驱动,而是只要某个 USB 接口的摄像头遵循了 UVC标准,它就能被 Window、Linux 系统中一套通用的驱动所驱动,而不需要你再安装其他的驱动。比如 Linux 内核中就有一套针对 UVC 设备的通用驱动:drivers/media/usb/uvc , 只要打开了这套驱动,几乎所有的 UVC 摄像头都可以直接使用。
5.1.2 MIPI接口
MIPI(移动行业处理器接口)是Mobile Industry Processor Interface的缩写。MIPI是MIPI联盟发起的为移动应用处理器制定的开放标准。常见的智能手机上的摄像头是MIPI接口,CSI是相机串行接口(CMOS Sensor Interface)的简称。
MIPI 组织致力于把移动通信设备内部的接口标准化从而减少兼容性问题并简化设计。例如摄像头接口CSI、显示接口DSI、射频接口DigRF、麦克风/喇叭接口SLIMbus等。
MIPI总线速率lvds接口耦合,走线必须差分等长,并且需要保护,故对PCB走线以及阻抗控制要求高一点(一般来讲差分阻抗要求在85欧姆~125欧姆之间)MIPI是LVDS低压差分串口,只需要要CLKP/N、DATAP/N——最大支持4-lane,一般2-lane即可。MIPI接口比DVP的接口信号线少,由于是低压差分信号,产生的干扰小,抗干扰能力也强。DVP接口在信号完整性方面受限制,速率也受限制。500W还可以勉强用DVP,800W及以上都采用MIPI接口。所以高清摄像头我们都选用MIPI接口 。
5.1.3 DVP接口
还有一部分的摄像头(比如说某些支持DVP接口的硬件)是DVP(Digital Video Port)摄像头数据并口传输协议,
DVP是并口,提供8-bit或10-bit并行传输数据线、HSYNC(Horizontal sync)行同步线、VSYNC(Vertical sync)帧同步线和PCLK(Pixel Clock)时钟同步线。
DVP总线PCLK极限约在96M左右,而且走线长度不能过长,所有DVP最大速率最好控制在72M以下,PCB layout较容易画
以OV3640摄像头为例:
DVP分为三个部分:
LVDS接口:LVDS(Low Voltage Differential Signaling)即低压差分信号传输
5.1.4 网口:IPC网络摄像头
5.1.5 SDI接口:专业视频接口,采用同轴电缆的,走数字信号,现在有18GHz带宽的产品,可以满足8K视频传输。
5.1.6 RGB接口:模拟视频接口,采用同轴电缆的,走模拟信号,720x576标清信号以下。
5.1.7 eDP接口:比较新的规范,在笔记本行业将广泛用于取代LVDS,支持超高分辨率,支持1080P以上
5.2 按镜头分类
5.3 按成像分
5.4按感光原件分
5.5按焦距是否可调分
5.6 按sensor封装分
06
摄像头模组的厂商
摄像头模组市场上有众多优秀的厂商,以下是一些代表性的企业:
这些厂商在摄像头模组领域具有较高的技术实力和市场份额,为物联网系统提供了高质量的摄像头模组解决方案。
供应商A:深圳市同赢实业有限公司
1、产品能力:
(1)选型手册
同赢工业摄像头 选型清单.pdf
(2)主推型号1:TYAX100-001
对应的产品详情介绍
品名型号:720P摄像头模组H62
品牌:TY
对焦方式:定焦/手动调焦
线长:标配1M
分辨率:1280*720P
产品接口:USB 2.0
产品尺寸:38*38mm/32*32mm
产品适用于:广告机,门禁,人脸识别
支持系统:And(需加uvc),Win,Linux
产品特点:
1:支持来图来样定制
2:可配不同广角镜头
3:可定制高中低端方案
本文章源自奇迹物联开源的物联网应用知识库Cellular IoT Wiki,更多技术干货欢迎关注收藏Wiki:Cellular IoT Wiki 知识库(https://rckrv97mzx.feishu.cn/wiki/wikcnBvAC9WOkEYG5CLqGwm6PHf)
(如有侵权,联系删除)
开发工匠 2024-10-13 12:54