tag 标签: 图像

相关博文
  • 热度 8
    2019-7-17 08:49
    2968 次阅读|
    2 个评论
    【零基础】量子纠缠图像问世,简单解读实验原理
    量子纠缠图像问世   量子纠缠是量子力学领域的基本现象之一,指两个粒子相互作用并瞬间共享其物理状态。所谓“量子纠缠”,是指一对粒子属性完全相反,如一个粒子自旋向上,则另一个自旋向下,并且当一个粒子的属性改变时,另一个粒子无论距离多远,都会立即变成相反的属性。最近英国物理学家通过一套特殊的“相机”首次拍摄到了量子纠缠的“图像”,今天我们就简单讲一下这个实验的基本原理。 图像解读   研究人员做了无数次实验,最终得到的结果如下图所示。图中每一个环形都是一组实验结果,可以看出实验中分别向四个方向影响了其中一光束的相位,最终导致另一光束向相反方向被动改变相位,最终形成了下图中的四个环形。实验使用的两个光束中,其中一个光束每一个光子都与另一个光束的光子成对“纠缠”,实验结果似乎证明了影响量子纠缠对中一个光子,同时也会导致另一个光子反向运动。 实验原理   实验原理简单示意如下图,研究人员发射了一束激光,该激光经过BBO(偏硼酸钡晶体)时产生了在空间上纠缠的光子对,光子对通过BS(分束器)时进行了分离,一束向着SLM1、另一束向着SLM2。通向SLM1的光束经过某种特殊的影响会产生相位的变化(可以理解为位移),通过SLM2的光束则需要在“Delay line”进行数次反射(延时)最终到达相机。   通过SLM1的光束在“Fiber coupler”处被收集起来并通过光纤线到达“SPAD”,其中SPAD除了记录下光束的“图像”,同时每有一个光子到达它就向“ICCO”发送一个信号提示“光子已到达该拍照了”。   通过SLM2的光束如果直接射向ICCO相机,则其光子到达相机时会因为SPAD到ICCO的电路延时导致相机无法准确地成对拍摄成像。所以通过SLM2的光束需要在“Delay line”折射数次进行延时,使其光子到达ICCO时正好是SLM1方向上另一成对光子到达SPAD的瞬间。   通过上述装置就能同时记录下两个成对光束的图像了,最终结果也表明,影响量子纠缠状态下的一个光子,则另一个光子会向反向运动。 展望   正如论文第一作者、格拉斯哥大学校物理与天文学院保罗-安东尼·莫罗博士所说:“这张图像是对自然基本属性的优雅展示,量子纠缠第一次以图像的形式被看到,这一结果可推动量子计算新兴领域的发展,并催生新型成像技术和设备。”   如果你对量子纠缠现象、量子力学感兴趣建议阅读阿米尔·艾克塞尔的 《纠缠态:物理世界第一谜》 ,这本书对各种经典实验的解释非常简洁到位,让我终于搞清楚了多年云里雾里的各种双缝实验的设计原理。 关注公众号“零基础爱学习”回复“JC”即可获取本书电子版。   “我怀疑,宇宙不仅比我们已料想的更奇怪,甚至比我们能料想的还要奇怪。”                               --霍尔丹 零到壹,爱学习。欢迎关注“零基础爱学习”,我们后续还会更新更多资料和文章,助你实现从零到一的突破。
  • 热度 2
    2015-8-28 17:24
    420 次阅读|
    0 个评论
       1 引 言   医学超声诊断成像技术大多数采用超声脉冲回波法,即利用探头产生超声波进入人体,由人体组织反射产生的回波经换能器接收后转换为电信号,经过提取、放大、处理,再由数字扫描变换器转换为标准视频信号,最后由显示器进行显示。在基于FPGA+ARM 9硬件平台的全数字化B超诊断仪中,前端探头返回的回波电信号需由实时采集系统进行波束合成、相关处理、采集并传输至ARM嵌入式处理系统,视频信号数据量大,实时性要求高,因此选用FPGA+SRAM构成实时采集系统,在速度和容量上都能满足上述要求。主要介绍B超成像系统中应用FPGA进行逻辑控制进行超声视频图像采集的原理和实现。    2 系统构成工作原理   如图1所示,采集系统首先由数字波束合成器对多通道超声回波信号进行波束合成,数字波束合成器对不同通道信号进行延时,使同一点的信号同相相加,同时对多个通道的回波信号进行空间域上的加窗,类似匹配滤波,可以提高信号的信噪比。然后对合成后的超声视频信号做一个帧相关的预处理,即图像帧与帧之间对应象素灰度上的平滑处理。因为叠加在图像上的噪声是非相关且具有零均值的随机噪声,如果在相同条件下取若干帧的平均值来代替原图,则可减弱噪声强度。在帧相关过程中,FPGA要控制数据的读取、处理以及存储。在为了满足视频显示的实时性,该采集系统采用双帧存结构的乒乓机制,由FPGA实现读写互锁控制。经帧相关处理完后的视频数据交替写入帧存A和帧存B,帧存读控制器根据后端处理速度读取帧存中的数据,送往DMA控制器,DMA控制器开启DMA通道进行数据传输。FPGA实现读写控制时,为了避免同时对一个帧存进行读写操作,需要设置读写互斥锁进行存储器状态切换。    3 系统设计与实现   3.1 数字波束合成   对于具有128阵元和32收发通道的超声探头,在进行32路AD转换后,将其分为4组,每组8路接收通道,每组用一片FPGA实现,在该FPGA内首先进行接收延时和动态聚焦再进行加权求和,其后再进行组间的求和产生超声数字视频信号。每一组的系统框图如图2所示:   对不同通道的回波信号进行不同的延时是达到波束聚焦的关键,延时按精度可分为粗延时和细延时:粗延时用于控制A/D采样的开始时间,精度为32 ns,延时参数由FPGA的片内RAM中读出,更换探头时系统控制器将相应数据写入这些RAM;细延时由采样时钟发生器根据不同的通道产生不同的A/D采样时钟,这些时钟的相位互相错开,其错开的值刚好等于各阵元传播延迟之差。考虑到系统的实时性以及探测过程中深度的变化,需要采用动态聚焦。动态聚焦是在A/D采样开始后,通过读取动态聚焦参数,在采样的过程中控制采样时钟发生器实现。   8个通道的回波信号经过A/D采样后,送入FPGA,缓冲之后同步读出进入加权模块,加权模块由8个无符号为数字乘法器组成。回波信号分别与加权参数相乘后得到具有动态聚焦和加权特性的数据。8组数据再经过3级加法器就得到波束合成之后的超声数字视频数据。    3.2 帧相关处理   帧相关模块如图3所示,由帧相关控制器和一片存储器组成,进行帧相关的存储器采用大小为256 kB的静态存储器(SRAM)。帧相关控制器由FPGA实现,完成地址产生、存储器读写控制、帧相关计算功能,因为实时性的要求,即保证送往后端双帧存的数据不能中断,所以考虑到对逐个象素数据读写的同时就进行相关处理,而且需要在同一个象素时钟周期内完成。读写控制器在1个象素时钟周期的前半段需要读出存储器中的数据和当前帧数据进行相关处理;时钟周期的后半段再将相关处理完的数据写入存储器以备后用,这样送往后端双帧存的数据依然是和象素时钟对应的连续象素数据。   帧相关的工作流程如下:   (1)地址产生。地址的产生由一个象索计数器实现,输入信号为帧同步信号VS和象素时钟CLK。前端提供的帧同步信号VS为该计数器的复位信号,在每一帧的开始,计数器清零,然后根据象素时钟CLK计数生成地址,每个象素时钟周期内地址不变,依据此地址进行存储器的读写。   (2)读取已有数据及相关处理。在一个象素时钟周期的前半段,也就是CLK跳变为高电平时,读写控制器输出的读信号OEl为有效,读出前帧中一个象素的数据,送到FPGA内部实现的加法器的A口,与同时到达B口的当前帧的对应象素数据相加平均。   (3)数据保存及传输。在同一个象素时钟周期的后半段,也就是CLK跳变为低电平时,读写控制器输出的写信号WEl为有效,相关处理完的数据写回原来的地址,同时该数据也送往帧存写控制模块。    3.3 帧存乒乓读写控制机制   超声视频图像需要实时地采集并在处理后在显示器上重建,图像存储器就必须不断地写入数据,同时又要不断地从存储器读出数据送往后端处理和显示。另外,为了满足这种要求,可以在采集系统中设置2片容量一样的帧存,通过乒乓读写机制来管理,结构如图3所示。为了确保任何时刻,只能有1片帧存处于写状态,设置1个写互斥锁;同时,只能有1片帧存处于读状态,设置一个读互斥锁。在系统初始时,1片帧存为等待写状态,另1片为等待读状态;开始工作后,2片都处于读写状态轮流转换的过程,转换的过程相同,但是2片状态相错开,这样就能够保证数据能连续地写入和读出帧存。该机制如图4所示,工作流程为:   (1)采集过程未开始,帧存A为等待写状态,获得写互斥锁;帧存B为等待读状态,获得读互斥锁;   (2)帧存写控制器收到一帧开始信号,判断为采集开始,设置帧存A写信号WE2 A有效,帧存A开始写入当前帧数据;同时帧存读控制器设置帧存B读信号OE2_B有效,帧存B则开始读出所存数据;   (3)一帧结束,帧存A写结束,释放写互斥锁;帧存B读结束,释放读读斥锁;   (4)等待另一帧开始,帧存A获得读互斥锁;帧存B获得写读斥锁;   (5)另一帧开始,写控制器设置帧存B写信号WE2B有效,帧存B开始写入数据;读控制器设置帧存A读信号OE2 A有效,帧存A则开始读出数据。    3.4 DMA传输   对整个B超诊断仪来说,系统要完成视频图像数据的实时采集和指定的处理,高性能ARM处理器的处理能力可达每秒数百万条指令,因此数据的传输设计是提高系统速度的关键环节。ARM处理系统与外部的数据传输可以通过CPU访问外部存储器的方法实现,但是效率低下,不能满足系统实时性的要求,而DMA数据传输以不占用CPU时间和单周期吞吐率进行数据传输的优点在实时视频图像采集系统中得到广泛的应用。但是因为DMA的传输速率和前端视频图像数据的输入速率不匹配,很难发挥出DMA数据传输的优势。由可编程的FPGA控制SRAM组成的双帧存可以很好地解决这个问题;此外,FPGA内部嵌入了一定数量的RAM,可以经过配置成缓冲存储器,通过灵活的逻辑结构可以方便地实现对输入输出数据流的控制,成为连接ARM处理系统和SRAM的纽带和桥梁。    4 结 语   在B超数字视频图像实时采集系统中采用FPGA作为采集控制部分,首先可以提高系统处理的速度及系统的灵活性和适应性:由于在FPGA和ARM处理系统之间采用SRAM做数据缓冲,并用DMA方式进行传输,大大提高系统的性能;由于采用FPGA可编程逻辑器件,对于不同的超声视频信号,只要在FPGA内对控制逻辑稍做修改,便可实现信号采集;FPGA的外围硬件电路简单,因而在硬件设计中,可以大大减小硬件设计的复杂程度。而FPGA的时序逻辑调试可在软件上仿真实现,因而降低硬件调试难度。
  • 热度 4
    2015-3-24 13:58
    455 次阅读|
    0 个评论
      现场 图像 采集 技术发展迅速,各种基于ISA、PCI等总线的图像采集卡已经相当成熟,结合课题设计了一款 USB 外置式图像采集卡。该图像采集卡已成功应用于一个图像处理和识别的项目中,由于图像信号不经过压缩处理,对后续处理没有任何影响,因此图像处理和识别的效果比一般的图像采集卡要好,满足了特殊场合的特殊需要。   1 外置式无损图像采集卡的系统构成   整个无损图像采集卡由图像采集、图像信号的处理和控制、USB传输和控制、PC机端的图像还原和存储等几部分组成。   本文介绍的图像采集卡采集的一帧图像是720×576象素,如果取彩色图像,每象素用2个字节表示,每帧图像是720×576×16=6480kbps,分成奇数场和偶数场分别存储在两片SRAM中,则每片的SRAM存储3240kbps的图像数据,因此选用了256K×16=4M位的静态存储器(SRAM)。在图像处理领域,通常只需要黑白图像,可以只取图像的黑白部分,每象素用1个字节表示,每帧图像是720×576×8=3240kbps,每片SRAM存储1620kbps的图像数据。所采用的EZ-USB芯片理论速率是12Mbps,实际测 得的速率是8Mbps,因此图像采集卡每秒传输约1帧彩色图像或2帧黑白图像。   当插上图像采集卡后,PC机会自动识别它。在PC机上,应用程序通过USB向 FPGA / CPLD 发送图像采集命令,CCD摄像头输出的PAL制式或NTSC制式的模拟视频信号通过A/D转换芯片转换成数字视频信号,用FPGA/CPLD作为采样控制器,将数字信号存入静态存储器(SRAM)中,当完成一帧图像采集后,FPGA/CPLD向USB发送中断信号,要求USB进行图像数据的传输,在PC机端接收USB送来的一帧图像数据,并且显示、存储图像。文本具体讲述了用该采集卡进行黑白图像的传输,整个硬件框图如图1所示。     2 外置式无损图像采集卡的研制   2.1 图像采集部分   图像采集部分选用了Philips公司的视频A/D转换芯片SAA7111A(EVIP),对SAA7111A的初始化是通过EZ-USB所提供的一对I2C引脚SDA和SCL进行的,在USB固件程序(Firmware)中进行I2C通信程序的编写。本系统中SAA7111A的初始设定为:一路模拟视频信号输入、自动增益控制、625行50Hz PAL制式、YUV 422 16bits数字视频信号输出、设置默认的图像对比度、亮度及饱和度。SAA7111A芯片产生的数字视频信号、控制信号和状态信号送入控制芯片FPGA/CPLD中,即把场同步信号VREF、行同步信号HREF、奇偶场标志信号RTS0、片选信号CE、垂直同步信号VS、象素时钟信号LLC2以及数字视频信号VPO 等管脚连接到FPGA/CPLD芯片LC4128V,以便LC4128V获知各种采集信息。同时,SRAM芯片的读写信号、片选信号、高低字节信号、数据线IO 和地睛线A 连接到LC4128V,整个采集过程由FPGA/CPLD芯片LC4128V控制。   在PC机端,通过USB发出图像采集命令后,FPGA/CPLD进行图像采集,由于CCD摄像头输出模拟信号,需要经过视频A/D转化睛,把模拟视频信号转化成数字视频信号,输入进FPGA/CPLD芯片,FPGA/CPLD根据状态信号RTS0把奇偶场图像信号分别存储在SRAM(ODD)和SRAM(EVEN)中。   2.2 图像信号的处理和控制   这部分是无损图像采集卡的核心,需要对外围的器件进行集中控制和处理。FPGA/CPLD对图像信号的采集、控制、存储数据到SRAM以及从SRAM读取数据都在这里实现。选用了Lattice公司的新一代产品ispMACH4000V-LC4128V,采用Verilog HDL作为硬件描述语言,但是所编写的Verilog源程序都适用于FPGA器件,又适用于CPLD器件。 点击看原图   FPGA/CPLD与USB接口部分由七个部分构成(如图1所示):Start线是拍摄线,它可以向FPGA/CPLD发出图像采集命令,FPGA/CPLD把当前的奇数场图像存储在SRAM(ODD)中,把当前的偶数场图像存储在SRAM(EVEN)中;当一帧数据全部存储完后,发出中断(Interrupt)信号通知USB芯片;同时用State线作为状态线,当State线为低电平时,表明USB可以从SRAM读数据,当State线为高电平时,表明FPGA/CPLD正在向SRAM写数据;RamOdd用来选择从SRAM(ODD)中读取奇数场的数字视频信号;RamEven用于选择从SRAM(EVEN)中读取偶数场的数字视频信号;FPGA/CLPD输出的数据线连接至 USB 和SRAM芯片,再通过USB传送到PC机;FrdClk线是USB快速读写方式输出的读选通信号,作为SRAM的时钟,每来一个时钟脉冲,地址值就加1,然后将对应地址单元中存储的数据通过USB传输到PC机上。 点击看原图   下面阐述 FPGA / CPLD 如何对数据传输进行控制,这部分是个难点(如图2所示)。这里只讨论如何对奇数场的数字视频信号进行控制,对偶数场的控制类似于对奇数场的控制,本文不再多述。当LingPai为高电平时,表示FPGA/CPLD向SRAM存储奇数场 图像 数据,此时时钟为LLC2。当场同步信号VREF、行同步信号HREF、奇偶场标志信号RTS0为高电平时,改变相应SRAM的地址信号,并且把数字视频信号输出以内部的缓冲器VI,当LingPai为低电平时,表示USB正在从SRAM读取奇数场图像数据,此时时钟为FrdClk。FPGA/CPLD内部用AddressChange记录LingPai的变化,当发现有LingPai变化时,表示读取数据变成了存储数据或者存储数字变成了读取数据,此时需要把SRAM的地址值变成0。成V erilog中灵活运用了非阻塞型过程赋值(参见下 面的源程序),解决了这个技术难点。此外,需要把从SAA711A输出的数字视频信号先放在缓冲器VI 中,在LingPaiAll为高电平时,通过VO 输出到SRAM,保证存储数据的可靠同步性。这部分Verilog源程序如下:   always @(posedge InCLK)   begin   AddressChange=LingPai;   if(VREF HREF RTS0 LingPai)   begin VI=VPO;A=A +1;end   if(!LingPai !OE1) begin A =A +1;   end   if(LingPai!=AddressChange) begin A =0; end   end   2.3 USB的开发和数据传输   Cypress公司推出的带有USB接口的EZ-USB系列处理器,实现了外围设备通过USB接口与PC机进行数据通信。它通过内部RAM编程和数据存储,使得芯片具有软特性。USB主机通过USB总线下载8051程序代码和设备特征到RAM中,然后EZ-USB芯片作为一个由代码定义的外围设备重新连接到主机上(重枚举)。   USB规范1.1版本定义了USB的四种数据传输模式:控制传输、同步传输、中断传输和块传输,以适应不同应用场合的需求。其中块传输方式提供数据校验,适用于无误传输大指数据的场合。本课题选用USB的块传输方式,同时采用了EZ-USB的快速传输模式,理论速率为12Mbps,实际最高速率能达到8Mbps。   当PC机检测到USB图像 采集 卡已经插上后,PC机可自动地将图像采集卡的驱动程序装入操作系统,同时PC机通过USB总线下载8051程序代码和设备特片到USB的RAM中。   USB的开发包括USB的固件程序、Windows设备驱动程序和Windows主机应用程序的编制,限于篇幅,这里只简单介绍一下USB固件程序(Firmware)的编制。USB固件程序的具体流程如图3所示,在源程序的TD_Poll()中加入了对比度、亮度及饱和度的调节,以做到在硬件上对图像处理中的上述重要参数的调节,在外部中断1中完成一帧数据的快速传输。   由于采用了外部中断1,为了避免与USB中断的冲突,需要在工程中自己编写一个汇编文件,内容如下:   cseg at 43h   ljmp 1800h   end   此外,在编写的Keil C源程序中需要加两句话,以解决USB中断和外部中断的地址重叠问题。   #pragma intvector (0x17FD)   #pragma interval(4)   为了增加USB传输数字视频信号的速度,采用USB的快速读写模式,在Keil C源程序中内嵌对USB进行寄存器设置的汇编代码。配置了USB的时钟控制寄存器,采用全速访问数据存储器,MOVX指令在两个机器周期内实行,时钟频率为24MHz,因此USB产生的读选通宽度为83.3ns。配置端口A,使能PORTACFG(16进制地址为7F93H)寄存器中的快速读FRD。配置快速传输控制寄存器FASTXFR(16进制地址为7FE2 H),采用快速块传输,使能快速读写信号。为了将端点2缓冲匹配置成FIFO,增加读写速度,8051将端点2缓冲区(IN2)的首地址7E00H装入自动指针AUTOPTRH(16进制地址为7FE3H)和AUTOPTRL(16进制地址为7FE4H),并且dptr指向AUTODATA(16进制地址为7FE5H),也就是指向了FIFO寄存器,这样8051可以完全像FIFO一样访问端点2缓冲区。   2.4 PC机端的 图像 还原   在PC机端,用Visual C++ 6.0编写客户应用程序,应用程序通过 USB 接收原始的奇数场和偶数场图像数据,待接收完奇数场和偶数场图像数据后,应用程序把它们组成完整的一帧图像,并且把该帧图像数据存储到硬盘上,然后把这帧图像转化成BMP格式的图像,以BMP格式再次在硬盘上存储图像数据,同时以BMP的形式显示图像。    3 应用前景   该无损图像 采集 卡虽然是针对特殊的图像处理应用而研发的,但它的作用很广,能应用于嵌入式系统中的图像传输、集成电路和精密机械领域中的器件定位等。此外,如果用USB2.0代替USB1.1,则能实时传输图像数据到PC机或嵌入式系统,用软件进行图像数据的压缩处理,这块外置式图像采集卡可以作为一个很好的实时 监控设备,以降低硬件成本。
  • 热度 1
    2012-12-6 11:18
    710 次阅读|
    0 个评论
    1 .有关色彩的基本常识   我们知道,只要是彩色都可用亮度、色调和饱和度来描述,人眼中看到的任一彩色光都是这三个特征的综合效果。那么亮度、色调和饱和度分别指的是什么呢?   ★ 亮度:是光作用于人眼时所引起的明亮程度的感觉,它与被观察物体的发光强度有关;   ★ 色调:是当人眼看到一种或多种波长的光时所产生的彩色感觉,它反映颜色的种类,是决定颜色的基本特性,如红色、棕色就是指色调;   ★ 饱和度:指的是颜色的纯度,即掺入白光的程度,或者说是指颜色的深浅程度,对于同一色调的彩色光,饱和度越深颜色越鲜明或说越纯。通常我们把色调和饱和度通称为色度。 现在你该明白了,亮度是用来表示某彩色光的明亮程度,而色度则表示颜色的类别与深浅程度。除此之外,自然界常见的各种颜色光,都可由红(R)、绿(G)、蓝(B)三种颜色光按不同比例相配而成;同样绝大多数颜色光也可以分解成红、绿、蓝三种色光,这就形成了色度学中最基本的原理----三原色原理(RGB)。 2. 目前常见的图形(图像)格式   一般来说,目前的图形(图像)格式大致可以分为两大类:一类为位图;另一类称为描绘类、矢量类或面向对象的图形(图像)。前者是以点阵形式描述图形(图像)的,后者是以数学方法描述的一种由几何元素组成的图形(图像)。一般说来,后者对图像的表达细致、真实,缩放后图形(图像)的分辨率不变,在专业级的图形(图像)处理中运用较多。   在介绍图形(图像)格式前,我们实在有必要先了解一下图形(图像)的一些相关技术指标:分辨率、色彩数、图形灰度。   ★ 分辨率:分为屏幕分辨率和输出分辨率两种,前者用每英寸行数表示,数值越大图形(图像)质量越好;后者衡量输出设备的精度,以每英寸的像素点数表示;   ★ 色彩数和图形灰度:用位(bit)表示,一般写成2的n次方,n代表位数。当图形(图像)达到24位时,可表现1677万种颜色,即真彩。灰度的表示法类似;   下面我们就通过图形文件的特征后缀名(就是如图.bmp这样的)来逐一认识当前常见的图形文件格式:BMP、DIB、PCP、DIF、WMF、GIF、JPG、TIF、EPS、PSD、CDR、IFF、TGA、PCD、MPT。   ★ BMP(bit map picture):PC机上最常用的位图格式,有压缩和不压缩两种形式,该格式可表现从2位到24位的色彩,分辨率也可从480x320至1024x768。该格式在Windows环境下相当稳定,在文件大小没有限制的场合中运用极为广泛。       ★ DIB(device independent bitmap):描述图像的能力基本与BMP相同,并且能运行于多种硬件平台,只是文件较大。     ★ PCP(PC paintbrush):由Zsoft公司创建的一种经过压缩且节约磁盘空间的PC位图格式,它最高可表现24位图形(图像)。过去有一定市场,但随着JPEG的兴起,其地位已逐渐日落终天了。   ★ DIF(drawing interchange formar):AutoCAD中的图形文件,它以ASCII方式存储图形,表现图形在尺寸大小方面十分精确,可以被CorelDraw,3DS等大型软件调用编辑。   ★ WMF(Windows metafile format):Microsoft Windows图元文件,具有文件短小、图案造型化的特点。该类图形比较粗糙,并只能在Microsoft Office中调用编辑。   ★ GIF(graphics interchange format):在各种平台的各种图形处理软件上均可处理的经过压缩的图形格式。缺点是存储色彩最高只能达到256种。   ★ JPG(joint photographics e*pert group):可以大幅度地压缩图形文件的一种图形格式。对于同一幅画面,JPG格式存储的文件是其他类型图形文件的1/10到1/20,而且色彩数最高可达到24位,所以它被广泛应用于Internet上的homepage或internet上的图片库。   ★ TIF(tagged image file format):文件体积庞大,但存储信息量亦巨大,细微层次的信息较多,有利于原稿阶调与色彩的复制。该格式有压缩和非压缩两种形式,最高支持的色彩数可达16M。   ★ EPS(encapsulated PostScript):用PostScript语言描述的ASCII图形文件,在PostScript图形打印机上能打印出高品质的图形(图像),最高能表示32位图形(图像)。该格式分为Photoshop EPS格式adobeillustrator EPS和标准EPS格式,其中后者又可以分为图形格式和图像格式。   ★ PSD(photoshop standard):Photoshop中的标准文件格式,专门为Photoshop而优化的格式。   ★ CDR(coreldraw):CorelDraw的文件格式。另外,CDX是所有CorelDraw应用程序均能使用的图形(图像)文件,是发展成熟的CDR文件。     ★ IFF(image file format):用于大型超级图形处理平台,比如AMIGA机,好莱坞的特技大片多采用该图形格式处理。图形(图像)效果,包括色彩纹理等逼真再现原景。当然,该格式耗用的内存外存等的计算机资源也十分巨大。   ★ TGA(tagged graphic):是True vision公司为其显示卡开发的图形文件格式,创建时期较早,最高色彩数可达32位。VDA,PIX,WIN,BPX,ICB等均属其旁系。 视频(动画)   1.动态图像的组成        动态图像,包括动画和视频信息,是连续渐变的静态图像或图形序列,沿时间轴顺次更换显示,从而构成运动视感的媒体。当序列中每帧图像是由人工或计算机产生的图像时,我们常称作动画;当序列中每帧图像是通过实时摄取自然景象或活动对象时,我们常成为影像视频,或简称为视频。动态图像演示常常与声音媒体配合进行,二者的共同基础是时间连续性。一般意义上谈到视频时,往往也包含声音媒体。但在这里,视频(动画)特制不包含声音媒体的动态图像。      2.动画的定义      什么是动画?所谓动画,就是通过以每秒15到20帧的速度(相当接近于全运动视频帧速)顺序地播放静止图像帧以产生运动的错觉。因为眼睛能足够长时间地保留图像以允许大脑以连续的序列把帧连接起来,所以能够产生运动的错觉。我们可以通过在显示时改变图像来生成简单的动画。最简单的方法是在两个不同帧之间的反复。这种方法对于指示"是"或"不是"的情况来说是很好的解决方法。另一种制作动画的方法是以循环的形式播放几个图像帧以生成旋转的效果,并且可以依靠计算时间来获得较好的回放,或用记时器来控制动画。      3.常见的视频文件格式      视频信息在计算机中存放的格式有很多,目前最流行的两种格式是:      苹果公司的Quicktime和微软的AVI。      ★ Quicktime:是苹果公司采用的面向最终用户桌面系统的低成本、全运动视频的方式,现在在软件压缩和解压缩中也开始采用这种方式了。其向量量化是Quicktime软件的压缩技术之一,它在最高为30帧/秒下提供的视频分辨率是320x240,其压缩率能从25到200。      ★ AVI:类似于Quicktime,是微软公司采用的音频视频交错格式,也是一种桌面系统上的低成本、低分辨率的视频格式。AVI可在160x120的视窗中以15帧/秒回放视频,并可带有8位的声音,也可以在VGA或超级VGA监视器上回放。AVI很重要的一个特点是可伸缩性,使用AVI算法时的性能依赖于与它一起使用的基础硬件。 MPEG-4简介 MPEG-4是目前业界先进的视频压缩技术,具有直览图像清晰,传输带宽要求低,远程监控方便等特点。   MPEG 协会创建于1987年。MPEG是Motion Pictures E*pert Group的缩写。这个协会是一个全球性的机构,主要致力于影像压缩的研究。MPEG-1,用于VCD内的压缩技术,MPEG-2,用于DVD内的压缩技术,以及MP3压缩方法,都是由这个协会创建的。MPEG的压缩方式的优点除了画面质量高,带宽要求低以外,也是在于它是现在数码影像届公认的商业标准。使用MPEG压缩方式的影像数据流可以通过各类的媒体播放器播放。 以下是MPEG-4与MPEG-1和MPEG-2的比较: MPEG-1 MPEG-2 MPEG-4 标准创建时间 1992 1995 1999 最高图像分辨率 352 x 288 1920 x 1152 720 x 576 普通PAL制式分辨率 352 x 288 720 x 576 720 x 576 普通NTSC制式分辨率 352 x 288 640 x 480 640 x 480 最佳声音频率 48 kHz 96 kHz 96 kHz 最多声音通道 2路 8路 8路 最高数据流量 3 Mbps 80 Mbps 5 to 10 Mbps 一般数据流量 1380 kbps (352 x 288) 6500 kbps (720 x 576) 880 kbps (720 x 576) 帧每秒(PAL) 25 25 25 帧每秒(NTSC) 30 30 30 图像质量 一般 非常好 非常好 编码硬件要求 低 高 非常高 解码硬件要求 非常低 中等 高   技术支持-监控常识 监控系统性能对比表 比较内容 计算机数字压缩监控系统 闭路电视监控系统 多媒体监控系统 压缩方式 对图像进行数字压缩 无图像数字压缩 不对图像进行数字压缩 配  置   在先进的计算机上集成,设备简洁,可靠性高 由监视器、录像机、编码器解码器、视频转换器、图像分割器、矩阵等组成。设备多、可靠性低 由监视器、录像机、编码器解码器、视频转换器、图像分割器、矩阵等组成。设备多、可靠性低 纪录方式 数字信号 模拟信号 模拟信号 图  像   由计算机显示器显示,图像分辨率达1024x768, 16位增强色,高分辨率,高清晰度,高画质     采用监视器显示,扫描线分辨率为300线   可由计算机显示器显示分辨率可达1204x768或由显示器显示分辨率为300线   传  输   可通过普通电话线远距离传输图形信号,传输速度率为5/帧秒,且能保证图像质量 不能远距离传输 可进行单帧传输 安  全   系统智能化,自动登陆每一个进入系统的人员,有多个安全防范等级,能有效的防范内部人员作案   任何人都可进入系统而不被纪录,不能防范内部人员作案   不能对每个进入系统的人进行安全检测,不能防范内部人员作案 系  统   采用计算机中文视窗Win2000操作平台,可支持各种软、硬件的扩展,随着计算机升级而升级   系统一经配套组合,便不可升级   系统一经配套组合,便不可升级 操  作   操作简单到只要一按电源开关即可,全自动进入监视状态   需要开启每一台设备的电源,并设置每一设备的参数后,方可工作   需要开启每一台设备的电源,并设置每一设备的参数后,方可工作 值  守 可无人值守 根据系统大小,需多人值守 根据系统大小,需多人值守 功  耗 150W-500W 500W-3000W 500W-3000W   录  制 可多个硬盘循环录制 磁带更换录制 不能循环录制   回  放   可单帧画面回放检索即连续回放,画面质量可靠    只能利用录像机暂停键查看画面,画面质量差   可单帧画面回放或利用录像机暂停键查看画面 检  索    多检索点,可根据文件类型摄像机型号及文件的年月日时分秒进行所要的画面检索   需耗费很多时间自在录像带上反复进退查找确定时刻的画面内容,对某一时刻进行检索难度大,偶然性强  检索方式略多于模拟纪录方式 编  辑    支持多种软件,可对图像的每一帧画面进行多次编辑、修复、打印  不能编辑、修复、打印   可对图像的每一帧画进行多次编辑、修复、打印 图像校正   计算机软件可调整图像清晰度\对比度、亮度及色度等 不能做任何校正   可部分调整图像清晰度对比度亮度及色度等 报  警   智能报警,即可将报警后的图像录入,也可将报警前的内容录下来 只能录下报警后的内容   可将报警后的的内容,也可将报警前的内容自动录入 维  修  无需拆机维护,经培训后普通保安人员即可进行维护   对系统中的每一部分都必须专人定期保养维护,如:清洁录像机磁头、保存录像带等  对系统中的每一部分都必须专人定期保养维护 占用空间   相当于PC机的体积,占用空间很小   设备及连线复杂,占用空间较大   设备及连线复杂,占用空间较大 价  格   经济,原有设备不至浪费,免费升级软件,可在相当长的时间内不被淘汰 设备投资大,维修费用高,且无升级潜力   设备投资大,维修费用高,且无升级潜力 多媒体数据压缩和编码技术标准   目前,被国际社会广泛认可和应用的通用压缩编码标准大致有如下四种:      H.261、JPEG、 MPEG和DVI。      ★ H.261:由CCITT(国际电报电话咨询委员会)通过的用于音频视频服务的视频编码解码器(也称Px64标准),它使用两种类型的压缩:一帧中的有损压缩(基于DCT)和用于帧间压缩的无损编码,并在此基础上使编码器采用带有运动估计的DCT和DPCM(差分脉冲编码调制)的混合方式。这种标准与JPEG及MPEG标准间有明显的相似性,但关键区别是它是为动态使用设计的,并提供完全包含的组织和高水平的交互控制。        ★ JPEG:全称是Joint Photogragh Coding Experts Group(联合照片专家组),是一种基于DCT的静止图像压缩和解压缩算法,它由ISO(国际标准化组织)和CCITT(国际电报电话咨询委员会)共同制定,并在1992年后被广泛采纳后成为国际标准。它是把冗长的图像信号和其它类型的静止图像去掉,甚至可以减小到原图像的百分之一(压缩比100:1)。但是在这个级别上,图像的质量并不好;压缩比为20:1时,能看到图像稍微有点变化;当压缩比大于20:1时,一般来说图像质量开始变坏。      ★ MPEG:是Moving Pictures E*perts Group(动态图像专家组)的英文缩写,实际上是指一组由ITU和ISO制定发布的视频、音频、数据的压缩标准。它采用的是一种减少图像冗余信息的压缩算法,它提供的压缩比可以高达200:1,同时图像和音响的质量也非常高。现在通常有三个版本:MPEG-1、MPEG-2、MPEG-4以适用于不同带宽和数字影像质量的要求。它的三个最显著优点就是兼容性好、压缩比高(最高可达200:1)、数据失真小。      ★ DVI:其视频图像的压缩算法的性能与MPEG-1相当,即图像质量可达到VHS的水平,压缩后的图像数据率约为1.5Mb/s。为了扩大DVI技术的应用,Intel公司最近又推出了DVI算法的软件解码算法,称为Indeo技术,它能将为压缩的数字视频文件压缩为五分之一到十分之一。   说到MPEG,相信没有哪位朋友会不知道,但要追根究底地问你MPEG到底是什么,恐怕就没有多少人能正确地回答出来了。实际上,MPEG的全称应该是Moving Pictures E*perts Group(即动态图像专家组),由ISO(International Standards Organization,国际标准化组织)与IEC(International Electronic Committee)于1988年联合成立,致力于运动 图像(MPEG视频)及其伴音编码(MPEG音频)标准化工作。 MPEG共有4个版本,其中前两个版本MPEG-1和MPEG-2应用比较广泛,而MPEG-4虽然已推出近两年,但有关它的应用却直到最近才活跃起来,MPEG-7则是属于未来的标准。今天,我们就在了解MPEG这个家庭的成长历程和各个成员的特点的基础上,重点看看MPEG-4的特点和应用,相信在不久,大家就会广泛地接触到采用MPEG-4这种先进技术制作的产品。   广泛应用的MPEG-1与MPEG-2   MPEG-1标准(ISO/IEC11172)制定于1992年,是针对1.5Mbps以下数据传输率的数字存储媒体运动图像及其伴音编码设计的国际标准,主要用于在CD-ROM(包括Video-CD、CD-I等)存储彩色的同步运动视频图像,它针对SIF(标准交换格式)标准分辨率(NTSC制为352×240;PAL制为352×288)的图像进行压缩,每秒可播放30帧画面,具备CD(指激光唱盘)音质。同时,它还被用于数字电话网络上的视频传输,如非对称数字用户线路(ADSL)、视频点播(VOD)、教育网络等。   使用MPEG-1的压缩算法,可以将一部120分钟长的电影压缩到1.2GB左右,因此,它被广泛地应用于VCD制作和一些视频片段的下载,目前90%以上的VCD都是用MPEG-1格式压缩的。     MPEG-2标准ISO/IEC13818)制定于1994年,是针对3~10Mbps的数据传输率制定的的运动图像及其伴音编码的国际标准。MPEG-2可以提供一个较广的范围改变压缩比,以适应不同画面质量、存储容量和带宽的要求。它在与MPEG-1兼容的基础上实现了低码率和多声道扩展:MPEG-2可以将一部120分钟长的电影压缩到4~8GB(它提供的是我们通常所说的DVD品质),其音频编码可提供左右中及两个环绕声道、一个加重低音声道和多达7个伴音声道(因此DVD可有8种语言配音)。   除了作为DVD的指定标准外,MPEG-2还可用于为广播、有线电视网、电缆网络等提供广播级的数字视频。不过对普通用户来说,由于现在电视机分辨率的限制,MPEG-2所带来的高清晰度画面质量(如DVD画面)在电视上效果并不明显,倒是其音频特性(如加重低音、多伴音声道等)得到了广泛的应用。   MPEG-3是ISO/IEC最初为HDTV(高清晰电视广播)制定的编码和压缩标准,但由于MPEG-2的出色性能已能适用于HDTV,因此MPEG-3标准并未制定,我们通常所说的MP3指的是MPEG Layer 3,只是MPEG的一个音频压缩标准。   令人称道的MPEG-4   MPEG-4于1998年11月公布,预计投入使用的国际标准MPEG-4是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。为此,MPEG-4引入了AV对象(Audio/Visual Objects),使得更多的交互操作成为可能:   "AV对象"可以是一个孤立的人,也可以是这个人的语音或一段背景音乐等。它具有高效编码、高效存储与传播及可交互操作的特性。     MPEG-4对AV对象的操作主要有:采用AV对象来表示听觉、视觉或者视听组合内容;组合已有的AV对象来生成复合的AV对象,并由此生成AV场景;对AV对象的数据灵活地多路合成与同步,以便选择合适的网络来传输这些AV对象数据;允许接收端的用户在AV场景中对AV对象进行交互操作等。   MPEG-4标准则由6个主要部分构成:     1、DMIF(The Deliveries Multimedia Integration Framework,多媒体传送整体框架)。主要用于解决交互网络中、广播环境下以及磁盘应用中多媒体应用的操作问题。通过传输多路合成比特信息来建立客户端**务器端的连接与传输。   2、数据平面。为了使基本流和AV对象在同一场景中出现,MPEG-4引用了对象描述(OD)和流图桌面(SMT)的概念。OD传输与特殊AV对象相关的基本流的信息流图。桌面把每一个流与一个CAT(Channel Association Tag)相连,CAT可实现该流的顺利传输。   3、缓冲区管理和实时识别。MPEG-4定义了一个系统解码模式(SDM),该解码模式描述了一种理想的处理比特流句法语义的解码装置,它要求特殊的缓冲区和实时模式。通过有效地管理,可以更好地利用有限的缓冲区空间。   4、音频编码。MPEG-4不仅支持自然声音,而且支持合成声音。MPEG-4的音频部分将音频的合成编码和自然声音的编码相结合,并支持音频的对象特征。   5、视频编码。与音频编码类似,MPEG-4也支持对自然和合成的视觉对象的编码。合成的视觉对象包括2D、3D动画和人面部表情动画等。   6、场景描述。MPEG-4提供了一系列工具,用于组成场景中的一组对象。一些必要的合成信息组成场景描述,用于描述各AV对象在一具体AV场景坐标下,如何组织与同步等问题。   MPEG-4的应用   与MPEG-1和MPEG-2相比,MPEG-4更适于交互AV服务以及远程监控,它的设计目标使其具有更广的适应性和可扩展性: MPEG-4传输速率在4800-64000bps之间,分辨率为176×144,可以利用很窄的带宽通过帧重建技术压缩和传输数据,从而能以最少的数据获得最佳的图像质量。因此,它将在数字电视、动态图像、互联网、实时多媒体监控、移动多媒体通信、Internet/Intranet上的视频流与可视游戏、DVD上的交互多媒体应用等方面大显身手。   当然,对于普通用户来说,MPEG-4在目前来说最有吸引力的地方还在于它能在普通CD-ROM上基本实现DVD的质量:用MPEG-4 压缩算法的ASF(Advanced Streaming format,高级格式流)可以将120分钟的电影压缩为300MB左右的视频流;采用MPEG-4压缩算法的DIVX 视频编码技术可以将120分钟的电影压缩600MB左右,也可以将一部 DVD影片压缩到 2 张 CD-ROM上!也就是说,有了MPEG-4,你不需要购买 DVD-ROM 就可以享受到和它差不多的视频质量!播放这种编码的影片对机器的要求并不高:只要你的电脑有300MHz 以上(无论是哪种型号)的CPU、64MB内存、8MB的显卡就可以流畅地播放。   不过,和DVD相比,MPEG-4属于一种高比率有损压缩算法,其图像质量始终无法和DVD的MPEG-2相比,毕竟DVD的存储容量比较大。此外,要想保证高速运动的图像画面不失真,必须有足够的码率,目前MPEG-4的码率虽然可以调到和DVD差不多,但总体效果还有不小的差距。因此,现在的MPEG-4只能面向娱乐、欣赏方面的市场,那些对图像质量要求较高的专业视频领域暂时还不能采用。   属于未来的MPEG-7   继MPEG-4之后,要解决的矛盾就是对日渐庞大的图像、声音信息的管理和迅速搜索。1998年10月基于这种设想的MPEG-7标准被提出,它的正式名称是"多媒体内容描述接?quot;,将对各种不同类型的多媒体信息进行标准化的描述,并将该描述与所描述的内容相联系,以实现快速有效的搜索。   由于该标准不包括对描述特征的自动提取,它也没有规定利用描述进行搜索的工具或任何程序,因此,它可以独立于其他MPEG标准使用,但MPEG-4中所定义的对音频、视频对象的描述仍然适用于MPEG-7,这种描述是分类的基础。我们可以也利用MPEG-7的描述来增强其他MPEG标准的功能。   MPEG-7的应用范围很广泛,既可应用于存储(在线或离线),也可用于流式应用(如广播、将模型加入Internet等)。它还可以在实时或非实时环境下应用,如:数字图书馆(图像目录、音乐字典等)、多媒体名录服务(如黄页)、广播媒体选择(无线电信道,TV信道等)等。它在未来将会在教育、新闻、导游信息、娱乐、等各方面将发挥巨大的作用。     MPEG-1的出现使VCD取代了录像带,MPEG-2的出现使数字电视逐步取代模拟电视,MPEG-4的出现使多媒体系统的交互性和灵活性大为增强,而MPEG-7的出现将会带我们进入一个互动多媒体的网络时代。
  • 热度 1
    2012-9-19 11:08
    514 次阅读|
    0 个评论
    今天应客户要求,做了这么一个产品。 输入:VGA 输出:HDMI 图像的大小和图像的位置任意可调。 比如0x0 ~ 1280x720 中的任意一个大小。 水平的大小和垂直的大小是独立可调的。 位置从左上角到右下角,随便自定义。 演示视频地址: http://www.tudou.com/programs/view/oY_jObjT5Lc/
相关资源
广告