tag 标签: 3D显示

相关博文
  • 热度 2
    2023-12-1 16:28
    501 次阅读|
    0 个评论
    裸视3D显示器源自人们在视觉上对于沉浸体验的渴望,无须配戴任何装置,就能享受身历其境的3D影像,如同未来科技般的神奇。3D影像对消费者的感官冲击远比2D影像更加强烈,容易引发消费者对新科技之好奇及关注,也增加人们与科技之间的互动。 图 : 裸视 3D 笔电 ( 来源 : ASUS 官网 ) 3D显示器应用生态广泛,可用于娱乐、医学影像、展览、广告营销等,像是3D电影和3D 电子广告广告牌便是比较常见的应用。而为了满足个人娱乐享受和创作需求,已有厂商推出了裸视3D屏幕、裸视3D笔电和裸视3D平板等等产品,但这些产品真的能够满足消费者对于3D立体特效的期望吗?而这类型的产品真的够黑科技吗? 从使用者情境应用及客诉回馈中,百佳泰影音产品顾问团队分析归纳常见问题如下: 3D影像运行不流畅,甚至会以2D短暂呈现 眼球追踪准确度不佳而造成3D影像的呈现达不到理想效果 未经过3D处理的影片或游戏,在3D呈现上效果不彰 图 : 3D 图像处理影片 ( 来源: Side by side) 实测案例分享 现阶段3D显示器属高单价产品,相对地消费者当然会用高标准来检视其使用体验。某厂商接连收到客诉反馈后,在多方打听下,联系上百佳泰影音产品顾问团队。百佳泰在了解客诉原因后,依据长年的测试经验,分析归纳问题的现象及原因并立即回馈给客户: 第一类问题 – 效能问题 显示适配器效能不足 系统硬件兼容性问题 3D显示器搭配使用的3D软件问题 第二类问题 – 眼球追踪 此问题与产品韧体较为相关,在产品开发阶段,需要考虑到使用者各种不同的使用情景,而这些不同的因素都有可能影响到眼球追踪准确度,包含 : 不同人种 使用者头部、眼球动作 各式的饰品的配戴 以上述的“眼球追踪”问题为例,百佳泰影音产品顾问团队熟知3D显示器各种不同的应用场景,在拟定设计验证计划时就会将以下的使用者情境纳入考虑范围,例如: 男女老少 不同的肤色、身高 两眼距的长短、眼球颜色、眼睛大小 使用者不同的观赏距离与角度 穿搭、发型、饰品 (如帽子、眼镜、耳环) 等等,这些都是眼球追踪判断的重要影响因素。 另外,『3D影像是否够真实?』也是使用者在乎的问题之一。依照目前应用生态的现况而言,如果影像来源是未事先处理的一般影片或游戏,即使经过3D显示器产品搭配的3D软件处理, 3D呈现的效果仍然有限。但如果是有支持3D的影片或游戏,(如Steam上的3D游戏),在裸视3D笔电或裸视3D屏幕上就能发挥期待的呈现效果,让人沉浸在魔幻般的3D立体世界。 裸视3D产品与相关应用不断研发与进步,要达到如同电影未来科技一般的3D影像与互动,相信指日可待。
  • 热度 27
    2015-3-22 17:50
    1536 次阅读|
    0 个评论
    目前,3D显示已逐渐融入到人们的生活当中,因其能再现真实的三维场景,受到了人们的广泛热爱,红蓝3D图像获取的基本原理如图1所示。摄像头采集同一场景的两路视频图像信号,对其中一路信号只提取图像信号的红色分量;另一路提取图像信号的蓝、绿色合成的青色分量。将两路信号采用同步色差合成算法合成红蓝3D视频图像。目前国内3D电视产业面临的主要问题在于:(1)3D电视芯片的缺少而导致3D片源的短缺;(2)视频处理的复杂度较高;(3)显示与观看效果不佳。为此本文对传统的视频处理过程中色度分量的提取、亮度的增强、红蓝3D眼镜的设计等方面进行了改进,并采用LCOS作为微显示器件,投影出红蓝3D视频图像。 图1 红蓝3D图像获取基本原理 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 1 颜色分量的获取与亮度的增强 传统的方法只采用红加蓝、红加绿色度分量合成3D视频,这样会使画面的损伤较大,丢失33%以上的颜色分量,观看起来颜色失真较大,亮度也大大降低,增加了眼睛的负担,易产生疲劳。针对颜色失真本文采用红加青的方法以减少色度的丢失,这样可使画面色度饱和度还原到原始画面的90%以上。 针对亮度降低提出了基于亮度的图像增强方法。传统的基于Retinex理论的演变法存在一定的不足,如将RGB空间转换到HSI空间需要大量的三角函数运算,并采用傅里叶变换处理Retinex理论部分的高斯函数,大大影响处理速度。本文提出了基于YCbCr颜色空间的亮度分量处理法,同时采用无限脉冲响应数字滤波器(IIR)实现高斯函数运算。实验证明,该算法不但能增强图像的质量,还能有效避免Retinex算法中带来的光环效应,同时大大加快算法处理速度。基于亮度Y分量的Retinex 处理过程可表示为: 式中Y( x , y)为亮度分量函数,F( x , y) 被称为环境函数,一般用高斯函数表达式为: σ为高斯函数的标准偏差,k 表示环境函数的个数。环境函数F k 用于选取不同的标准偏差σ k ,W k 用来控制环境函数范围的尺度,它表示与F k 相关的权重系数。 Retinex 处理算法的主要步骤就是高斯滤波,其运算速度直接决定了算法运行效率。为避免傅立叶变换的复杂的运算和不足,对高斯滤波器进行了IIR实现,把高斯滤波器分解为正向滤波器和反向滤波器的组合,如下面的差分方程。 正向滤波器: 其中,C、di’是滤波器系数,I 是输入数据,w1 和w2 分别是正向和反向滤波器的中间状态,O1 、O2 为其处理结果。正向和反向滤波器就构成了高斯滤波器的IIR实现过程。可以利用高斯函数的可分离性: 对图像先逐行后逐列进行处理,最终就可以实现二维高斯数字滤波。下图2为原图、传统Retinex算法、基于Y分量Retinex算法处理后的对比图。图中可以看出,传统算法可以增强图像亮度,但灰度化也很明显。而本文采用的方法不仅可以增强亮度,也可以保持原有图像的整体鲜艳效果。 (a)原图 (b)传统Retinex算法 (c)基于Y分量Retinex算法 图2 基于Y分量Retinex算法与传统Retinex算法的对比效果图 另外,传统的3D眼镜仅采用红色或蓝色塑料或玻璃镜片作为滤光片,使滤光效果大打折扣,观众佩戴观看影片时,会出现不同程度的重影现象,影响观看效果。为此本文采用反射率和透过率都达到90%以上的反青透红和反红透青的滤光片作为3D眼镜的镜片,这样可以使红色镜片仅通过红色画面,青色镜片透过蓝、绿色画面,消除了重影现象,使观看效果更加鲜活、逼真,下图3为滤光片及制作的红蓝3D眼镜。 图3 加滤光片红蓝3D眼镜 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 2 视频处理系统基本结构与简化 整个视频处理系统结构如图4所示。两路摄像头将采集到的信号送入TW2867进行A/D转换,输出的复用信号送入解复用(demux)模块,分离出的两路复合视频数据分别送入BT656数据解码模块、帧缓存控制模块、像素分辨率缩放模块、YCbCr 4:2:2转YCbCr 4:4:4数据模块、YCbCr亮度增强模块、YCbCr 4:4:4转RGB数据模块,最后将RGB数据送入LCOS时序控制模块,以镁光公司的CS-FLCOS作为微显示器件,搭建光机系统,显示出3D视频画面。对其中的TW2867芯片和LCOS芯片分别要进行I2C总线配置和SPI总线配置其内部的相关寄存器参数。 图4 3D显示系统框图 (1)TW2867解码 采用带有LED夜视功能的Sony CCD 感光芯片摄像头,视频输出分辨率为720*576,为标准的PAL制式视频格式。选用Techwell公司的TW2867 A/D转换芯片,能自动识别PAL/NTSC/SECAM格式的2路复合视频信号,通过I2C总线的配置,TW2867将两路摄像头信号转换为符合BT656标准的8位YCbCr数字信号。TW2867每一路都含有10位的ADC转换器、高质量的钳位和增益控制器和梳状滤波器,以滤除信号中的噪声,同时采用了一些图像增强技术,以获得高质量的YCbCr数字信号。 (2)BT656数据解码模块 国际电信联盟无线电通信组(ITU-CCIR)发布了ITU-BT656的视频标准,其行数据结构如图5所示。该模块首先需要检测数据流中是否按序出现了FF、00、00的帧头SAV或帧尾EAV信息。如果出现则对后8位的XY值进行判断,判断是否出现SAV、EAV信号,将有效视频信号的以亮度分量(Y)作为高8位,以色度分量(Cb或Cr)作为低8位合成16位的YCbCr数据,将BT656数据奇偶场的数据合并为一帧写入帧缓存中。 图5 BT. 656行数据结构 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (3)像素分辨率缩放模块 帧缓存中装载的是两场视频数据,在读取的时候采用FIFO缓存并采用双线性插值算法,将原来720*576的像素分辨率放大到852*480。双线性插值算法将在水平和垂直两个方向分别进行一次线性插值。其定量计算方法如下:空间坐标系下四个点:A(x,y+1)、B(x,y)、C(x+1,y)、D(x+1,y+1),如图6所示,其灰度值依次为Ga、Gb、Gc、Gd,dx和dy分别表示目标点与点B在水平和垂直两个方向上的增量,其灰度值Gt可以由其余四点量化表示,如式2-1。 图6 双线性插值法示意图 Gt = (1 - dx)(1 - dy)Gb + dx(1 - dy)Gc + (1 - dx)dyGa + dxdyGd (2-1) 从电路实现方面而言,公式(2-1)共需要8个乘法器、2 个减法器和4 个加法器,将会占用较多的逻辑资源。将公式变形为: Gt = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy(Gb-Ga-Gc+Gd) = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy (2-2) 公式(2-2)是另一种简化了电路的表示方法,仅需要4个乘法器、4 个减法器和3 个加法器。计算结果会有5个时钟周期的延时,当像素时钟为27Mhz,计算的时钟为一帧的数据转换为852*480*(1/27Mhz)=15ms,即可以实现实时的分辨率调整。 (4)YCbCr 4:2:2转YCbCr 4:4:4数据模块 将YCbCr4:4:4数据转换到YCbCr4:2:2是数字视频中的一个选通功能。而将YCbCr4:2:2数据转换到YCrCb4:4:4即是重采样的过程,采样的数据格式转变如图7所示。 图7 YCbCr422转YCbCr 444操作示意图 可知,输入16位YCbCr转换成了相应各8位Y、Cb、Cr信号,且输出像素采样率比输入采样率快了一倍,由此可见YCbCr4:2:2的数据格式压缩了将近一半的数据带宽。 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (5)YCbCr444-RGB模块 将YCbCr数据转换为RGB数据可由下图8所示数据关系得到。由于FPGA进行浮点运算较为复杂,且占用的时钟周期较长(比如16位的浮点加法电路,一般多达十几到二三十个时钟周期),并不适合于实时视频数据处理,所以先通过对上式左右二端放大128倍化为整数运算,计算后再对结果除以128(右移7位),即可获得正确的结果。 图8 YCbCr444转RGB数据关系图 (6)LCOS时序控制模块 LCOS时序发生器主要用于产生微显示器件所需的时序,包括提供像素时钟(clk)、行同步信号(hsync)、场同步信号(vsync)、有效信号(valid),并输出当前行、列像素坐标值,从帧缓冲区发出数据请求信号并读出红、绿、蓝的视频数据。LCOS的时序仿真图如下图9所示。 图9 Modelsim中LCOS时序仿真图 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 3 FPGA红蓝3D视频获取及主观评价 FPGA选用的是Altera公司的Cyclone IV系列的EP4CE30F23C6N这款高速FPGA芯片,FPGA和DDR2之间的时钟频率可以达到200M,DDR2内部时钟频率达到400M,充分满足了两路视频处理的要求。通过对视频处理过程中模块的编写,编译后其消耗的的逻辑单元数为13615个,仅占总逻辑单元数的47%,如下图11所示,使视频处理过程更加简便高效。将以上各模块搭建、调试、下载到FPGA中,并采用镁光公司的LCOS芯片作为微显示器件,摄像头采集到的《阿凡达》2D电影的一个画面转换为3D换面效果如下图12所示,可以看到图面中的人物具有视差的红蓝两路图像,佩戴上红蓝3D眼镜,即可看到人物出屏的效果。 目前针对于3D显示的评价的方法主要还是主观的评价方法,按照2000年国际电信联盟发布的ITU-R BT.1438立体电视图像主观评价标准,分为5级,即优秀、良好、一般、不好、坏五个级别。以立体图片上的一点为中心,单眼左右移动时,图像会出现连续的跳跃,两次跳跃之间眼睛移动的角度为立体图像的视变角,视角越大,观看越舒适,但视角变大意味着立体感减弱。通过多人观看本文的3D视频,本设计主观评价在良好级别,达到了预期的设计效果。 图11 视频处理过程的硬件开销 图12 红蓝3D效果图 4 结束语 本文实现了一种结合Altera公司生产的Cyclone IV系列FPGA的3D视频前端处理与显示系统,具有设计周期短、结构简单、稳定可靠、实现效果逼真、节约设计成本的优点。高速图像采集系统中采用FPGA作为采集控制部分,不仅可以提高系统处理的速度,还可以提高系统的灵活性和适应性。弥补了当前3D电视芯片缺少的问题,对原有的视频处理过程及显示器件进行了改进,并提出了一种简便性和普适性的图像增强算法。该系统在安防监控、倒车影像、图像分析、影视拍摄和投影显示等方面都具有广泛的应用前景。 参考文献 祝长锋, 肖铁军. 基于FPGA的视频图像采集系统的设计 . 计算机工程与设计, 2008, 29(17):4404-4407. 蔺志强, 孟令军, 彭晴晴. 基于FPGA的视频图像采集系统的设计与实现 . 电视技术.2011, 35(17):36-38. 董小龙, 施建华, 邵诗强. 基于FPGA的VGA接口裸眼3D显示系统设计 . 2012中国平板显示学术会议论文集 . 2012:559-562. 李克斌, 李世奇. 3D显示技术的最新研究进展 . 计算机工程. 2003, 29(12):3-4. 蒋艳红. 基于FPGA的VGA图象信号发生器设计. 电子测量技术. 2008, 31(3):78-81. 夏宇闻. Verilog 数字系统设计教程 . 北京:北京航空航天大学出版社. 2008:15-17. 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价
  • 热度 33
    2015-3-18 22:55
    1451 次阅读|
    1 个评论
    目前,3D显示已逐渐融入到人们的生活当中,因其能再现真实的三维场景,受到了人们的广泛热爱,红蓝3D图像获取的基本原理如图1所示。摄像头采集同一场景的两路视频图像信号,对其中一路信号只提取图像信号的红色分量;另一路提取图像信号的蓝、绿色合成的青色分量。将两路信号采用同步色差合成算法合成红蓝3D视频图像。目前国内3D电视产业面临的主要问题在于:(1)3D电视芯片的缺少而导致3D片源的短缺;(2)视频处理的复杂度较高;(3)显示与观看效果不佳。为此本文对传统的视频处理过程中色度分量的提取、亮度的增强、红蓝3D眼镜的设计等方面进行了改进,并采用LCOS作为微显示器件,投影出红蓝3D视频图像。 图1 红蓝3D图像获取基本原理 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 1 颜色分量的获取与亮度的增强 传统的方法只采用红加蓝、红加绿色度分量合成3D视频,这样会使画面的损伤较大,丢失33%以上的颜色分量,观看起来颜色失真较大,亮度也大大降低,增加了眼睛的负担,易产生疲劳。针对颜色失真本文采用红加青的方法以减少色度的丢失,这样可使画面色度饱和度还原到原始画面的90%以上。 针对亮度降低提出了基于亮度的图像增强方法。传统的基于Retinex理论的演变法存在一定的不足,如将RGB空间转换到HSI空间需要大量的三角函数运算,并采用傅里叶变换处理Retinex理论部分的高斯函数,大大影响处理速度。本文提出了基于YCbCr颜色空间的亮度分量处理法,同时采用无限脉冲响应数字滤波器(IIR)实现高斯函数运算。实验证明,该算法不但能增强图像的质量,还能有效避免Retinex算法中带来的光环效应,同时大大加快算法处理速度。基于亮度Y分量的Retinex 处理过程可表示为: 式中Y( x , y)为亮度分量函数,F( x , y) 被称为环境函数,一般用高斯函数表达式为: σ为高斯函数的标准偏差,k 表示环境函数的个数。环境函数F k 用于选取不同的标准偏差σ k ,W k 用来控制环境函数范围的尺度,它表示与F k 相关的权重系数。 Retinex 处理算法的主要步骤就是高斯滤波,其运算速度直接决定了算法运行效率。为避免傅立叶变换的复杂的运算和不足,对高斯滤波器进行了IIR实现,把高斯滤波器分解为正向滤波器和反向滤波器的组合,如下面的差分方程。 正向滤波器: 其中,C、di’是滤波器系数,I 是输入数据,w1 和w2 分别是正向和反向滤波器的中间状态,O1 、O2 为其处理结果。正向和反向滤波器就构成了高斯滤波器的IIR实现过程。可以利用高斯函数的可分离性: 对图像先逐行后逐列进行处理,最终就可以实现二维高斯数字滤波。下图2为原图、传统Retinex算法、基于Y分量Retinex算法处理后的对比图。图中可以看出,传统算法可以增强图像亮度,但灰度化也很明显。而本文采用的方法不仅可以增强亮度,也可以保持原有图像的整体鲜艳效果。 (a)原图 (b)传统Retinex算法 (c)基于Y分量Retinex算法 图2 基于Y分量Retinex算法与传统Retinex算法的对比效果图 另外,传统的3D眼镜仅采用红色或蓝色塑料或玻璃镜片作为滤光片,使滤光效果大打折扣,观众佩戴观看影片时,会出现不同程度的重影现象,影响观看效果。为此本文采用反射率和透过率都达到90%以上的反青透红和反红透青的滤光片作为3D眼镜的镜片,这样可以使红色镜片仅通过红色画面,青色镜片透过蓝、绿色画面,消除了重影现象,使观看效果更加鲜活、逼真,下图3为滤光片及制作的红蓝3D眼镜。 图3 加滤光片红蓝3D眼镜 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 2 视频处理系统基本结构与简化 整个视频处理系统结构如图4所示。两路摄像头将采集到的信号送入TW2867进行A/D转换,输出的复用信号送入解复用(demux)模块,分离出的两路复合视频数据分别送入BT656数据解码模块、帧缓存控制模块、像素分辨率缩放模块、YCbCr 4:2:2转YCbCr 4:4:4数据模块、YCbCr亮度增强模块、YCbCr 4:4:4转RGB数据模块,最后将RGB数据送入LCOS时序控制模块,以镁光公司的CS-FLCOS作为微显示器件,搭建光机系统,显示出3D视频画面。对其中的TW2867芯片和LCOS芯片分别要进行I2C总线配置和SPI总线配置其内部的相关寄存器参数。 图4 3D显示系统框图 (1)TW2867解码 采用带有LED夜视功能的Sony CCD 感光芯片摄像头,视频输出分辨率为720*576,为标准的PAL制式视频格式。选用Techwell公司的TW2867 A/D转换芯片,能自动识别PAL/NTSC/SECAM格式的2路复合视频信号,通过I2C总线的配置,TW2867将两路摄像头信号转换为符合BT656标准的8位YCbCr数字信号。TW2867每一路都含有10位的ADC转换器、高质量的钳位和增益控制器和梳状滤波器,以滤除信号中的噪声,同时采用了一些图像增强技术,以获得高质量的YCbCr数字信号。 (2)BT656数据解码模块 国际电信联盟无线电通信组(ITU-CCIR)发布了ITU-BT656的视频标准,其行数据结构如图5所示。该模块首先需要检测数据流中是否按序出现了FF、00、00的帧头SAV或帧尾EAV信息。如果出现则对后8位的XY值进行判断,判断是否出现SAV、EAV信号,将有效视频信号的以亮度分量(Y)作为高8位,以色度分量(Cb或Cr)作为低8位合成16位的YCbCr数据,将BT656数据奇偶场的数据合并为一帧写入帧缓存中。 图5 BT. 656行数据结构 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (3)像素分辨率缩放模块 帧缓存中装载的是两场视频数据,在读取的时候采用FIFO缓存并采用双线性插值算法,将原来720*576的像素分辨率放大到852*480。双线性插值算法将在水平和垂直两个方向分别进行一次线性插值。其定量计算方法如下:空间坐标系下四个点:A(x,y+1)、B(x,y)、C(x+1,y)、D(x+1,y+1),如图6所示,其灰度值依次为Ga、Gb、Gc、Gd,dx和dy分别表示目标点与点B在水平和垂直两个方向上的增量,其灰度值Gt可以由其余四点量化表示,如式2-1。 图6 双线性插值法示意图 Gt = (1 - dx)(1 - dy)Gb + dx(1 - dy)Gc + (1 - dx)dyGa + dxdyGd (2-1) 从电路实现方面而言,公式(2-1)共需要8个乘法器、2 个减法器和4 个加法器,将会占用较多的逻辑资源。将公式变形为: Gt = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy(Gb-Ga-Gc+Gd) = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy (2-2) 公式(2-2)是另一种简化了电路的表示方法,仅需要4个乘法器、4 个减法器和3 个加法器。计算结果会有5个时钟周期的延时,当像素时钟为27Mhz,计算的时钟为一帧的数据转换为852*480*(1/27Mhz)=15ms,即可以实现实时的分辨率调整。 (4)YCbCr 4:2:2转YCbCr 4:4:4数据模块 将YCbCr4:4:4数据转换到YCbCr4:2:2是数字视频中的一个选通功能。而将YCbCr4:2:2数据转换到YCrCb4:4:4即是重采样的过程,采样的数据格式转变如图7所示。 图7 YCbCr422转YCbCr 444操作示意图 可知,输入16位YCbCr转换成了相应各8位Y、Cb、Cr信号,且输出像素采样率比输入采样率快了一倍,由此可见YCbCr4:2:2的数据格式压缩了将近一半的数据带宽。 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (5)YCbCr444-RGB模块 将YCbCr数据转换为RGB数据可由下图8所示数据关系得到。由于FPGA进行浮点运算较为复杂,且占用的时钟周期较长(比如16位的浮点加法电路,一般多达十几到二三十个时钟周期),并不适合于实时视频数据处理,所以先通过对上式左右二端放大128倍化为整数运算,计算后再对结果除以128(右移7位),即可获得正确的结果。 图8 YCbCr444转RGB数据关系图 (6)LCOS时序控制模块 LCOS时序发生器主要用于产生微显示器件所需的时序,包括提供像素时钟(clk)、行同步信号(hsync)、场同步信号(vsync)、有效信号(valid),并输出当前行、列像素坐标值,从帧缓冲区发出数据请求信号并读出红、绿、蓝的视频数据。LCOS的时序仿真图如下图9所示。 图9 Modelsim中LCOS时序仿真图 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 3 FPGA红蓝3D视频获取及主观评价 FPGA选用的是Altera公司的Cyclone IV系列的EP4CE30F23C6N这款高速FPGA芯片,FPGA和DDR2之间的时钟频率可以达到200M,DDR2内部时钟频率达到400M,充分满足了两路视频处理的要求。通过对视频处理过程中模块的编写,编译后其消耗的的逻辑单元数为13615个,仅占总逻辑单元数的47%,如下图11所示,使视频处理过程更加简便高效。将以上各模块搭建、调试、下载到FPGA中,并采用镁光公司的LCOS芯片作为微显示器件,摄像头采集到的《阿凡达》2D电影的一个画面转换为3D换面效果如下图12所示,可以看到图面中的人物具有视差的红蓝两路图像,佩戴上红蓝3D眼镜,即可看到人物出屏的效果。 目前针对于3D显示的评价的方法主要还是主观的评价方法,按照2000年国际电信联盟发布的ITU-R BT.1438立体电视图像主观评价标准,分为5级,即优秀、良好、一般、不好、坏五个级别。以立体图片上的一点为中心,单眼左右移动时,图像会出现连续的跳跃,两次跳跃之间眼睛移动的角度为立体图像的视变角,视角越大,观看越舒适,但视角变大意味着立体感减弱。通过多人观看本文的3D视频,本设计主观评价在良好级别,达到了预期的设计效果。 图11 视频处理过程的硬件开销 图12 红蓝3D效果图 4 结束语 本文实现了一种结合Altera公司生产的Cyclone IV系列FPGA的3D视频前端处理与显示系统,具有设计周期短、结构简单、稳定可靠、实现效果逼真、节约设计成本的优点。高速图像采集系统中采用FPGA作为采集控制部分,不仅可以提高系统处理的速度,还可以提高系统的灵活性和适应性。弥补了当前3D电视芯片缺少的问题,对原有的视频处理过程及显示器件进行了改进,并提出了一种简便性和普适性的图像增强算法。该系统在安防监控、倒车影像、图像分析、影视拍摄和投影显示等方面都具有广泛的应用前景。 参考文献 祝长锋, 肖铁军. 基于FPGA的视频图像采集系统的设计 . 计算机工程与设计, 2008, 29(17):4404-4407. 蔺志强, 孟令军, 彭晴晴. 基于FPGA的视频图像采集系统的设计与实现 . 电视技术.2011, 35(17):36-38. 董小龙, 施建华, 邵诗强. 基于FPGA的VGA接口裸眼3D显示系统设计 . 2012中国平板显示学术会议论文集 . 2012:559-562. 李克斌, 李世奇. 3D显示技术的最新研究进展 . 计算机工程. 2003, 29(12):3-4. 蒋艳红. 基于FPGA的VGA图象信号发生器设计. 电子测量技术. 2008, 31(3):78-81. 夏宇闻. Verilog 数字系统设计教程 . 北京:北京航空航天大学出版社. 2008:15-17. 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价
  • 热度 28
    2015-2-5 16:37
    1152 次阅读|
    0 个评论
    目前,3D显示已逐渐融入到人们的生活当中,因其能再现真实的三维场景,受到了人们的广泛热爱,红蓝3D图像获取的基本原理如图1所示。摄像头采集同一场景的两路视频图像信号,对其中一路信号只提取图像信号的红色分量;另一路提取图像信号的蓝、绿色合成的青色分量。将两路信号采用同步色差合成算法合成红蓝3D视频图像。目前国内3D电视产业面临的主要问题在于:(1)3D电视芯片的缺少而导致3D片源的短缺;(2)视频处理的复杂度较高;(3)显示与观看效果不佳。为此本文对传统的视频处理过程中色度分量的提取、亮度的增强、红蓝3D眼镜的设计等方面进行了改进,并采用LCOS作为微显示器件,投影出红蓝3D视频图像。 图1 红蓝3D图像获取基本原理 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 1 颜色分量的获取与亮度的增强 传统的方法只采用红加蓝、红加绿色度分量合成3D视频,这样会使画面的损伤较大,丢失33%以上的颜色分量,观看起来颜色失真较大,亮度也大大降低,增加了眼睛的负担,易产生疲劳。针对颜色失真本文采用红加青的方法以减少色度的丢失,这样可使画面色度饱和度还原到原始画面的90%以上。 针对亮度降低提出了基于亮度的图像增强方法。传统的基于Retinex理论的演变法存在一定的不足,如将RGB空间转换到HSI空间需要大量的三角函数运算,并采用傅里叶变换处理Retinex理论部分的高斯函数,大大影响处理速度。本文提出了基于YCbCr颜色空间的亮度分量处理法,同时采用无限脉冲响应数字滤波器(IIR)实现高斯函数运算。实验证明,该算法不但能增强图像的质量,还能有效避免Retinex算法中带来的光环效应,同时大大加快算法处理速度。基于亮度Y分量的Retinex 处理过程可表示为: 式中Y( x , y)为亮度分量函数,F( x , y) 被称为环境函数,一般用高斯函数表达式为: σ为高斯函数的标准偏差,k 表示环境函数的个数。环境函数F k 用于选取不同的标准偏差σ k ,W k 用来控制环境函数范围的尺度,它表示与F k 相关的权重系数。 Retinex 处理算法的主要步骤就是高斯滤波,其运算速度直接决定了算法运行效率。为避免傅立叶变换的复杂的运算和不足,对高斯滤波器进行了IIR实现,把高斯滤波器分解为正向滤波器和反向滤波器的组合,如下面的差分方程。 正向滤波器: 其中,C、di’是滤波器系数,I 是输入数据,w1 和w2 分别是正向和反向滤波器的中间状态,O1 、O2 为其处理结果。正向和反向滤波器就构成了高斯滤波器的IIR实现过程。可以利用高斯函数的可分离性: 对图像先逐行后逐列进行处理,最终就可以实现二维高斯数字滤波。下图2为原图、传统Retinex算法、基于Y分量Retinex算法处理后的对比图。图中可以看出,传统算法可以增强图像亮度,但灰度化也很明显。而本文采用的方法不仅可以增强亮度,也可以保持原有图像的整体鲜艳效果。 (a)原图 (b)传统Retinex算法 (c)基于Y分量Retinex算法 图2 基于Y分量Retinex算法与传统Retinex算法的对比效果图 另外,传统的3D眼镜仅采用红色或蓝色塑料或玻璃镜片作为滤光片,使滤光效果大打折扣,观众佩戴观看影片时,会出现不同程度的重影现象,影响观看效果。为此本文采用反射率和透过率都达到90%以上的反青透红和反红透青的滤光片作为3D眼镜的镜片,这样可以使红色镜片仅通过红色画面,青色镜片透过蓝、绿色画面,消除了重影现象,使观看效果更加鲜活、逼真,下图3为滤光片及制作的红蓝3D眼镜。 图3 加滤光片红蓝3D眼镜 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 2 视频处理系统基本结构与简化 整个视频处理系统结构如图4所示。两路摄像头将采集到的信号送入TW2867进行A/D转换,输出的复用信号送入解复用(demux)模块,分离出的两路复合视频数据分别送入BT656数据解码模块、帧缓存控制模块、像素分辨率缩放模块、YCbCr 4:2:2转YCbCr 4:4:4数据模块、YCbCr亮度增强模块、YCbCr 4:4:4转RGB数据模块,最后将RGB数据送入LCOS时序控制模块,以镁光公司的CS-FLCOS作为微显示器件,搭建光机系统,显示出3D视频画面。对其中的TW2867芯片和LCOS芯片分别要进行I2C总线配置和SPI总线配置其内部的相关寄存器参数。 图4 3D显示系统框图 (1)TW2867解码 采用带有LED夜视功能的Sony CCD 感光芯片摄像头,视频输出分辨率为720*576,为标准的PAL制式视频格式。选用Techwell公司的TW2867 A/D转换芯片,能自动识别PAL/NTSC/SECAM格式的2路复合视频信号,通过I2C总线的配置,TW2867将两路摄像头信号转换为符合BT656标准的8位YCbCr数字信号。TW2867每一路都含有10位的ADC转换器、高质量的钳位和增益控制器和梳状滤波器,以滤除信号中的噪声,同时采用了一些图像增强技术,以获得高质量的YCbCr数字信号。 (2)BT656数据解码模块 国际电信联盟无线电通信组(ITU-CCIR)发布了ITU-BT656的视频标准,其行数据结构如图5所示。该模块首先需要检测数据流中是否按序出现了FF、00、00的帧头SAV或帧尾EAV信息。如果出现则对后8位的XY值进行判断,判断是否出现SAV、EAV信号,将有效视频信号的以亮度分量(Y)作为高8位,以色度分量(Cb或Cr)作为低8位合成16位的YCbCr数据,将BT656数据奇偶场的数据合并为一帧写入帧缓存中。 图5 BT. 656行数据结构 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (3)像素分辨率缩放模块 帧缓存中装载的是两场视频数据,在读取的时候采用FIFO缓存并采用双线性插值算法,将原来720*576的像素分辨率放大到852*480。双线性插值算法将在水平和垂直两个方向分别进行一次线性插值。其定量计算方法如下:空间坐标系下四个点:A(x,y+1)、B(x,y)、C(x+1,y)、D(x+1,y+1),如图6所示,其灰度值依次为Ga、Gb、Gc、Gd,dx和dy分别表示目标点与点B在水平和垂直两个方向上的增量,其灰度值Gt可以由其余四点量化表示,如式2-1。 图6 双线性插值法示意图 Gt = (1 - dx)(1 - dy)Gb + dx(1 - dy)Gc + (1 - dx)dyGa + dxdyGd (2-1) 从电路实现方面而言,公式(2-1)共需要8个乘法器、2 个减法器和4 个加法器,将会占用较多的逻辑资源。将公式变形为: Gt = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy(Gb-Ga-Gc+Gd) = Gb+dx(Gc-Gb)+dy(Ga-Gb)+dxdy (2-2) 公式(2-2)是另一种简化了电路的表示方法,仅需要4个乘法器、4 个减法器和3 个加法器。计算结果会有5个时钟周期的延时,当像素时钟为27Mhz,计算的时钟为一帧的数据转换为852*480*(1/27Mhz)=15ms,即可以实现实时的分辨率调整。 (4)YCbCr 4:2:2转YCbCr 4:4:4数据模块 将YCbCr4:4:4数据转换到YCbCr4:2:2是数字视频中的一个选通功能。而将YCbCr4:2:2数据转换到YCrCb4:4:4即是重采样的过程,采样的数据格式转变如图7所示。 图7 YCbCr422转YCbCr 444操作示意图 可知,输入16位YCbCr转换成了相应各8位Y、Cb、Cr信号,且输出像素采样率比输入采样率快了一倍,由此可见YCbCr4:2:2的数据格式压缩了将近一半的数据带宽。 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 (5)YCbCr444-RGB模块 将YCbCr数据转换为RGB数据可由下图8所示数据关系得到。由于FPGA进行浮点运算较为复杂,且占用的时钟周期较长(比如16位的浮点加法电路,一般多达十几到二三十个时钟周期),并不适合于实时视频数据处理,所以先通过对上式左右二端放大128倍化为整数运算,计算后再对结果除以128(右移7位),即可获得正确的结果。 图8 YCbCr444转RGB数据关系图 (6)LCOS时序控制模块 LCOS时序发生器主要用于产生微显示器件所需的时序,包括提供像素时钟(clk)、行同步信号(hsync)、场同步信号(vsync)、有效信号(valid),并输出当前行、列像素坐标值,从帧缓冲区发出数据请求信号并读出红、绿、蓝的视频数据。LCOS的时序仿真图如下图9所示。 图9 Modelsim中LCOS时序仿真图 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价 3 FPGA红蓝3D视频获取及主观评价 FPGA选用的是Altera公司的Cyclone IV系列的EP4CE30F23C6N这款高速FPGA芯片,FPGA和DDR2之间的时钟频率可以达到200M,DDR2内部时钟频率达到400M,充分满足了两路视频处理的要求。通过对视频处理过程中模块的编写,编译后其消耗的的逻辑单元数为13615个,仅占总逻辑单元数的47%,如下图11所示,使视频处理过程更加简便高效。将以上各模块搭建、调试、下载到FPGA中,并采用镁光公司的LCOS芯片作为微显示器件,摄像头采集到的《阿凡达》2D电影的一个画面转换为3D换面效果如下图12所示,可以看到图面中的人物具有视差的红蓝两路图像,佩戴上红蓝3D眼镜,即可看到人物出屏的效果。 目前针对于3D显示的评价的方法主要还是主观的评价方法,按照2000年国际电信联盟发布的ITU-R BT.1438立体电视图像主观评价标准,分为5级,即优秀、良好、一般、不好、坏五个级别。以立体图片上的一点为中心,单眼左右移动时,图像会出现连续的跳跃,两次跳跃之间眼睛移动的角度为立体图像的视变角,视角越大,观看越舒适,但视角变大意味着立体感减弱。通过多人观看本文的3D视频,本设计主观评价在良好级别,达到了预期的设计效果。 图11 视频处理过程的硬件开销 图12 红蓝3D效果图 4 结束语 本文实现了一种结合Altera公司生产的Cyclone IV系列FPGA的3D视频前端处理与显示系统,具有设计周期短、结构简单、稳定可靠、实现效果逼真、节约设计成本的优点。高速图像采集系统中采用FPGA作为采集控制部分,不仅可以提高系统处理的速度,还可以提高系统的灵活性和适应性。弥补了当前3D电视芯片缺少的问题,对原有的视频处理过程及显示器件进行了改进,并提出了一种简便性和普适性的图像增强算法。该系统在安防监控、倒车影像、图像分析、影视拍摄和投影显示等方面都具有广泛的应用前景。 参考文献 祝长锋, 肖铁军. 基于FPGA的视频图像采集系统的设计 . 计算机工程与设计, 2008, 29(17):4404-4407. 蔺志强, 孟令军, 彭晴晴. 基于FPGA的视频图像采集系统的设计与实现 . 电视技术.2011, 35(17):36-38. 董小龙, 施建华, 邵诗强. 基于FPGA的VGA接口裸眼3D显示系统设计 . 2012中国平板显示学术会议论文集 . 2012:559-562. 李克斌, 李世奇. 3D显示技术的最新研究进展 . 计算机工程. 2003, 29(12):3-4. 蒋艳红. 基于FPGA的VGA图象信号发生器设计. 电子测量技术. 2008, 31(3):78-81. 夏宇闻. Verilog 数字系统设计教程 . 北京:北京航空航天大学出版社. 2008:15-17. 【分页导航】 第1页: 红蓝3D图像获取基本原理 第2页: 颜色分量的获取与亮度的增强 第3页: 视频处理系统基本结构与简化 第4页: 像素分辨率缩放模块 第5页: RGB模块和LCOS时序控制模块 第6页: FPGA红蓝3D视频获取及主观评价
  • 热度 22
    2011-6-17 09:32
    1338 次阅读|
    2 个评论
    本想开博记录一些个人10多年的研发历程和感悟的点滴,但一时不知从何开始。万事以人为本,想想还是以交朋友作为开始。   2010年,一部《阿凡达》令全世界为之疯狂。全民开始跑步进入3D立体时代,3D显示也必将成为下一代新型显示技术的主流,满足日益提高的视觉欣赏需求。   基于3D显示技术的产品也将日益丰富,广州博冠光电技术有限公司(www.bosma.cn),作为中国最早一批行业的先锋,勇于探索,在3D显示的广泛领域正在展开如火如荼的紧张研发工作,而且部分产品线已经进入量产准备工作。   3D的集结号已经吹响,博冠广纳有识之士,共创3D的美好未来,你就是未来潮流的弄潮儿,未来在你的手中。无论你精于市场,技术还是产品策划等等,你如果对3D和我有一样的热情,我们就会相识相知。对嵌入式开发有极度的爱好,我们就能成为无话不谈的朋友。   期待和众多有识之士相识相知。交流渠道huangbinvip@163.com