一、死区时间是什么?
最早发明的数字示波器,应该基于几个考虑:能不能用数字技术把带宽做高,因为模拟示波器的发展碰到很多瓶颈,能不能知道触发之前发生了什么,或者把触发前后的波形情况记录下来,最好能回放,能不能对波形进行一些处理,比如时域变频域,能不能对记录的波形进行离线测试。这些问题,对于模拟示波器来讲,几乎是不可完成的任务,一切的客户需求,象是为数字示波器的诞生带来无限可能,而且半导体技术和DSP技术的发展,给数字示波器的技术带来了突破。
数字示波器能把信号随心所欲的存下来,但是处理起来无论如何是需要花时间的啊,尤其在需要做完把结果显示出来,需要花费大量的时间,这个时候,就带来了另外一个问题,波形更新速率的问题,无论你的处理速度多快,总是需要处理时间的,所以,早期的总线技术和软件处理技术确实差强人意,一段时间,很多客户恨不得左右一台模拟示波器,右手一台数字示波器,需要快速刷新,就用模拟的,需要存储和处理,就用数字的。
数字示波器的特点:模拟示波器的用户习惯于在屏幕上查看几乎所有的信号详细信息。屏幕上荧光具有余辉显示效果,可用于快速检测信号故障。虽然模拟示波器只需要重新设定下一个电子束扫描的横向系统(也称为回扫),然而数字示波器却将捕获周期的大多数时间花在对波形样点进行后处理上,在此处理时间内,数字示波器处于死区状态,并且无法监测测量信号。因此,数字示波器只可能实现测量信号的快照式分析。尽管许多数字示波器的用户尚不了解这一事实,即示波器大多数时间都处于死区状态,但是此特性对波形检测次数以及最终显示的信号详细信息均有显著的影响。以下死区时间比,或者波形捕获率的公式能很好解释,一个捕获周期内,应该包含两部分,有效捕获时间和死区时间(blind Time),死区时间其实是由固定死区时间和可变死区时间组成,固定的部分是由示波器的结构决定的,可变部分和采样的样本数大小,样本需要做的处理和运算的复杂程度决定,比如函数分析和运算,参数测量,软件滤波等等。
有效捕获时间与死区时间之比是数字示波器的一个重要的特性。该比值可以定义为死区时间比或者波捕获率。
两个比值的公式浅显易懂:
传统架构数字示波器的盲区时间(死区时间)可能会让你吓一跳,比如一个50000个波形/秒刷新率的示波器,99.5%的时间是盲区,R/S达到业界最大100万个波形/秒刷新率的示波器,仍然有90%的时间是盲区,对比图如下:
粗略估计,市场上90%以上产品正常工作模式都在几千次以下的刷新速度。足见这个指标的难度了。
二、死区时间对测试有什么影响?
a)难以检测到偶发信号
死区时间对需要找出并分析偶发信号事件的调试过程的影响最大。正如前面所讨论的,信号故障只有在捕获周期的有效捕获时间内出现时,才能将其显示出来。对于典型的数字示波器而言,有效捕获时间远远低于1%。因此,用户能做的只是重复信号条件和漫长的等待,运气足够好,或者等待时间足够长,可能有机会看看异常信号。异常信号将出现在示波器的有效捕获时间内。死区时间越短,检测未知信号的速度就越快。
b)分析结果的置信度问题用户通常需要在短时间内捕获大量波形以得到统计置信度高的结果,较长的死区时间显然与用户的这种需求会产生冲突。因此,死区时间过长会对整个测试过程都会产生直接影响。测量功能、模板测试、直方图和FFT等分析功能均需要额外的处理时间,因此延长了每个捕获周期的死区时间。另外,所用的记录长度越长,相应的死区时间也会更长。最快的捕获速率能保证最大置信度的测试结果。
三、业内通常怎么解决刷新速率低的问题呢?模拟示波器时代,由于电回扫速度快,加上余辉功能,大家对死区时间其实不那么敏感。数字示波器的死区时间太多,所以这个指标让你不得不关注。否则,你看到的只是冰山一角,信号的惊鸿一瞥而已。为了改善或者说弥补这个指标的不足,通常有三种方法:
a)数字荧光技术:用特定的处理和显示方式。为了达到最大的刷新速度,设置一种变通的工作模式,让信号采集完之后直接进入显存,达到快速刷新,用余辉来显示,这种方式一度被认为是最快的方式了,能到多少刷新速度呢?数据手册上说是25万次/秒(也有资料说最快到30万次),但是很遗憾,这种方法只适用于浅存储情况,比如1Mpts,这种方式没法对信号进行深入分析和。更谈不上波形的后台处理,比如fft啊。而且这种技术只用于Windows平台。
b)scan搜索技术:通过软件的方法,对捕获的波形进行搜索,设置各种时间和幅度的条件,搜索异常,但是,最多算是一种没有办法的办法,很遗憾,因为没有改变刷新速率。还有一种是通过硬件触发条件的搜索,通过硬件加速器的设计,对各种可能的异常进行触发训练,不降低软件处理速度,只对触发条件进行各中智能尝试。好比破译软件,不断训练直到找到异常。
c)深存储快速响应技术,对于深存储情况快速响应(比如128M),据说最快能到10万次/秒,很遗憾这种技术只用非windows平台,如果是windows平台,不到两千次的刷新会让你几乎崩溃。关键是,现在的高端示波器都是Windows平台啊……
每年不下10次的示波器技术讲座会让不懂示波器的人都知道刷新速度这个概念,数字荧光(DPO),深存储响应(Megazoom),软件搜索(triggerscan-wavescan)都是很好的技术创新,都在努力的实现着实时的梦想,虽然现在能达到的极限只有25万次/秒。
四、我们是怎么创新和突破这个刷新速度的?
25万次真的是极限吗,我们离真正的实时还有多远?技术和创新永远无极限。我们的方案实现100万次的突破,让技术往前迈了一大步。
核心的创新在于这个ASIC的专用,并行20路的处理路径,以及创新的数字触发的实现,才让整条通路有机会大大提高数据处理速度。RTO示波器包括实时数字触发系统。传统的方法是利用单独的触发路径,都是通过模拟电路来实现。在这种情况下,必须小心调整这两条路径(采集和触发)以尽量减小触发抖动。这通常需要采用后处理技术,以将触发抖动降低到可接受的水平。这种后处理也会极大的增加死区时间,进而降低波形捕获率。在RTO中,采集路径和触发路径相同,在AS中专门开发了触发模块因此已经调整好。这种情况能够实现同步实时触发、较低的触发抖动和较高的波形捕获率。
一切源于一个专用集成电路的研发成功,专用ASIC中执行的R&S RTO示波器的处理路径。对数字示波器而言,实时将样点从ADC写入采集存储器至关重要。各种示波器型号之间的差异表现在此实时路径的处理能力上。
核心原理是利用大规模并行处理系统。RTO的8位10 Gsample/s ADC每秒能够输出80GB需要进行处理的数据。在采集模块中,这些数据通过20条并行路径进行处理。采集存储器与显示屏之间的处理路径同样包含多条路径(最多可达四条),RTO ASIC也包含了一个专用的图形引擎,用于准备要显示的累积波形的图形显示。为了适应整体ASIC的高数据吞吐量,RTO以交错的方式利用多个图形引擎。
而且,尽量让分析功能在专用集成电路或者可编程电路等硬件来实现,最大程度节省CPU资源,上图例证在做直方图统计功能时候,刷新速度仍然达到1百万次。游标测量,直方图统计,以及频谱分析fft都在专用集成电路的硬件来实现,这个集成电路的研发那是会相当的烧钱啊。
另外,数字触发的示波器架构,大大区别于现在市场上的模拟触发方式。是实现快速刷新的坚强保证。
五、带来革命性的好处:
当刷新速度引领达到百万次水平,快速查找异常事件,不再需要掌握复杂的波形搜索工具,不再需要象破译密码一样去训练触发条件,不在需要受制于浅存储和波形分析的捉襟见肘。
就想上一遍中强调的,多刷快查就搞定了。
a)查找异常波形异常简单快捷
b)最大置信结果。从统计的效率看,即使你测试花的时间再长,也没有办法保证一定置信度很高,因为你用的工具本身效率不高,反之,用快刷新的示波器,你能在最短时间测试了最大的样本数,可信度最高。比如模板测试
c)缩短了调试和测量任务的整体测试时间
所有的数字示波器都存在有数据处理期间丢失信号无法捕获的死区时间,这会影响到示波器测试得到的信息量完整性,如果信号中有偶发异常,甚至影响到测试结果的置信度和工程师对故障原因的判断。RTO示波器硬件结构将采集功能和处理功能集成到专门的ASIC芯片来完成,从而能够大幅减少死区时间。此外,这种示波器还能在执行测量和分析功能的同时,同样能够保证波形捕获率保持在很高水平,使调试和分析能力达到一个新的水平。