用示波器进行时间参数测量是示波器的最基本功能之一,比如测量周期、频率、脉冲宽度、上升时间、相位差等。这些测量都可以简单地归结为时间差的测量,比如周期是测相邻2个上升沿的时间差,频率是测量到的周期的倒数,脉冲宽度是测相邻的上升沿和下降沿的时间差,上升时间是测信号从10%幅度到90%幅度时刻的时间差,相位差是2个信号的时间差除以信号周期等。
那么示波器做时间差测量的精度到底有多高呢?既然示波器能测这些时间参数为什么我们有时候又要用到计数器或频率计呢?
首先我们来看一下示波器做时间差测量的原理。以做脉冲宽度测量为例,示波器首先对被测波形采样,然后根据采样点的数据计算时间间隔,其最后测量到的时间差=(t1+t2+n*T)。
其中T为采样周期,n为这段时间间隔内整周期的个数,t1和t2分别是脉冲上升沿和下降沿离最近的采样点的时间差。
接下来我们来看一下那些因素可能造成误差:
1、 首先是采样率和采样时钟的抖动。示波器首先要有足够高的采样率才能够把信号真实记录下来,这个采样率需要满足Nyqist采样定律,即要是信号带宽的2倍以上。采样率够了以后,示波器会用Sinc函数对样点做内插拟合从而提高t1和t2的测量精度,这个精度一般会比采样周期小1~2个数量级,具体精度能做到多少和采样时钟的抖动有关,采样时钟抖动越小,拟合出来的波形越真实,测量误差越小。
2、 信号斜率和示波器的底噪声。由于信号不可能是无限陡的,所以测量仪器的垂直方向的噪声会造成信号过判决阈值的时间变化。示波器噪声越低,对于相同斜率信号的时间测量精度越高;信号斜率越陡,则由于幅度噪声带来的时间误差也越小。
3、 示波器的时基精度。示波器自身的时基精度越高,其采样时钟周期T的精度就越高,对于时间差的测量就越准。
以Agilent的90000X系列示波器为例,其单次时间测量精度的公式如下(不同示波器的计算公式可能不完全一样,这里只是举个例子):
其中:
Noise是示波器在当前量程下的底噪声;
SlewRate是被测信号的斜率;
SampleClockJitter是示波器采样时钟抖动;
TimeScaleAccy是示波器时基精度;
Reading是从示波器上读出的时间差的测量结果。
对于Agilent的90000X示波器来说,其时基精度是0.1ppm量级,采样时钟抖动是150fs,100mV/格下的底噪声大概2~3mV左右。
对于us级以下时间间隔的测量,时基造成的误差小于0.1个ps或更小,此时影响因素是示波器底噪声、采样时钟抖动和信号斜率。综合各方面因素,对于比较好的示波器来说,对于us级以下时间间隔的测量,其时间测量误差可以做到1ps左右或更低,超过很多频率计或计数器的分辨率(频率计或计数器的分辨率一般在几ps~几十ps),这时候示波器是正确的时间间隔测量工具。
而对于ms以上级别的时间间隔来说,时基造成的误差更大,所以选用更精准时基可以减小测量误差。但同时,当进行较长时间间隔测量时,受限于示波器的存储深度,示波器通常会降低采样率,这会造成额外的时间测量误差,而频率计得时间分辨率确不会因此而下降,因此进行ms以上较长时间间隔的准确测量的正确工具是频率计。
再来说一下平均,示波器里都有平均功能,如果信号是重复的,可以使用平均功能则可以大大减小第1部分的随机误差,但第2部分的时基误差还是一样的,比如如果能做256次平均,则时间差测量精度的公式可能变成下面这样的:
以上的对比仅是针对时间间隔的测量来说的,而对于精确的频率测量来说,正确的工具永远是频率计。因为示波器是通过周期测量来推算频率,周期测量的一点误差都会造成频率结果的很大误差;而频率计是基于计数的,通过正确设置计数的闸门时间可以有效地提高其频率测量的分辨率。频率计的频率测量精度可以做到1E-10的量级,而示波器到1E-3就不错了。不过这也不是绝对的,如Agilent的DSO/MSO 7000示波器里就集成了硬件频率计,因此可以大大提高频率测量的精度。
shaoziyang 2010-11-24 10:14