一,问题来源: 1 ,示波器采样率是 2.5GS/s(Gpoints/s), 示波器满屏显示为 10s ,存储深度 12.5MPoints ,测量信号脉冲波频率 100Khz, duty 1% ,Ton=100nS,波形 完全失真。 2 ,示波器采样率是 2.5GS/s, 示波器满屏显示为 10s ,存储深度 125MPoints ,测量信号脉冲波频率 100Khz, duty 1% ,Ton=100nS,波形部分 失真。 二,问题原因: 基础公式:存储深度 = 采样率 * 采样时间 示波器存储深度 12.5Mpoints(12.5MS), 实际采样率 =12.5Mpoints/10S=1.25Mpoints/s=1.25points/us 。 示波器存储深度最大 125Mpoints(125MS), 实际采样率 =125Mpoints/10S=12.5Mpoints/s=12.5points/us 。 测量信号脉冲波频率 100Khz, duty 1% ,Ton=100nS, 设 100nS 要抓 10 个点比较清晰,每个点间隔 10ns , 10s/10ns=1Gpoints 存储深度才够。 参考资料: 示波器入门之采样率、存储深度_Dufre.WC的博客-CSDN博客_存储深度与采样率关系 下图的曲线充分揭示了采样率、存储深度、采样时间三者的关系及存储深度对示波器实际采样率的影响。比如,当时基选择 10us/div 档位时,整个示波器窗口的采样时间是 10us/div * 10 格 =100us ,在 1Mpts 的存储深度下,当前的实际采样率为: 1M ÷ 100us=10Gs/s ,如果存储深度只有 250K ,那当前的实际采样率就只有 2.5GS/s 了!