选择你想访问的SIGLENT网站
Choose your SIGLENT site
SIGLENTのウェブサイトを選択してください
当前位置: 首页 / 新闻与活动 / 行业知识 / 示波器和频率计测量频率,哪个更准?
示波器和频率计测量频率,哪个更准?
发布时间: 2020-05-27
浏览次数: 10703
示波器测量频率准不准? 示波器是否能够分辨出频率分别是74.25MHz和74.1758MHz的两个信号? 晶振的频率稳定度要求是5ppm,怎么用示波器测量这个指标? 示波器测量频率和频率计测量频率在原理上有什么不同?
鼎阳示波器
一周一问之No.002问


数字示波器测量频率准不准?
 
示波器是否能够分辨出频率分别是74.25MHz和74.1758MHz的两个信号?
 
晶振的频率稳定度要求是5ppm,怎么用示波器测量这个指标?
 
示波器测量频率和频率计测量频率在原理上有什么不同?
 
分割线
 
    在电子技术领域中,信号频率的测量是我们经常会遇到的问题,示波器和频率计均可以实现频率测量,那么究竟哪种方法的测量结果更为准确呢?下面我们将就这两种方法的测量原理和区别来做一些说明:
 
一.
数字示波器测频率
 
    示波器被称为工程师的眼睛,是时域上观察信号不可或缺的工具。现在普及的绝大多数是数字示波器。数字示波器的本质是将待测的模拟信号转换为离散的采样点,点和点通过某种方式相连组成了示波器屏幕上的波形。根据屏幕上的波形,示波器采用软件编程的“算法”来计算波形的相关参数。
 
    频率是任何一台数字示波器都具有的测量参数,是周期的倒数,表示信号在单位时间(1秒)内变化的次数,通常用f表示,基本单位是Hz,1Hz表示每秒变化一次。 数字示波器测量频率的算法是怎么来的呢? 理解这个算法就理解了示波器测量频率的准还是不准的误差源。)
 
    主流的数字示波器对频率进行测量算法是按周期的倒数来计算的。先计算出周期,再计算出频率。 示波器计算周期的算法是:计算出信号这个上升沿幅值50%的点到相邻下一个上升沿幅值50%的点之间的时间间隔。因此,示波器要先获得50%的点。要得到50%的点,必然需要确定幅值,那么我们就需要理解示波器测量参数的第一算法:确定高电平和低电平
 
    峰峰值表示所有采样样本中的最大样本值减去最小样本值,这好理解,在示波器算法中也好实现; 而幅值表示被测信号的“高电平”减去“低电平”。高电平和低电平分别在哪里? 这就需要定义算法。这个算法的确定将不只是直接影响到“幅值”这个参数值,还将影响到绝大多数水平轴的参数值,如上升时间,下降时间,宽度,周期等,因为水平轴的参数要依赖于垂直轴的参数。
 
    不同示波器厂商给出的“高电平”和“低电平”算法可能不尽相同,但都会采用公认的IEEE定义的算法,如图1所示,首先对图示中“LEFT CURSOR”(左光标)和“RIGHT CURSOR”(右光标)时间范围内的波形数据样本向垂直方向做“轨迹直方图”,从图中看上去, 轨迹直方图的垂直方向和原始波形的各采样点在垂直方向的位置一一对应,水平方向则表示在这个各位置上采集到的数据样本点的个数。图例中表示,有两个位置的数据样本出现的概率最高,这两个位置就分别被确定为“高电平(图示中表示top的位置)”和“低电平(图示中表示base的位置)”。(详见参考文献《关于数字示波器测量参数的第一算法》)
 
 IEEE定义的高电平和低电平算法成为其它一些参数算法的"源头"
 
图1 IEEE定义的高电平和低电平算法成为其它一些参数算法的"源头"
 
    如图1所示,幅值的定义是base(底部)到top(顶部)的纵轴差值。而top和base值是根据概率分布计算得来,若屏幕上样本数不够,一点点的过冲或下冲就可能影响到直方图分布的最大概率状态的确定,则会产生统计误差。
 
    利用鼎阳SDG5160信号源产生峰峰值为3V,频率49.0258642MHz的正弦波信号,输入到国内首款智能示波器鼎阳SDS3034(此示波器具备AIM功能,测量结果精确;并内置了硬件频率计,便于对比分析)中,得到测量参数结果如图2所示:
时基档位为200ns/div时的测量结果统计
 
图2 时基档位为200ns/div时的测量结果统计
 
改变时基,测量结果如图3所示:
 
时基档位为10ns/div时的测量结果统计

图3 时基档位为10ns/div时的测量结果统计
 
    观察图片可以发现,在时基档位为200ns/div时,样本数为96,测量结果为49.02618MHz,更接近信号源输入频率49.0258642MHz,而时基档位为10ns/div时,样本数仅仅为4,测量结果49.02037MHz,偏离相对来说更大。
 
    由于周期的测量结果依赖于样本数的多少,因而时基不同时,得到的频率和周期会有一定的误差。而硬件频率计测量并不依赖于这些算法,所以我们可以观察到,在时基变化的过程中,硬件频率计的测量结果为49.026MHz,几乎是没有变化的。
 
    不得不承认,软件算法测量频率在技术上是存在一定缺陷的,这是所有数字示波器共有的;但通过上图可以发现,利用SDS3000系列独创的AIM(All In One Time Measurement——一次性测量屏幕上所有波形参数)功能进行测量,误差并不太大。
 
    还有一种情况是当我们通过信号源SDG5160产生一个如图4所示的扫频信号
 
    并输入到
数字示波器,测量结果如图5所示 :
信号源SDG5162输出方波扫频信号
图4 信号源SDG5162输出方波扫频信号
非规则信号的频率测量结果
图5 非规则信号的频率测量结果
 
    图5是我们通过鼎阳SDS3034示波器观察到的波形情况,测量出的最小周期为117.4000us,最大周期为310.2998us,这是对屏幕上所有波形参数结果的统计。频率“Mean”值为5.778KHz,显然结果并不符合设定。但硬件频率计测量出来的频率为5.012KHz,几乎与设定的中心频率一致,这主要是因为硬件频    率计测频只是对波形脉冲个数的计数,并不关注波形细节,那么下面我们来具体了解一下频率计的工作原理:
 
二.频率计测频率

    在传统的信号分析中,示波器测量频率时精度较低,受制于诸多因素,随机误差较大,频率计受的制约比较小,精度高、误差小,其测量频率一般有三种方法,分别是直接测频法、测周期法、等精度测频法。
 
  1. 直接测频法:
 
    由时基振荡器产生的标准时基信号经过分频作为闸门触发器的标准参考,信号经过整形之后变为脉冲进入闸门,依靠闸门触发器对脉冲进行计数。当闸门宽度为1s时直接从计数器读出的数就是被测信号的频率,即每一秒闸门中有多少个脉冲通过,并不关注这些脉冲信号来到的早晚和规律(亦即信号波形细节),其原理图如图6所示:
 
直接侧频法原理框图
图6 直接侧频法原理框图
 
    直接测频法的实质就是记录在确定闸门开启时间T内待测信号经过整流后的脉冲个数N,通过这两项数据可计算待测频率fx:
 
fx=N/T (1)
 数字示波器待测信号计数过程
图7 待测信号计数过程
 
闸门的开启时刻与脉冲进入之间的时间关系是没法确定的,在图中我们可以看出,相同的闸门开启时间T内,计数脉冲的个数可能是7也可能是8,存在着±1的计数误差,这是频率量化时带来的误差,故又称为量化误差,其表示为,相对误差表示为:
 
数字示波器
 
    这种测量方法中闸门开启时间T为确定值,测量的精度主要取决于计数误差。对于1s 的闸门, ±1 计数误差为±1Hz,其相对误差为(±1/fx)*100%,可见,频率越大, 相对误差越小。所以此种方法更适用于测量高频信号,而非低频信号。
 
  1. 测周期法:
 
    利用被测信号经过整形电路的脉冲信号作为闸门触发器的标准参考,对标准时基脉冲进行计数。当闸门宽度刚好是一个被测信号周期Tc时直接从计数器读出的数值(也就是标准时基脉冲的个数)就是被测信号的周期值。
 
数字示波器-分析图
图片8
    此法的实质是在待测信号的一个周期Tc(确定值)内,记录标准时基信号脉冲个数 N,其数学表达式为(T为标准时基周期):
 
公式
    N的绝对误差为±1,其相对误差与直接测频法类似,表示为:
 公式-2
    相对误差随着被测信号周期Tc的增大而降低,故此法适于测低频(周期大)而不适于测高频(周期小)的信号。
 
    等精度测频:等精度测频方法也是利用闸门对被测信号脉冲计数,是直接侧频法的延伸,不过其闸门开启时间不是确定的值,而是利用了一定方式使得闸门时间始终为待测信号周期的整数倍,因此,有效避免了对被测信号计数所产生的±1误差,不会出现高频精度高,低频精度差的现象,达到了在整个测试频段的等精度测量。其测频原理如图9所示。
 等精度测频原理

图9 等精度测频原理
 
    图中的两个计数器(相当于两个闸门,分别是被测闸门Nx和标准闸门Ns)同时对被测信号和标准时基脉冲进行计数。在整个测量过程中,首先给出预制闸门开启信号(预置闸门上升沿),此时两个计数器并不开始计数,而是等到被测信号的上升沿到来时,计数器才真正开始计数。其测量过程如图10所示:
 
 数字示波器信号测量过程
图10 信号测量过程
 
    预置闸门关闭信号(下降沿)到时,计数器并不立即停止计数,而是等到被测信号的上升沿到来时才结束计数,完成一次测量过程。从图8中可以看出,实际闸门时间τ与预置闸门时间τ1并不相等,设在一次实际闸门时间τ中计数器对被测信号的计数值为Nx,对时基信号的计数值为Ns,被测信号频率为fx,标准时基频率为fs,则有:
 
 
    由于fx计数的起始和停止时间都是由该信号的上升沿触发的,在闸门时间τ内对fx的计数Nx无误差(τ=NxTx)。若忽略时基信号频率fs本身的误差(晶振产生的误差),此时等精度测频的主要误差来源于对标准频率计数的误差(),相对误差为:
 
δ=|ΔNs|/Ns≤1/Ns=1/(τ·fs) (6)
 
    由上式可以看出,测量频率的相对误差与被测信号频率的大小无关,仅与闸门开启时间τ和标准信号频率fs有关,说明了在整个频段的测量精度是等同的。
 
三.结语
    一般来说,软件测量结果是通过对当前屏幕显示的波形数据进行运算得来的,通常只能提供4位左右的有效数字,测量精度也被限制在4位左右。而硬件频率计则是用硬件电路直接对被测信号边沿进行计数从而得到精确的频率结果,因此硬件频率计的频率测量精度通常远远高于软件测频法。
 
    但如果就凭借这样简单的推测就认为硬件法一定优于软件法也是不确切的,一旦信号中有许多噪声叠加时,因为其触发没有规律可言,硬件频率计的显示结果会不断地跳动,无法捕捉其真实测量结果。而此时运用软件法从采集存储器当中截取出来的波形,由于采样的波形经过了滤波,噪声对其的影响相对较小,测量结果相对准确一些。我们可以通过信号源SDG5162设置一个峰峰值为40mv,频率为1KHz的小信号,由于其在传输过程中叠加了大量的噪声,所以送显示波器SDS3034发现如图11所示的现象:
 数字示波器
 
图11 幅值为40MV的小信号测量结果
 
    由图可以看出,软件法的测量结果为1.0000006KHz,而万用表项中内置的硬件频率计测量结果为15.483KHz。硬件测量的错误结果是由叠加噪声的误触发引起的,其图12所示:
 数字示波器有噪声干扰和无噪声干扰的测量对比
图12 有噪声干扰和无噪声干扰的测量对比
 
    从图中可以看出,噪声引起的一些毛刺被误认为是信号的上升沿和下降沿,整流时脉冲个数发生了变化,从而引起计数误差。所以在测量的时候,用户需要根据实际情况来选择合适的测量方式进行测量。
 
    目前市面上大多数频率计是采用的10位或者12位/秒的频率分辨率,测量精度较高,测量频率范围广。而示波器测量频率往往受到其本身带宽、采样率等方面的制约,使得它所能测量的频率有限,且测量精度不高,但它在频率测量方面的优点是不可忽视的,它的波形和频率测量值在同一屏幕显示,还可以通过观察波形的周期自行计算,给人以直观的感受。波形图片还可以存储,导出,相当方便。并且数字示波器还带有简单的频谱分析功能,可以显示信号频谱。
 
参考文献:
1.杨霓清.用单片机实现精密测频的方法.山东大学学报,2003,33(5)
2.林占江, 林放. 电子测量仪器原理与使用[M] . 北京: 电子工业出社, 2007
3.汪进进. 关于数字示波器测量参数的第一算法
 
"一周一问"之NO.0002问回答汇总
 数字示波器-噪声对比
d.sen
 
目前示波器测频率主要使用的是周期法,先测出周期,再计算出频率。想要精度很高的频率测量结果,对测量的准确度要求很高。现在的数字示波器通过对幅值做概率分布的方法计算出top和base的值,再根据这两个值计算出周期等参数,要想准确得到这两个值,个人认为需要较高的样本数来减小测量误差,这就要求示波器有较强的运算能力和较高的采样率。同时还要有一个合适的带宽来减小失真,对应的探头带宽也要合适,还要注意减小噪声的影响。 因此,示波器想要准确测量频率是多么不容易啊。 频率计测频率的话是将被测信号整形为脉冲信号,接入一个闸门电路,时基电路产生一个标准的时基信号,作为闸门开通的基准时间。被测信号通过闸门,作为计数器的时钟信号,计数器记录时钟个数,根据公式f=N/T计算出频率。 相对示波器而言,在相同的准确度要求下,频率计的成本会更低一些,晶振的测量使用频率计也会更准确一些。但是频率计毕竟功能单一,无法完整的观察波形动态,在发现异常,故障检测方面还是示波器更胜一筹。
 
超刚
 
我也想问一下,示波器硬件频率计测量和测量菜单里面的频率测量哪一个测量更准确?原理有何不同?
 
 
黑瞳
 
1.现在的示波器能测出MHz也可以测试Hz频率,由于示波器测频率是将屏幕上测出的周期做倒数,而这两个频率倒数之后非常接近,只能用带宽大,精读高的示波器来测量; 2.示波器测5ppm的晶振非常容易受探头之类的外界干扰,很难正确的显示出来,可以通过其他分析仪来测量。 3.第一点说到示波器测频率是通过对屏幕上的多个周期做平均再倒数得出,而频率计测频率是通过比较复杂的时基电路和逻辑控制电路来得到单位时间内的变化次数来求周期。频率计测出的周期是要比示波器测出的精准的。 以上是个人拙见,希望大神能指出错误和不足!
 
Extreme°/极致 °
 
用示波器测量频率往往受到很多方面的制约,比如带宽、采样率等,限制了其测量高频信号的能力,并且由于本身底噪的影响,限制了其测量小信号的能力,其本身精度不高,在需求高精度测量的条件下,示波器就不适合了。但它在频率测量方面的优点是不可忽视的,它的波形和频率测量值在同一屏幕显示,我们还可以通过观察波形的周期自行计算,给人以直观的感受。波形图片还可以存储,导出,相当方便。并且数字示波器还带有简单的频谱分析功能,可以分析频率之间的关系。虽然示波器中内置的硬件频率计由于内部硬件回路的一些影响,其位数不会太高,鼎阳公司的SDS1000X和SDS1000CFL系列内置了6位硬件频率计,其频率分辨率为1Hz,是完全可以分辨上述两个频率的,且采用的是有源晶振,能够实现6位实时读数,并且对噪声分量比较大的信号采用了数字带通、带阻、低通、高通等滤波方式,避免了噪声引起的误触发,使测量值更加准确。专有频率计目前市面上大多数是采用的10位或者12位/秒的频率分辨率,测量精度较高;另一方面他又不具备示波器能够抓取波形和存储的功能,大多数的老式专有频率计虽然精度很高,但不具备内存,这是一个很大的缺陷
 
亮仔Forrest
 
频率计的原理是先通过输入回路把信号整合成便于计数器统计的脉冲信号,然后测量一定时间内被测信号的脉冲个数。而示波器一般使用周期法间接的计算频率。所以频率计测量精度要高,鼎阳示波器内有频率计功能,可以区分上述信号。
 
 
 
大卫
 
多数数字示波器自身频率误差在百万分之五以上,所以要测该量级频率稳定度,首先自身要在百万分之一左右或外接高稳晶振。有少量数字示波器可以达到这个水平。 其次,利用熟悉示波器的大延迟时间功能进行测量即可。参考国军标数字示波器的时基检定方法即可。
 
勤快的贾贾
 
就探棒引入的寄生参数(主要是对地电容)都已经带来了超过晶振规格的影响。所以这种这种直接测量频率的方法是不正确的。对于频域的一些分析建议使用buffer出来的信号做分析(jitter)。另一个就是频率的定量分析,示波器的精度也是一个不能回避的问题。粗略的经验而已,请指正,也非常希望获得一种方便准确的晶振频率在线测量方法。我们通常都是通过后端分频以后做间接测量结合仿真。
 
宋民
 
示波器是否能够分辨出频率分别是74.25MHz和74.1758MHz的两个信号? 答:鼎阳的示波器都带有硬件频率计功能,其频率分辨率为1Hz,是完全可以分辨上述两个频率的。 晶振的频率稳定度要求是5ppm,怎么用示波器测量这个指标? 答: 这个取决于示波器内部频率基准源的频率稳定度。如果示波器自己的频率稳定度都比5ppm差,那么测试是没有意义的。一般要保证测试设备的精度比被测设备的好3~5倍
 
李为龙
 
首先需要区分测试对象是晶体(谐振器)还是晶振时钟输出,前者频偏受对地并联电容影响,一般电容越大,频率越负偏,示波器(甚至一般频率计数计)测试使用无源探头电容一般在9~11pF,对晶体测试频偏影响太大了,这种方法本身就有缺陷。 如果是晶振的话,频率计没有问题,示波器测试也不可靠,会有触发误差,统计的平均值会比较接近,到作为准确的测试结果肯定不行。 晶体频偏分为两种测试: 1.单体测试,使用晶体分析仪,如S&A的250-B 2.板上测试,为了避免接触影响,我们现在都统一用频谱仪测试。
 
cy
 
频率计的原理是把被测信号整形成脉冲信号,计算一定时间内脉冲信号的个数,而这个时间就决定了频率计的量程,所以只要频率计的量程大于74.25MHz就可以分辨出这两个频率。用示波器测试频率一般是抓取一个到几个周期的波形,计算出时间,计算出一个周期的时间,从而得出频率,但是这两个频率的周期时间分别是74.25Mhz-->13.46801ns,74.1758Mhz-->13.48149ns,一周期相差0.01348ns,100个周期才差1.3ns,才能用500M带宽的示波器区分开。再加上测量误差,示波器要区分出这两个信号非常不容易
 
刘伟城
 
示波器测量晶振的频率,影响最大的应该是其探头的输入电容,测试时,该输入电容将等效并联于晶振的谐振电容上,一个pF级的电容,将很大程度影响其本振频率,特别是对于小谐振电容、高精度ppm值的晶振,此时,即使撇开示波器其它的测试误差,所测得的值已无意义。因此,用示波器测量晶振频率肯定是不准确的。同样频率计等其它设备进行进行接触式测量晶振频率时,也会有此问题困扰。 基于以上,用非接触式的测量法被很多工程师采用,即,用频谱仪的高阻探头感应拾取基频,以读取其基频频标。
鼎阳科技客服电话
客服电话
400-878-0807
0755-36887876
鼎阳科技电子邮件
电子邮件
market@siglent.com
鼎阳科技公司地址
公司地址
深圳市宝安68区留仙三路
安通达工业园四栋