第1章时间频率测量概述
本章*先介绍时间频率(时频)的基本概念,其次重点介绍频率源主要性能指标的测量评价方法及时频测量的应用,*后对频率信号数字化测量的相关概念、优势和实现难点、术语进行全面梳理。
1.1时间频率的基本概念
通常提到的时间包含时刻和时间间隔两种含义。
时刻指在规定时间尺度上的点,给出事件发生时间点的信息,一般用年、月、日、时、分、秒表示,也有需要精确到毫秒、微秒、纳秒等单位的时刻(Jespersen et al.,1999)。
时间间隔是两个时间点间流逝的时间,标准的时间间隔单位是秒(s),而实际应用中,很多领域需要测量更短的时间间隔,如毫秒)等。
一般情况下,不特别区分时刻和时间间隔这两个概念,而是通称时间。时间的基本单位是秒,是七个国际基本单位之一,也是目前测量精度*高的物理量。时间的计量标准具有传递方便特点,若能将其他物理量转化为时间进行测量,能提高这些物理量的测量精度和使用便捷性。
时间单位曾经是根据地球转动速率确定,是对一天的周期测量结果进行等分得到。原子钟的出现为实现更高精度定义秒长奠定了基础。第13届国际计量大会上通过了秒长的定义,“位于海平面上的铯(Cs-133)原子基态两个超精细能级间在零磁场跃迁辐射振荡9192631770个周期所持续的时间为一个原子时秒”(Michael,1999)。
目前以铯原子微波波段共振频率作为时间频率基准的原子钟称为微波钟。以原子的光学波段共振频率作为时间频率基准的原子钟则被称为光钟,光钟的工作频段比微波钟的工作频段高4~5个数量级,因此光钟可以达到比微波钟更高的精度。有报道显示,2022年美、日、中等多国的光钟频率不确定度均已经进人10-18量级,部分实验室甚至报道了10-19量级的光钟研制进展,较微波钟提升了几个量级。因此,2022年第27届国际计量大会通过了“关于秒的未来重新定义”的决议:利用光钟实现时间单位秒的重新定义。该决议计划在2026年的国际计量大会上提出关于秒的重新定义的建议,并在2030年第29届国际计量大会上*终决定。
原子时秒长是累计短周期的频率信号得到,由于频率信号测量精度高,实现的秒长精度要远远高于根据地球自转观测得到的结果。频率信号的准确度是决定秒长准确度的*主要因素。频率是事件重复的速率,如果用r表示事件重复的周期,那么频率V则为周期的倒数,即v=1/r。对应地,周期也是频率的倒数,即T=1/v。
标准的频率单位是赫兹(Hz),定义为每秒发生的事件数或是周期数。电信号的频率通常是多个赫兹,如千赫兹(kHz)、兆赫兹(MHz)或吉赫兹(GHz),其中1kHz表示每秒发生1000次事件,1MHz表示每秒发生100万次(106次)事件,1GHz表示每秒发生10亿次(109次)事件。
秒定义的实现需要测量频率,其他许多场合也需要测量频率,如通信网、电力网内各节点的频率同步,需要频率测量予以保障。基于时间频率的重要性,现代电子系统通常都配备有高精度的频率源提供稳定可靠的频率,保障系统有序工作。当由多个频率源驱动的系统需要协同工作时,测量各频率源的相对频差并校准,使各频率源的频率同步,支撑复杂的电子系统协同工作,频率和时间的高精度测量成为现代电子系统必不可少的重要环节。
1.2时间频率标准
现代电子系统的时间频率标准有晶体振荡器、原子钟等,其中原子钟又根据共振频率的不同分为原子微波钟和原子光钟。原子钟通常由两部分组成,分别是生成周期性信号的发生器和控制输出频率的控制器。根据原子钟对输出频率控制方法的不同,可以将其分为主动型原子钟和被动型原子钟两种,主动型原子钟的输出频率受设备自身谐振控制,被动型原子钟是通过与反馈环路信号比较控制输出频率。光钟通常是主动型,铯原子微波钟或铷原子微波钟都是被动型,氢原子钟有主动型和被动型两种类型。目前,各类原子钟频率标准,无论主动型还是被动型,其基本原理都是利用量子系统输出的频率信号校准晶体振荡器的频率,使晶体振荡器的输出锁定到原子频率,然后作为钟的输出信号(Levme,1999)。
当前使用*广泛的振荡器是晶体振荡器(简称“晶振”),晶振也是各类原子钟的基本组成之一。例如,手表中的晶振,频率准确度约为百万分之一,频率稳定度能达到该数值的10倍,若采用稳定度控制装置,晶振还能达到更高的频率稳定度。因为晶体振荡器的输出频率很容易受温度变化和其他环境参数的影响,所以其长期稳定度相对较差。经过多年发展,虽然一些方法能在一定程度上解决
该问题,但是温度等环境变化对晶体振荡器输出频率的扰动依然没有完全解决,会使输出频率呈随机变化特征。晶振的类型多样,根据具体的使用需求选择,考虑的要素包括成本、性能、寿命、结构和体积等。没有一种晶振能符合所有需求,需要权衡各种要素,*终确定晶振类型。
原子频率标准使用原子或分子跃迁产生周期信号。根据量子理论,原子和分子只能处于一定的能级,或在不同能级之间跃迁,其能量不能连续变化。当由一个能级向另一个能级跃迁时,就会以电磁波的形式辐射或吸收能量,辐射电磁波的频率取决于两个能级间的能量差。从高能级向低能级跃迁,便辐射能量;反之则吸收能量。该现象是微观原子、分子的固有属性,因而非常稳定,原子频率标准的基本原理就是设计方法使原子或分子受到激励而跃迁,从而辐射出稳定、准确的频率。上述工作原理决定了原子频率标准需要一个能使原子保持在特定能级之间持续跃迁的物理装置,以及一个能产生*终输出频率的晶体振荡器和控制电路。原子钟输出频率主要受原子能级跃迁辐射频率的控制,其准确度与辐射频率的准确度直接相关。原子频率标准(简称“频标”)的出现是一项重大进步,但也提出了很多挑战,包括原子能级跃迁的探测、物理封装和电子结构封装,都会在一定程度上对输出频率造成影响。另外,为了组装成可用的频率标准,必要的人工机械介人也会导致干扰。
与微波信号相比,光信号的频率高4~5个量级,并且有一些原子或离子的光学频率跃迁谱线很窄,其相应的谱线质量因子0值高达1018(张*刚,2009),利用这些谱线实现的频标,即原子光钟(简称“光钟”)。光钟工作原理是利用冷原子或者离子在光频段的跃迁频率提供光学频率参考标准,用窄线宽激光探测原子或离子的跃迁谱线,并将其频率锁定到原子或离子的跃迁辐射频率上,然后利用飞秒光学频率梳,将光钟的频率转换到微波频段进行测量和应用,或者转换到其他光学频段来比对和应用。由此可见,光钟主要由三部分组成:一是提供光学频率标准的冷原子系统;二是超窄线宽激光器,用于探测钟跃迁谱线和作为光钟的本振;三是将光频段向可计数的射频段转换的飞秒光学频率梳(胡炳元等,2006)。
光钟是迄今为止*精确的计时手段,其中锶光晶格钟是机构研究*多的一类,目前频率稳定度和频率不确定度已经进人10—18量级(Luetal.,2020),甚至达到10-19量级(卢炳坤等,2023)。
1.3时间频率测量的主要术语
对时间频率测量遵循计量的基本原则:需要测量的频率标准或晶体振荡器称为待测设备(device under test,DUT);测量DUT需要一个参考标准,并且参考标准的性能与DUT性能符合特殊比例,称为测试不确定度比(test uncertainty ratio,TUR),理想情况下TUR应该不小于10:1,比例越高,测量结果可信度越高(Michael,2002)。
时间测量通常针对秒脉冲(pulse per second,PPS)信号,尽管每个设备产生1PPS的脉宽和极性不完全相同,但1PPS的晶体管-晶体管逻辑电平(transistor-transistorlogic,TTL)通用可测。频率测量通常是针对频率为1MHz、5MHz或10MHz的正弦信号,也有波形为方波或脉冲的信号。若振荡器输出频率信号波形为正弦波形,可用式(1.1)表示,即
(1.1)
式中,V、V和0分别为幅值、频率和初始相位,是表征正弦信号的三要素。其中,幅值又称振幅,是正弦量在一个周期内所能达到的*大值,V;周期是物理做往复运动或物理量周而复始变化时,重复一次所经历的时间,s;频率是单位时间内完成周期性变化的次数,是描述周期运动频繁程度的量,Hz,周期与频率呈倒数关系,T=1/v,可以相互转换;相位是对于一个信号中特定时刻在它循环中的位置,初始相位是信号在初始时刻的相位值,根据定义可见初始相位与所选时间起点有关。由上述定义可知,相位与频率之间存在联系,满足关系。图1.1为振荡器输出的正弦信号,其中;为信号数字化时的采样周期。
图1.1振荡器输出的正弦信号
为了定量分析频率,需要对信号的频率进行测量,当然也可以根据频率、相位、周期之间的转换关系,通过测量相位差或周期实现对频率的测量。测试时频率信号必须考虑信号幅值与测试仪器的兼容性问题,幅值太小不能驱动测试仪器,需要对信号进行放大处理;幅值太大容易导致过载,需要对信号幅值作衰减处理。
测量信号频率的主要目的是分析振荡器输出信号的周期复现能力,以及统计频率测量值和真值的符合程度,这两项指标是衡量振荡器性能的主要参数,对应的术语分别是频率稳定度和频率准确度。
1.3.1准确度
准确度的定义是测量值与真值的符合度,描述实际值与其标称值或理想值的偏差。时间准确度、频率准确度分别用时间偏差和频率偏差表征,时间偏差是指待测秒脉冲信号与同步到协调世界时(UTC)的脉冲信号的差值;频率偏差是待测信号的频率测量值与理想标称频率的差值,一般用相对值表示,又称频偏。
时间偏差通常使用时间间隔计数器(time interval counter,TIC)测量,如图1.2所示。TIC有两个信号输人端口(输人端口数非固定,可根据仪器通道数扩展),分别接人需要测量时差的两个信号。一个信号触发内部计数器开始测量,另一个信号触发停止测量,开始和停止区间的时间间隔被填充时基脉冲,内部计数器计数时基脉冲数,即可得到两输人信号间的时差。此类原理的时间间隔计数器测量分辨率主要取决于时基脉冲周期大小,如10MHz时基的TIC测量分辨率为100ns。为提高TIC的测量分辨率,数字内插、模拟内插等方法被用于检测小于时基周期的时间间隔量,目前已经有分辨率为0.9ps的TIC商业产品。
图1.2时间间隔计数器测量时间准确度频率偏差f可按式(1.2)计算:
(12)
式中,v测量值为测量仪器测得的待测信号源频率值;v标称值为待测信号源预期应该输出的频率值,又称标称频率。由于v标称值是理想值,实际选取一个频率偏差比待测频率偏差小一个量级的参考频率近似作为标称频率。
频率准确度是频率偏差的*大范围。为了获得信号源频率准确度,从实施角度,*先需要测量信号源的频率量值。当前高分辨率的频率量主要采用相对测量法,即指定某频率足够准确的信号源作为基准,用测量仪器比较待测信号源与基准间的频率偏差。作为秒长定义的铯原子喷泉钟被作为频率量值的基准,通过与其进行相对测量,获得频率偏差,但是铯原子喷泉钟体积大、不可移动,仅能满足部分信号源的频率测量需求,因此从实用角度,频率偏差的测量,常选取频率
准确度是待测信号三倍或高一个量级以上的信号源作为参考,测试相对于参考的频率偏差,代表该信号的频率准确度。下面介绍几种频率偏差测量方法,*简单的方法是用频率计直接计数待测设备输出信号的周期个数,作为参考的信号源是频率计内部或外部输人的参考信号源,如图1.3所示。频率计的测量分辨率或显示位数决定了频率计测量频率偏差的能力。例如,用有9位数字显示的频率计,测量频率为10MHz的信号,可显示的*小量值为0.1Hz,假定*后一位测量值准确可信,则该频率计能分辨的*小频率偏差为0.1Hz,称为频率测量分辨率。
图1.3频率计测量频率准确度也可以使用示波器或者比相
展开