第一章绪论
无线电频谱涵盖3Hz~3THz,国际电信联盟(ITU)和国际电气电子工程师学会(IEEE)的频段分配如表1.1所示[1]。射频(radio frequency,RF)是指在无线电频谱中的交变电流信号。无线电波是频率处于在RF频率范围内的电磁波。微波的频率范围是300MHz~300GHz,对应的电磁波波长为250px~1mm,其中波长为毫米量级的无线电信号称为毫米波,对应的频率范围是30GHz~300GHz*。无线移动通信、雷达等无线电系统的工作频率基本上都落在微波频段。微波工程是无线移动通信、雷达等无线电系统的核心关键技术,也是微波集成电路、高速数字集成电路的基础技术。它涵盖了微波的产生、变换、发射、传播、接收、处理等多个方面。
微波工程的理论基础是电磁学,而电磁学的核心毫无疑问是麦克斯韦方程组[2]。该方程组是由英国物理学家詹姆斯 麦克斯韦在19世纪建立的一组描述电场、磁场与电荷密度、电流密度之间关系的偏微分方程。它由4个方程组成,分别是:描述电荷如何产生电场的高斯定律;论述磁单极子不存在的高斯磁定律;描述电流与时变电场怎样产生磁场的麦克斯韦–安培定律;描述时变磁场如何产生电场的法拉第感应定律。赫兹在1887年至1891年期间进行的一系列实验证实了麦克斯韦的电磁波理论。
在微波工程中,如果要分析或设计元器件、部件、子系统或系统,可以直接从三维电磁场的麦克斯韦方程组及求解出发。这种方法通常被称为电磁场全波求解。但是,麦克斯韦方程组包含作为空间坐标函数的向量表示场量的向量微分或积分运算,求解这些方程将带来非常复杂的数学运算。在很多实际应用场合,即使现代高性能计算机的计算力也远远跟不上电磁场全波求解所需的超高复杂度计算需求。为此,微波工程的目标之一是试图将这个复杂的场求解问题简化为可用更简单的电路理论来求解。
1.1主要研究进展及发展趋势
1.1.1微波电路与系统
20世纪初,无线电技术的快速发展主要发生在高频(HF)到甚高频(VHF)的范围内。20世纪40年代的第二次世界大战中,雷达的出现和应用使得微波理论和技术被广泛重视。以雷达为主要应用目标,美国麻省理工学院辐射实验室的科学家们对微波理论进行了一系列深入研究,将微波理论推向了一个崭新的高度,这些理论包括波导理论、微波天线理论、小孔耦合理论和微波网络理论等。
如今,微波电路与系统广泛存在于包括通信、雷达、遥感和医学等多个领域,成为现代文明最重要的基石之一。20世纪70年代首次提出了蜂窝移动电话系统,其诞生正是得益于对微波电路和系统的研究,其从1G到5G爆发式的发展,反之又大大促进微波电路与系统的研究与发展。随着现代无线移动通信和雷达等无线电系统的迅猛发展,设计满足低成本、小尺寸、高质量、高集成度等要求的微波电路与系统成为国民经济发展与国防建设中的关键环节。微波电路与系统通常由相当多的元部件组成,而这些元部件又由多个设计参数定义,然而这些成千上万个参数的组合中只有极少数组合能同时满足设计规范和指标要求。
人工智能的引入能够以多种途径显著加速微波电路与系统的设计收敛[3,4]。文献[3]提出了一种基于机器学习的高效差分进化算法,并将其应用于线性射频放大器的综合设计,该方法利用在线更新的高斯过程回归(Gaussian process regression,GPR)代理模型来评估放大器的性能,相比于离线的代理模型,在线更新代理模型可以在迭代中逐步提升预测精度,结合全局优化算法寻找全局最优解。例如,设计一个工作在100GHz的放大器,要求其增益尽可能高,相比于没有应用机器学习仅仅利用全局优化和全波仿真的方法,该方法优化得到的放大器有着不可比拟的性能,带宽都超过了20GHz,且增益超过了10dB,而且应用机器学习的方法在时间上缩短至19,大幅度提升设计效率。文献[4]利用基于加权期望改进的贝叶斯优化方法结合多起点局部搜索等策略,研究了人工智能方法在变压器设计等方面的应用。
1.1.2天线与阵列
天线是天线通信、广播、导航、雷达、测控、遥感、射电天文和电子对抗等多种民用和军用无线电系统中必不可少的部件之一。1887年,赫兹完成了证明电磁波存在的实验,这已经成为无线电发展历史的里程碑式的事件。该实验使用了电偶极子谐振器天线。自此至今,天线的设计和优化已经历了100多年的历史。在早期的实验性无线电系统中,天线主要包括电偶极子天线和环形天线等。随着20世纪初电子管的发明和发展,涌现了一系列包括菱形天线(rhombic antenna)、鱼骨天线(fish bone antenna)、对称天线(symmetrical antenna)和八木天线(Yagi antenna)等在内的线天线(wire antenna)。与此同时,也出现了一系列如感应电动势法和对偶原理等对线天线的分析、设计方法及理论。
20世纪40年代的第二次世界大战催生了微波雷达的发展,包括抛物面天线(parabolic antenna)、喇叭天线(horn antenna)等在内的口径天线大量涌现。同时,也出现了波导缝隙阵天线、螺旋天线等新的天线结构。二战之后,微波中继通信、广播和射电天文的应用也促进了线天线和口径天线的进一步发展。其中包括几何光学法、口径场法和电流分步法等在内的口径天线分析方法被提出,天线测试技术和天线阵列综合技术也相应出现。20世纪60年代开始,天线设计进入全面发展阶段。电子计算机、微电子技术和现代材料的发展为天线理论和设计的发展提供了必要的基础。包括高增益、快速扫描、宽频带、低旁瓣等在内的多样化天线设计需求层出不穷。这一时期出现了单脉冲天线、相控阵天线、波纹喇叭、多波束天线、非频变天线、微带天线、共形阵天线、介质谐振器天线、分形天线、可重构天线等高性能的新型天线。同时,矩量法、时域有限差分法等分析方法被成功应用于天线设计领域,并发展出商业化的软件,从而极大地提升了天线设计的效率并拓展了天线创新的边界。
近年来,随着无线移动通信及雷达技术等快速发展,天线领域正在经历快速发展与革新。一方面,基片集成技术、超材料技术、电磁偶极子技术、封装天线技术等新的天线设计技术不断涌现,为高集成度、多设计目标、高频段、复杂电磁环境、强设计制约、高良率(productionyield)需求等多种要求下的天线设计带来更丰富的选择;另一方面,包括进化算法、机器学习算法、特征模算法等在内的新型分析及优化算法的引入,以及与经典计算电磁方法和商业全波仿真软件的结合极大地促进新型天线的出现。天线性能和设计效率的提升成为研究热点之一,而且天线的性能边界研究也进入新阶段。
人工神经网络(artificial neural network,ANN)作为最早被引入电磁和微波工程领域的机器学习方法之一,近十几年得到长足的发展和应用。1998年,文献[5]利用ANN建立了微带天线主模的设计谐振频率,以及介质基板的介电常数、厚度与贴片天线长度之间的映射关系。2019年,东南大学的崔铁军教授课题组利用多层卷积神经网络建立了超材料结构的反射相位及其结构参数之间的关系,预测精度达到了90.05%,并成功应用于圆极化反射阵的设计[6]。然而,在很多场合,天线智能设计所需的数据获取困难,即使有办法获得数据但其成本极其高昂,这就造成了小样本集的场景,选用ANN作为机器学习方法容易带来过拟合的问题。与其相比,支持向量机(support vector machine,SVM)方法在小样本集条件下拥有更优秀的泛化性能。2007年,西班牙的研究者将SVM应用于阵列综合中,直接建立由天线单元的幅相信息与最终的全波仿真得到的方向图之间的联系,从而在阵列综合中将天线单元间的互耦纳入考量[7]。近几年,高斯过程回归机器学习(GPR machine learning,GPR-ML)在电磁领域受到广泛的关注和青睐。相比于SVM,GPR-ML具有同时得到预测点处的响应和不确定性的特性,因此可以更有效地寻找到全局最优点。2013年,将GPR-ML和差分进化算法(differential evolution algorithm,DEA)相结合,文献[8]提出了一种代理模型辅助的差分进化法(surrogate model assisted differential evolution for antenna synthesis,SADEA),可以有效解决包括天线的反射系数、互耦、增益等的优化设计问题。冰岛雷克雅未克大学的Koziel教授及其课题组在应用GPR-ML进行天线设计的领域做了大量卓有成效的研究工作,包括利用多精度的全波仿真数据,快速得到天线的单目标[9]和多目标设计结果[10]等。相较于传统方法,人工智能方法的引入可以大大降低对计算资源和时间的需求,从而突破传统方法下性能和设计效率的瓶颈,并将天线与阵列的设计与优化推广到更多参数、更高结构复杂度和更多目标的范畴。
1.1.3电波测量与信道建模
无线移动通信持续快速发展,载波频率不断升高,毫米波无线移动通信已经开始大规模部署应用。无线移动通信的电波传播场景越来越复杂,而且随着大规模多输入多输出(massive multi-input and multi-output,mMIMO)技术的应用,移动通信基站装备的天线数目越来越多,终端设备也已装备多天线。以上这些情况导致电波传播相关的参数估计和信道建模的难度和复杂度不断攀升。传统方法难以解决这类复杂的问题。相关的研究结果表明,人工智能等新技术有望被用来突破这类复杂问题中的瓶颈[11–15]。文献[14,15]是由两部分组成,其中第一部分是对机器学习使能的信道特性和天线-信道优化的综述[14];第二部分回顾了场景识别和通道建模的研究现状[15],也给出基于人工智能或机器学习的信道数据处理技术所面临的挑战。
已有的研究结果表明,基于几何的随机建模和仿真方法很难预测实际场景中的时间变化或位置变化信道。为了克服这些缺点,华北电力大学的赵雄文教授等提出一种基于ANN的信道建模和仿真框架用于对实测信道进行回放[11],并采用他们提出的方法对中国青岛高铁站28GHz信道实测数据进行信道回放验证。通过对比实测信道以及ANN和GBSM(geometry-based stochastic model,基于几何的随机信道模型)仿真信道的大尺度和小尺度参数,证实了所提方法的有效性。
结果表明,基于ANN的方法可以更精确地回放实测信道,而基于GBSM的仿真信道有较大的偏差。这项研究成果为5G及B5G(超5G)系统研究和工程应用所需的信道回放提供了有效的解决方案。如果具有大量的信道实测数据,也能应用于未来的信道预测。
移动通信正在呈现出随着智能手机大量使用,通信场景越来越复杂,载波频率越来越高,mMIMO中存在大量天线阵元,以及高密度微蜂窝等趋势,大数据集正在产生,5G已迈入大数据时代。文献[12]提出了大数据和机器学习使能的无线信道模型框架。所提出的信道模型基于ANN,包括前馈神经网络(feed-forward neural network,FNN)和径向基函数神经网络(radial basis function neural network,RBF-NN)。输入参数包括发射机和接收机的坐标、收发距离和载波频率,输出参数是信道统计特性,包括接收功率、均方根时延扩展、均方根角度扩展。用于训练和测试ANN的数据集来自于信道测量和GBSM仿真。仿真结果表明所提方法的优异性能,这也说明机器学习算法是未来基于测量的无线信道建模的强有力分析工具。
为了克服传统物理统计信道模型在准确性和场景通用性方面存在的不足,本书作者所在课题组提出了采用知识和数据混合驱动的智能信道建模方法,并针对前向植被散射簇内信道特性完成预测性建模和模型验证[13]。所提出的智能信道建模方法利用传统基于几何分布的随机信道模型得到多径簇间的信道参数,针对不同类型的多径散射簇,调用相应的ANN模型预测簇内信道特性。根据信道实测数据和射线追踪仿真结果,建立了前向植被散