
2.2.2 电磁学领域的AI应用
以高速和高带宽网络拓扑结构为特征的先进通信时代对电磁系统提出了更高的需求,如可重构性、紧凑性、指向性和能源转化效率等方面。检测和识别系统中的远程物体和故障部件,以及对电气系统中的辐射信号进行模式识别,在电磁学应用中都是必要的。其中,辐射信号的定义是电磁学的最新研究趋势,此外,在限制条件下优化电磁系统以获取更高性能一直是一个挑战。基于AI的计算电磁学方法有可能解决这些问题。本书接下来将讨论AI在电磁学领域的一些应用以及未来展望。
1. AI在散射问题中的应用
散射是指利用电磁波照射未知的散射体,根据散射场的信息来重构散射体的形状、位置、材料等参数。散射属于电动力学领域,它在雷达成像、医学诊断、地质勘探等领域有重要的应用。
散射问题是一个非线性、非凸、不适定的问题。传统的求解散射问题的方法主要分为数值方法和分析方法两类。数值方法是先利用有限差分时域法、矩量法、有限元法、边界元法等将麦克斯韦方程组离散化,然后利用迭代法或者直接法求解线性方程组,从而得到散射场的近似解。分析方法则是先利用高频近似或者积分方程等将麦克斯韦方程组简化,然后利用特殊函数或者级数展开等求得解析解或者半解析解。这些传统方法虽然有一定的理论基础,但是存在一定的局限性。数值方法需要有大量的计算资源和时间作支撑;分析方法需要复杂的数学推导和假设条件,且所求得的解通常仍有继续优化的空间,但由于分析方法的局限性,很难继续优化。
AI在散射问题中的应用主要利用深度学习等机器学习技术来建立入射波和散射波之间的非线性映射关系,从而实现快速、准确、灵活地求解。AI可以作为一种补充方法,与传统方法相结合,从而提高散射问题的求解效率和精度。在正散射问题中,可以利用神经网络来拟合正散射问题的数值解或者解析解,以避免重复无效的运算。例如,Shan 等人使用多层感知机(Multilayer Perceptron,MLP)拟合了二维平面上圆形障碍物的正散射问题;Jin等人使用卷积神经网络拟合三维空间中任意形状障碍物的正散射问题。这些方法可以快速且准确地预测正散射场,且可以适应不同频率、不同入射角度、不同形状的障碍物。
在逆散射问题中,面临的挑战在于问题固有的非线性。这也导致出现了许多不同的逆散射方法,这些方法可以分为两类:一类是确定性优化方法,包括子空间优化算法、畸变出生迭代算法,以及对比源反演算法;另一类是随机方法,包括遗传算法、进化优化算法和粒子群优化(Particle Swarm Optimization,PSO)算法。AI出现后,基于压缩感知的方法可以用于将逆散射问题正则化,基于深度神经网络的方法已成功用于解决逆散射问题,而示例学习可以通过设计各种机器学习算法来解决逆散射问题。Wei 等人为逆散射问题开发了一个基于深度学习的方案,该方案能够通过训练 U-Net 产生良好的定量结果。
为了探索深度神经网络架构和非线性电磁逆散射迭代方法之间的关系,Wei 等人提出了3种基于 U-Net卷积神经网络的反演方案。Li 等人则研究了一种用于解决非线性电磁逆散射问题的深度神经网络。该网络由3个级联的卷积神经网络模块组成,通过反向传播处理输入场景,并输出未知散射体的重建图像。为了弥补物理知识和学习方法之间的差距,Wei 等人整合了卷积神经网络迭代算法架构的优点,提出了一种诱导电流学习方法,以提高模型的精度和解释能力。针对具有高对比度的逆散射问题,研究人员还提出了多种方法。其中一种方法是对比源网络(CS-Net)和传统的子空间优化方法,基于3个阶段开发了卷积神经网络,以解决逆散射问题。此外,Yao 等人提出了一种两步深度学习方法,使用级联卷积神经网络和另一个复值深度残差卷积神经网络来再现高对比度对象。在 Guo 等人的研究中,他们采用梯度学习方法来反演瞬态电磁数据。因此,在工程应用中,仅使用无相位数据(例如仅使用振幅数据)的反演方法被认为是相对最优的选择。
2. AI在天线设计中的应用
天线设计是计算电磁学领域的一个重要应用方向,主要涉及设计和优化用于发送和接收无线信号的天线。作为无线通信系统的核心组成部分,天线扮演着关键角色。在天线设计中,首先需要确定天线的工作频率范围,这取决于天线的应用场景及其使用的通信协议。接下来,根据工作频率范围和性能要求,选择适当类型的天线,例如微带天线、偶极子天线、方向性天线等。最后,利用计算电磁学的方法,如数值模拟和优化算法,对天线的结构进行建模、分析和优化。AI在天线设计的实际应用中具有重要意义,为实现高效的无线信号传输和接收提供了关键的技术支持。
一些传统的全波电磁模拟方法,如有限差分时域法或有限元法,被广泛应用于天线设计和优化。然而,这些方法需要消耗大量的计算资源和时间。事实上,优化天线阵列可能需要大量重复电磁模拟过程,以微调材料参数,从而提高性能。因此,在设计具有高增益、高传输效率和高指向性的紧凑型天线或天线阵列时,应用AI模型选择合适的材料和适当的材料配置可以显著提高设计效率,以达到所需的性能要求。通过应用AI模型,可以减少对传统全波电磁模拟方法的依赖,从而加快天线设计过程并降低计算成本。
AI在天线设计中的应用主要是利用深度学习等机器学习技术来实现天线参数的自动化、智能化和精细化优化,从而提高天线设计的效率和精度。其中,基于代理模型的天线优化是天线设计中最重要的方法之一,其目标是使用计算成本较低的估计模型来替代计算成本较高的电磁模拟,这些模型是通过统计学习技术构建的。机器学习平台MS-CoML通过引入多级协作,显著提升了天线建模速度,无须通过单输出的高斯过程回归来保证天线设计精度。通过联合应用单输出高斯过程回归、对称和非对称的多输出高斯过程回归方法,MS-CoML基于有限数量的高保真响应构建了针对不同设计目标的替代模型,并实现了较高的预测精度。此外,Lecci 等人在2020年提出了一种机器学习框架,该框架基于蒙特卡罗方法,考虑了信噪比等网络级指标,能够对稀疏阵列进行基于模拟的优化。Koziel等人提出了一种基于多目标优化的顺序模式算法,该算法通过数百次全波电磁仿真提供天线的优化设计参数。
仿真结果显示,MS-CoML方法在不影响建模精度或性能的情况下能大幅缩短总体优化时间。Liu等人在2019年提出了一项改进的基于并行仿真代理模型辅助系统的方法,其优化速度比传统代理建模方法快了1.8倍,并且能够实现更高质量的天线设计。另外,同样由Liu等人在2021年提出的方法与其他代理模型相比,节省了90%的天线优化时间。该方法具有以下特点:单保真、基于电磁学模型、可降低训练成本、采用代理模型辅助的混合差分进化方法。该方法适用于复杂的天线设计,是一种自适应混合代理建模框架,通过增加设计变量和设计规格来提高复杂天线的性能。
Xue等人在2019年开发了一种混合模型,首先利用10种不同的模型对一小组样本进行基础学习,然后将初始预测插入K最近邻(K-Nearest Neighbor,KNN)模型。该模型实现了对三角形探针馈电贴片天线的设计参数的均方误差(Mean Square Error,MSE)的最终预测。半监督方法可以在使用少量预标记样本的条件下,同时训练高斯过程回归模型和支持向量机(Support Vector Machice,SVM)模型,通过选择所需的精度来控制模型,从而优化设计时间。这个方法相较传统的基于监督学习的替代模型,具备高精度的预测能力,而且只需使用较少的标记数据。此外,半监督方法还能够实现高质量的天线设计,仅需进行10~15次电磁模拟。在提高天线的传输效率方面,机器学习已成为一种可靠的辅助技术。
天线合成涉及根据电参数的知识来确定天线的几何或物理形式。因此,在实际应用中,利用机器学习模型可以提高天线合成的效率。梯度提升树通过估计不同振幅的相位角来合成相控阵天线。使用AlexNet模型预测反射阵列天线的相移可以实现较高的预测准确性,该模型使用辐射方向图和波束方向图作为输入来预测相移,实验表明最终的预测误差小于0.4%。通过引入多个神经网络回归器确定受电弓和铁路全球移动通信系统天线之间的耦合系数,该方法能够显著提高预测性能,还能保持耦合系数的准确性。神经网络在合成H形矩形微带天线的实验中的准确率超过99%。径向基函数适用于评估矩形微带贴片天线的谐振频率。此外,当数据集比较小时,利用SVM模型在近场聚焦技术中估计辐射场,可以获得更优的预测性能。同样,可逆神经网络(Invertible Neural Network,INN)模型可以基于小型数据集精准确定不同平面的电压驻波比、增益、辐射方向图和辐射效率。INN模型还展示了根据给定的传输系数合成发射阵列天线的可行性。
Sharma等人的研究展示了最小绝对收缩和选择算子、KNN以及人工神经网络(Artificial Neural Network,ANN)等现代机器学习算法如何改进基于特定带宽选择的天线设计优化和合成方法。该研究表明KNN算法是所有机器学习算法中计算速度最快的。类似地,Cui等人的研究发现,与高斯过程回归、ANN相比,优化后的KNN算法给出了最小的S11参数。CNN曾用于估计二维辐射图的相位角,实验表明该网络能够准确计算相位,以合成所需的天线模式。此外,自适应混沌粒子群优化算法可以避免陷入局部最优,从而避免天线合成中的过早收敛现象。Kim等人提供了一种基于深度学习的方法,可以根据输入的辐射方向图确定天线元件的振幅和相位,但是在辐射角为0°和360°的情况下,该方法预测的准确性较低。
3. AI在天线选择中的应用
天线选择涉及从多个可能的天线中选择一组以优化天线阵列性能,在通信、雷达、传感等多个应用场景中都有重要意义。AI在自动选择具有特定应用需求的天线方面可能会发挥重要作用。在多输入多输出(Multiple-Input Multiple-Output,MIMO)技术中,利用机器学习进行高效发射天线的选择。为了选择适合大规模MIMO系统的天线子集,Gecgel等人提出了一种采用欧几里得距离优化天线选择和MLP模型的动态广义空间调制框架,能够实现更高的多样性增益。de Souza Junior等人提出了一种基于卷积神经网络的发射天线选择方法,用于5G应用中的非正交多址MIMO系统,该算法比穷举搜索快10 000倍,比超区域提议网络快2倍,并具有89%的验证准确率。此外,在选择不受信任的中继网络中的发射天线方面,相较于MIMO系统中的穷举搜索,SVM、朴素贝叶斯和KNN算法均表现出更高的性能,同时降低了计算复杂度。
An等人使用了多级卷积神经网络来选择MIMO物联网(Internet of Things,IoT)系统的发射天线。对于现代MIMO通信中的发射天线选择,Diamantaras等人采用了学习到选择(Learning to Select,L2S)方法。Zhong等人则采用了基于深度神经网络的方法,与MIMO软件定义无线电系统中基于规范的天线选择方法相比,性能提高了约53%。除了MIMO技术,Ma等人还运用机器学习技术,采用高斯混合模型对射频指纹数据集的特征进行排序,并使用SVM对天线进行分类,以实现对不同射频信号的分类和无线识别。在射频信号受到严重噪声影响的情况下,这项研究中天线选择的准确率可以达到75%以上,比传统算法具有更好的特征提取性能。2021年,Vu等人提出了一种基于深度学习而非SVM的联合天线选择方法,以及使用预编码设计算法来为基站选择适合的天线组合,从而提高天线系统的总速度和服务质量。选择使用深度神经网络的原因是与基于SVM的超平面模型相比,深度神经网络可以通过拟合更精细的函数来提高性能。
4. AI在预测天线位置、方向和辐射中的应用
天线位置是指天线在一个电磁结构(如天线阵列)中的位置,它会影响天线的性能和效率;天线方向是指天线在空间中的朝向,它会影响天线的辐射方向图和覆盖范围;天线辐射是指天线在给定的电磁环境中的辐射特性,如辐射功率、辐射场强、辐射效率等。与它们相关的预测问题均属于复杂的优化问题,通常难以找到全局最优解。
机器学习已经在估计天线位置和天线方向方面得到了显著应用,以实现发射和接收系统的最大增益,它能够协助检测和控制基于信号模式、强度和目标位置的天线波束相位。到达方向估计已经成为军事和民用研究中的热门领域,尤其是在远程物体探测的应用中。然而,传统的固定天线方法通常只能在一个预设方向上有效接收、发射信号,这限制了天线的灵活性和覆盖范围。因此,天线阵列作为一种实践中的替代方法得到了广泛应用。借助多个协同工作的小天线,基于天线阵列的方法不仅能够提高信号质量,还能动态调整波束方向和宽度。通过机器学习选择适合的天线和确定它们的位置,可以实现多输入单输出(Multi-Input Single-Output,MISO)配置,从而在复杂环境中优化通信效率和质量。
Barthelme等人研究了一种基于神经网络的算法,可以以较低的计算复杂度估计到达方向(Direction of Arrival,DoA)。在Karim等人的研究中,他们采用了一种改进的遗传算法,以预测基于射频的高级驾驶辅助系统中天线的最佳位置。Cenkeramaddi等人的研究描述了一种由机器学习辅助的旋转式高架天线技术,通过估计天线方向以实现更好的视野和成本效益的自动化。Ma等人使用ANN来估计波束的排列和分布,无须事先了解用户的位置信息。Hong等人描述了一种使用多目标遗传算法的定向天线设计方案,可减少天线的副瓣数量,从而提高无线通信的指向性和安全性。在Sharma等人的研究中,他们使用高斯过程回归来计算方形微带贴片天线的谐振频率。一些机器学习算法在解决线性问题和复杂问题方面表现出色,例如在特高频频段中,一些机器学习算法可以用于估计工作在共振频率的天线的不同散射参数。Soni等人提供了一个使用ANN的预测模型,可以预测含空气隙的柔性微带贴片天线的共振频率。Shi等人在研究中引入了支持向量回归(Support Vector Regression,SUR)方法来预测具有复杂形状的复杂反射阵列天线的电磁响应。SVR实现了可靠、准确和快速的电磁响应估计,与全波模拟相比,节省了15%的时间。此外,Subramani等人使用递归神经网络(Recursive Neural Network,RNN)来抑制无线通信中的谐波出现。深度神经网络有助于降低计算复杂度,还能够预测最佳DoA。研究还显示混合多层网络可以同时检测最佳天线并估计DoA。与大多数信号处理技术相比,机器学习已被证明在复杂环境中表现得更加稳健,可以提供更高的信噪比和更好的波束成形结构。目前,不同类型的分形天线、星形天线和模式可重构天线正在利用机器学习算法实现自动可重构功能,以满足现代应用的需求。
5. AI在遥感中的应用
遥感是利用航天器上搭载的各种传感器对地球表面或大气层进行观测和测量的一种技术。它通过获取大范围、高分辨率、多波段和多时相的电磁波信息,反映地球表面或大气层的物理、化学、生物等信息的特征和变化。遥感在地质、农业、气象、环境、城市规划等领域都有广泛的应用。传统的遥感数据处理方法主要分为图像处理和信号处理两类。图像处理利用数字图像处理方法对遥感图像进行预处理、增强、分类、分割、变化检测等操作,以提取图像中的目标和特征。信号处理利用数字信号处理方法对遥感信号进行滤波、变换、压缩、编码等操作,以提高信号的质量。
AI在遥感中的应用主要是利用深度学习等技术来实现遥感数据的自动化、智能化和精细化处理,从而提高遥感数据的价值和推动遥感数据的应用。在遥感领域,AI的应用可以分为以下两个方面。一方面是利用AI技术来提高遥感数据的质量。例如Song 等人利用神经网络进行遥感数据的去噪、去模糊处理等,以改善数据的清晰度和优化细节。Chen 等人使用卷积神经网络对多光谱图像进行去噪,输入的是含有高斯噪声或泊松噪声的多光谱图像,输出的是去噪后的图像。该方法利用生成对抗网络(Generative Adversarial Network,GAN)对合成孔径雷达(Synthetic Aperture Radar,SAR)图像进行去模糊,输入的是含散斑噪声的SAR图像,输出的是去模糊后的图像。Han 等人使用深度残差网络(Deep Residual Network,DRN)进行高光谱图像超分辨率处理,输入为低分辨率的高光谱图像,输出为高分辨率的高光谱图像。这些方法一方面能够提高遥感数据的质量,并适应不同类型、不同场景、不同噪声水平;另一方面,还可以通过神经网络实现遥感数据的分类、识别、 检测等操作,进而提取数据中的语义和知识。例如,Lin等人使用卷积神经网络对多光谱图像进行分类,输入为图像块,输出为每个像素点所属的地物类别。Meng 等人利用基于层注意力的噪声容忍网络对SAR图像进行识别,输入为图像块,输出为每个图像块所包含的目标类型。Chen 等人使用区域卷积神经网络对高光谱图像进行检测,输入为高光谱图像,输出为每个目标的位置和类别。这些方法能够提取遥感数据中的信息,并适应不同尺度、不同复杂度、不同背景的遥感数据的复杂变化。
6. AI在雷达信号分析中的应用
雷达是一种利用电磁波来获取目标的位置、速度和形状等信息的技术。雷达信号分析广泛应用于军事、航空、航海、气象等领域。雷达的应用可以分为不同的类型和场景,下面将介绍3个常见的场景。
第一,自动驾驶车辆中的雷达感知。自动驾驶车辆需要使用多种传感器来感知周围环境和交通情况,雷达是其中一种重要的传感器,可以提供目标距离、目标角度以及目标速度等信息。在雷达感知的过程中,需要从雷达信号中提取有效特征,并识别出不同类型和状态的目标,如行人、车辆、障碍物等。第二,雷达目标识别中的微多普勒特征分类。微多普勒特征指的是目标表面或内部部件的运动而产生的多普勒频移变化,它可以反映目标的细节结构和运动状态。在雷达目标识别的过程中,需要根据目标的微多普勒特征来识别不同类型和状态的目标。第三,雷达资源管理(Radar Resource Management,RRM)。它指的是在有限的资源预算下,对雷达系统中的不同任务进行优先级分配、参数选择和调度等。在RRM中,可以利用数学模型和优化算法,根据预定义的目标函数和约束条件,得到最优的资源分配方案。
在传统方法中,自动驾驶车辆中的雷达感知常使用基于规则或模型的方法来提取特征,并使用基于距离或相似度的方法来识别目标。在雷达目标识别中的微多普勒特征分类中,传统方法通常使用基于时频分析的方法来提取微多普勒特征,并使用模板匹配或机器学习的方法进行目标分类。在RRM中,传统方法利用数学模型和优化算法来得到最优的资源分配方案。
然而,AI方法为上述应用提供了一些新的解决方案。在自动驾驶车辆中的雷达感知方面,Li 等人利用时序关系进行雷达目标识别,使用了一种基于长短期记忆(Long-Short Term Memory,LSTM)网络和卷积神经网络的混合网络结构,用于处理连续的鸟瞰视图雷达图像帧。该方法利用 LSTM 网络捕捉目标信息,并利用一个时序关系层来显性地对不同雷达图像帧中目标之间的关系进行建模。Li等人在一个公开的雷达数据集上进行了实验,并与其他几种方法进行了比较。结果表明,该方法在雷达目标识别中具有更好的性能和鲁棒性。在雷达目标识别中的微多普勒特征分类中,Karthick 等人提出了一种使用卷积自编码器(Convolutional Auto-Encoder,CAE)进行低时延目标分类的微多普勒特征提取方法。该方法利用 CAE 对微多普勒特征图像进行无监督学习,从而提取出有效的特征向量。该方法使用了一种快速学习算法,可以在使用少量训练数据的情况下快速学习,并实现可靠的分类。对于RRM,AI方法可以利用机器学习的方法从历史数据中学习模式和规律,进行资源分配问题的预测、分类、聚类和优化。此外,深度学习方法可以从高维数据中提取抽象的特征和表示,实现非线性映射和近似。强化学习方法可以通过智能体与环境的交互,学习最优的行为策略,实现资源分配问题的动态决策和控制。符号 AI方法(包括知识表示、规则推理、专家系统和模糊逻辑等)也可以应用于RRM。
综上所述,AI在雷达信号分析中的应用可以提高雷达感知性能、实现目标识别和分类,并优化RRM。深度学习、强化学习和符号AI等方法为传统方法所面临的限制和挑战提供了新的解决方案,提高了系统性能和资源利用率。
7. AI在波束成形中的应用
波束成形是指利用多个传感器或者发射器,对接收或者发射的信号进行加权或者滤波等处理,从而实现对特定方向的信号进行增强或者抑制,改变信号的空间分布特性。波束成形在雷达、声呐、通信、语音等领域有广泛的应用。
传统的波束成形方法主要有固定波束成形和自适应波束成形两类。固定波束成形是利用一些预先设计好的权值或者滤波器,对信号进行延时、相位调整或者加权求和等操作,从而增强某一固定方向的信号。自适应波束成形是利用一些基于优化准则或者统计模型的算法,根据信号的实时特征,动态调整权值或者滤波器,从而增强目标方向的信号或者抑制干扰方向的信号。这些方法虽然可以实现不错的效果,但是存在一定的局限性,例如使用固定波束成形需要事先知道目标方向和阵列结构参数,使用自适应波束成形需要大量的计算资源和训练数据。使用AI解决波束成形问题主要基于自适应波束成形的模型。AI在波束成形中的应用主要是利用深度学习等机器学习技术来实现波束成形参数的自动化、智能化和精细化优化,从而提高波束成形的灵活性。
AI在波束成形中的应用可以分为两方面。一方面,利用AI来辅助波束成形参数的设计,例如,Huang等人在研究中,使用循环神经网络(Recurrent Neural Network,RNN)来估计语音信号源和噪声信号源的空间协方差矩阵,输入为多通道语音信号,输出为语音协方差矩阵和噪声协方差矩阵;还使用卷积神经网络来估计雷达回波信号源和干扰信号源的空间协方差矩阵,输入为多通道雷达回波信号,输出为回波协方差矩阵和干扰协方差矩阵。另一方面,也可以利用AI来直接实现波束成形输出,例如,Sallomi 等人使用卷积神经网络直接实现平面阵列的波束成形输出,输入为多通道雷达回波信号,输出为单通道增强后的雷达回波信号。
8. AI在解决电磁干扰问题中的应用
电磁干扰是指电磁场对电子设备或系统产生的不良影响,如信号失真、噪声增加等。解决电磁干扰问题是电磁兼容的重要内容,对于保证电子设备或系统的正常工作和安全性具有重要意义。电磁干扰问题有诸多类型和场景,如 Torres 等人在可重构智能表面(Reconfigurable Intelligent Surface,RIS)辅助通信系统中进行的电磁干扰分析,Gulenko 等人在光声内窥镜图像处理中进行的电磁干扰噪声分析,以及Shi 等人对纳米复合材料的电磁干扰屏蔽性能的研究等。
在不同的电磁干扰场景中,传统方法通常以建立复杂的数学模型为基础。对于RIS 辅助通信系统中的电磁干扰,传统方法是使用数值模拟或频域分析等方法建立复杂的数学模型,并通过大量计算来评估 RIS 辅助通信系统中的电磁干扰效应。但这种方法往往需要很多先验知识和假设,难以考虑到实际情况中的各种不确定性和随机性。
在光声内窥镜图像处理的电磁干扰噪声场景中,传统方法是使用经典的滤波(如低通滤波、带阻滤波、小波滤波等)方法来去除光声内窥镜图像中的电磁干扰噪声。这些方法往往需要人为设定滤波参数,并且难以适应不同频率和强度的电磁干扰噪声。
在纳米复合材料的电磁干扰屏蔽性能场景中,传统方法是使用实验方法,如传输线法、波导法、空腔法等,测量纳米复合材料的电磁干扰屏蔽性能。这些方法往往需要消耗大量的时间和成本,并且难以覆盖不同的材料特征和工作频率。
针对不同的电磁干扰场景,可采用不同的AI模型。例如针对RIS辅助通信系统中的电磁干扰,Torres 等人使用了一种具有物理意义的电磁干扰模型,以评估 RIS 辅助通信系统的性能,并分析了 RIS 辅助通信系统的大小、位置、相移等因素对电磁干扰的影响。该模型使用了信噪比作为性能指标,并利用蒙特卡罗仿真来验证分析结果。针对光声内窥镜图像处理中的电磁干扰噪声,Gulenko 等人使用了一种基于深度学习的方法来去除电磁干扰噪声,他们选择了4种完全卷积神经网络结构,即 U-Net、SegNet、FCN-16s 和 FCN-8s,并发现优化后的 U-Net 结构在去除电磁干扰噪声方面优于其他结构。经典的滤波方法也被用来比较,以证明基于深度学习的方法的优越性。通过 U-Net 结构成功地产生了一个去噪后的三维血管图,可以描绘出分布在大鼠结肠壁上的网状毛细血管网络。此外,针对纳米复合材料中的电磁干扰屏蔽性能场景,Shi等人以碳纳米管和石墨烯的纳米复合材料为例,使用了一种基于ANN和遗传算法的方法来预测和优化纳米复合材料的电磁干扰屏蔽性能,并取得了较高的预测精度和拟合效率。
9. 未来展望
时至今日,电磁学与AI的结合已经取得了令人兴奋的成果。AI技术,特别是深度学习,在电磁学领域具有巨大的潜力和应用价值。电磁学与AI的结合为我们提供了解决复杂电磁问题的新方法和工具。然而,由于电磁学(尤其是传统电磁学方面)对实验的依赖性,目前AI在电磁学领域的应用与发展尚处于初级阶段。由于电磁学应用需要对模型进行设计和优化,为了提高模型设计的准确性和效率,可能需要利用先验知识、物理约束、跨域学习等技术,这增加了学科融合的难度。然而,电磁学仍然具有广阔的前景。例如,利用AI来优化电磁设计和仿真,可以实现快速且准确地预测电磁特性。又如,利用AI来辅助电磁检测和诊断,以实现对电磁信号或图像的高效处理,并适应场景、信噪比、分辨率等的变化。通过应用深度学习等AI技术,我们可以更快速、更准确地解决电磁散射问题,实现天线精确定位和跟踪,优化天线阵列等系统的设计模式,提升电磁兼容性。这些应用前景对于无线通信、智能交通、医疗保健、安全监控和智能环境等领域具有重要意义。随着AI技术的不断发展和创新,在电磁学尤其是计算电磁学领域,AI将发挥重要作用,并涌现出更多的应用场景和适配环境,为电磁学领域带来更多的机遇和挑战。