深度复极限学习机在雷达HRRP目标识别中的应用*

2021-04-25 03:06:04赵飞翔马子龙
电讯技术 2021年3期
关键词:学习机流形正则

赵飞翔,杜 军,刘 恒,马子龙

(中国华阴兵器试验中心,陕西 华阴 714200)

0 引 言

雷达目标识别在国防和经济建设中发挥着重要作用[1]。常用的识别方法可分为以下两种类型:一种是基于合成孔径雷达(Synthetic Aperture Radar,SAR)图像和逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)图像的目标分类识别;另一种是基于高分辨一维距离像(High-resolution Range Profile,HRRP)的目标分类识别。比起SAR/ISAR图像,HRRP因其获取和处理相对容易,在雷达目标识别中得到了广泛关注[2]。

HRRP[3]可以看作是利用宽带雷达信号获得的目标散射点子回波沿雷达视线方向上投影的矢量和,它包含有目标的重要信息,例如目标的大小、散射中心的分布等。当使用HRRP进行目标识别时,传统方法仅使用其幅度信息,而丢失其相位信息[4],这样势必造成目标信息不完备,使得算法识别效果受限。为解决此问题,文献[5]提出一种基于主成分分析(Principal Component Analysis,PCA)的投影重构的分类方法,能有效克服初相敏感性的问题;文献[6]利用复值独立分量分析方法提取复HRRP特征,然后结合隐马尔科夫模型(Hidden Markov Model,HMM)方法进行识别;文献[7]为充分利用相位信息,提出一种多任务复数因子分析的算法,能较好地处理小样本条件下的识别问题。这些方法虽然都能较好地处理复数HRRP,但其浅层结构很难挖掘目标深层结构信息,且算法依赖于研究者的经验和专业知识,如果没有相关领域的充足先验知识,所提取的特征往往是不完备的。因此,自动提取目标深层特征显得尤为重要。

深度学习[8-9]算法通过构建一个包含多个隐藏层的神经网络,映射输入数据到各个隐藏层,从而获得输入数据的各层特征表示。因为其强大的特征表示能力,深度学习近几年在机器学习、模式识别等领域得到了广泛关注和成功应用[10]。深度学习模型的训练过程包括无监督的预训练和监督的微调,其中预训练过程采用的是逐层贪婪训练算法,微调阶段采用的是梯度优化方法。目前得到广泛应用的深度学习模型主要有栈式自动编码器(Stacked Autoencoder,SAE)、卷积神经网络(Convolutional Neural Networks,CNN)和深度信念网络(Deep Belief Network,DBN)。这些模型虽然在目标跟踪[11]、流量预测[12]和字符识别[13]中有好的效果,但模型的微调过程需耗费大量时间,降低了网络的训练速度。

为解决此问题,Huang等人[14-15]提出了极限学习机(Extreme Learning Machine,ELM)算法。文献[14]证明了ELM输入层连接权值和隐藏层的偏置可随机赋值,只需通过计算输出层权值的最小二乘范数解即可完成网络的训练。虽然隐藏层参数不需要调整,但ELM依旧保持了良好的通用逼近能力,并且和基于梯度的方法相比,ELM具有学习速率快、泛化能力强的优点,但网络的浅层结构制约了其提取数据深层信息的能力。文献[16-18]提出了深度极限学习机的算法模型,但这些模型只应用在实数域。

为充分利用HRRP的相位信息,本文将深度极限学习机从实数域扩展到复数域,提出一种深度复极限学习机(Deep Complex Extreme Learning Machine,DCELM)。同时,为了在模型训练过程中有效保持数据间的邻域信息,将流形正则化(Manifold Regularization,MR)框架应用到DCELM的监督和无监督训练过程中,提出一种基于流形正则深度复极限学习机(MR-DCELM)的雷达HRRP目标识别算法。

1 理论背景

1.1 复极限学习机

复极限学习机可以对复数输入数据进行处理,其网络结构如图1所示。它包括输入层、隐藏层和输出层,其中输入层连接权值和隐藏层的偏置可随机赋值,只需通过计算输出层权值的最小二乘范数解即可完成网络的训练。

图1 复极限学习机网络结构

给定一个复数训练样本(xi,ti),i=1,2,…,N,其中xi∈Cn,ti∈Cm,若模型隐层节点数为L,复激活函数为gc(x),则网络的输出可表示为

(1)

式中:wk∈Cn为输入层的节点与第k个隐藏层的节点连接的复数权值向量,βk=[βk1,βk2,…,βkm]T∈Cm为第k个隐藏层的节点与输出节点连接的复数输出权值向量,bk∈C为第k个隐藏层节点的复数偏置。

式(1)可简化为

Hβ=O。

(2)

如果具有L个隐藏层节点的复极限学习机能够无限逼近给定的N个训练样本,式(2)可转化为

Hβ=T,

(3)

(4)

(5)

因此,通过计算式(3)的最小二乘范数解,可完成CELM的训练:

(6)

式中:H+为H的Moore-Penrose广义逆。

式(6)可化为

(7)

式中:I为单位阵,C为岭参数。

1.2 复极限学习机-自动编码器

复极限学习机-自动编码器(Complex Extreme Learning Machine-Autoencoder,CELM-AE)借鉴自动编码器(Autoencoder,AE)的思想[10],通过对输入编码再解码,从而重构输入数据。对于有N个样本的数据集xi(i=1,2,…,N),xi∈C,CELM-AE的隐藏层输出和网络输出可分别用公式(8)和公式(9)表示为

h=gc(wx+b),wTw=I,bTb=I;

(8)

(9)

则根据1.1节介绍可通过下式计算模型的输出权重:

(10)

1.3 流形正则化框架

流形正则化是一种通过构建无向加权图和拉普拉斯算子的学习方法。该方法是建立在如下假设之上:如果点x1和x2在相同的局部邻域内,也即它们相距很近,则它们的条件概率P(y|x1)和P(y|x2)也应该很相近。流形正则化可通过最小化下式代价函数进行表达;

(11)

式中:wij表示样本xi和xj的相似性,可通过下式求解:

(12)

式中:KNN(xj)表示样本点xj的最近邻点集。

由于条件概率不容易求得,式(11)可化为

(13)

根据图谱理论,式(13)可用下式表达:

(14)

式中:tr(·)为矩阵的迹;L为图拉普拉斯矩阵,且L=D-W,D是对角阵,其元素为Dii=∑jwij。

2 流形正则深度复极限学习机

2.1 深度复极限学习机

图2 DCELM训练过程

2.2 流形正则深度复极限学习机

本小节将提出流形正则深度复极限学习机算法(MR-DCELM),并给出其主要的学习步骤。MR-DCELM能够捕获数据的深层潜在信息,该模型是一个堆叠的多层神经网络,其基本学习单元为MCELM-AE。在执行分类任务时,其训练过程也分为两个阶段:无监督特征学习和有监督目标分类。

(1)无监督学习阶段

给定一个复数训练样本(xi,ti),i=1,2,…,N,MCELM-AE的目标函数为

(15)

式中:k为隐层数,βτ为第τ个MCELM-AE模型的输出权重,Lτ为在第τ个MCELM-AE模型特征空间上的图拉普拉斯,λ为正则化参数。将约束条件代入目标函数中,式(15)可写为

(16)

式中:Hτ为第τ个MCELM-AE模型的隐层输出。

然后将目标函数对β求导可得

(17)

令∇=0,可以得到式(15)的解为

(18)

式中:ILτ为维数是Lτ的单位阵,Lτ是第τ个MCELM-AE模型隐藏层的节点个数。

(2)监督学习阶段

MCELM的目标函数为

(19)

式中:βk+1为第k个隐藏层和模型输出层的连接权值;Hk为第k个隐藏层的输出,Hk=gc((βk)THk-1);η为正则化参数。

类比无监督学习过程求取权值的方法,模型输出权值可表示为

(20)

3 实验结果与讨论

本节使用暗室测量的5类飞机目标数据验证所提方法的可行性。其中目标采用的是缩比模型,雷达工作频段为34.7~35.7 GHz,信号形式为阶梯变频,频率间隔2 MHz;雷达方位角范围为0°~30°,步长1°。则每个目标的样本个数为31,维数为500。每个飞机目标的HRRP序列在图3中给出。将每个目标样本集中奇数位样本抽出作为训练样本,将样本集中其他样本作为实验样本。考虑到隐藏层节点个数、岭参数设置和流形正则化参数决定着模型的识别性能,将对这些参数进行研究。实验运行软件环境为Matlab R2013a,硬件环境为Intel(R) Pentium(R)、3.30 GHz CPU、4 GB内存的PC机。

图3 每一个飞机目标HRRP序列

3.1 隐藏层节点个数对模型识别效果的影响

已知HRRP样本为500维,因此实验中将模型输入层的节点个数设为500。虽然增加网络隐层数可以获得目标更深层次的抽象信息,但层数越多,网络训练难度越大,需要训练的参数也越多。因此,不能一味地增加模型的深度,应依据实验任务及样本数据量确定合理的隐层数。通过分析,将模型隐层数量设置为2即可满足任务需求。图4显示了第一及第二隐层不同的节点个数对识别效果的影响,由图可知,当网络第一个隐层节点个数为300,网络第二个隐层节点个数为1 150时,模型取得最优的识别效果。

图4 模型不同隐藏层节点个数对识别效果的影响

3.2 岭参数对模型识别效果的影响

在3.1节中确定了网络隐层数和隐层节点数,接下来需要分析岭参数C=[C1,C2,C3]对网络性能的影响。在{10-8,10-7,…,107,108}范围内进行网格搜索,并遵循以下规则:先保持C2和C3不变,从{10-8,108}范围内选取能够获得最优识别效果的C1的值,然后以此方法确定C2和C3的取值。C=[C1,C2,C3]对识别效果的影响在图5中给出。由图可知,最优的C=[C1,C2,C3]取值为C1=10-3,C2=104,C3=107。

图5 岭参数C=[C1,C2,C3]对模型识别效果的影响

3.3 流形正则化参数对模型识别效果的影响

本节讨论流行正则化参数λ和η对所提算法识别效果的影响。由图6可知,参数λ和η对算法模型影响较大。如果λ和η的值太大,将使得模型中其他的参数值变得很小,从而会造成模型欠拟合;如果λ和η的值太小,则流形正则化对网络训练的影响很小,不能很好地保持样本间的邻域信息。因此,设置合适的参数值显得尤为重要。通过分析图6可知,当λ=10-3、η=10-1时,所提方法可取得最好的识别效果。

图6 流形正则参数λ和η对模型识别效果的影响

3.4 所提算法模型和其他模型识别效果比较

为验证所提算法模型的可行性,将所提算法模型的识别效果和常用的深度学习模型栈式自动编码器(SAE)、深度信念网络(DBN)以及深度极限学习机(DELM)的识别效果相比较。已知HRRP样本为500维,因此实验中,将四种模型可见层的节点个数设为500,隐藏层的数量为2,隐藏层节点个数分别为300和1 150,训练的迭代次数取30。四种算法模型均运行10次,其识别结果的平均值在表1中给出。

表1 所提算法和其他算法识别准确率比较

由表1可知,所提算法模型的识别效果相比DELM高出5.46%,相比SAE高出2.55%,相比DBN高出3.48%,表明所提算法利用复HRRP进行识别时,利用了目标更全面的数据信息,获得了更完备的特征表达,从而使得识别效果更好。同时也注意到,所提算法模型的训练速度是SAE训练速度的7倍,是DBN训练速度的8倍,表明所提算法相比常用深度学习模型具有更快的训练速度。

4 结束语

本文将深度极限学习机从实数域扩展到复数域,提出深度复极限学习机,并将其应用于雷达目标识别中,用以解决传统识别方法在利用HRRP时只利用其幅度信息而丢失相位信息,使得目标信息不完备,制约其识别效果的问题。同时将流形正则化引入到模型中,使其在训练过程中有效保持数据间的邻域信息。在暗室测量数据上的实验结果验证了所提算法模型的可行性。但需要说明的是,该实验过程中并未考虑噪声的影响,算法模型对噪声的鲁棒性将是下一步算法改进完善的重点。

猜你喜欢
学习机流形正则
紧流形上的SchrÖdinger算子的谱间隙估计
迷向表示分为6个不可约直和的旗流形上不变爱因斯坦度量
Nearly Kaehler流形S3×S3上的切触拉格朗日子流形
剩余有限Minimax可解群的4阶正则自同构
极限学习机综述
测控技术(2018年10期)2018-11-25 09:35:26
类似于VNL环的环
数学杂志(2018年5期)2018-09-19 08:13:48
基于极限学习机参数迁移的域适应算法
自动化学报(2018年2期)2018-04-12 05:46:21
分层极限学习机在滚动轴承故障诊断中的应用
基于多故障流形的旋转机械故障诊断
有限秩的可解群的正则自同构