基于解耦与重构学习的SAR真假目标鉴别与目标识别方法
未命名
09-22
阅读:115
评论:0

基于解耦与重构学习的sar真假目标鉴别与目标识别方法
技术领域
1.本发明属于sar遥感图像处理技术领域,特别是一种基于解耦与重构学习的高分辨率sar真假目标鉴别与目标识别方法。
背景技术:
2.合成孔径雷达(sar,synthetic aperture radar)是一种主动式的微波成像雷达,通过脉冲压缩与合成孔径来获得高分辨率的sar图像,该雷达具有全天时全天候的工作,对植被具有一定穿透性的特性,在军民领域具有巨大的应用价值。随着sar系统技术的发展,成像模式逐渐丰富,一个sar平台可能具备多个接收天线,平台姿态变化、传感器通道间幅相不平衡等误差,可能带来多通道效应进而导致虚假目标的出现。这种虚假目标在图像中相较于真实目标在亮度上存在一定的衰减,但是几何形态和真实目标较为相似,导致真假目标区分困难。这种虚假目标的存在会对sar对地观测、目标检测识别造成巨大的挑战。因此,研究真假目标鉴别与目标识别对提高sar遥感的应用性能具有重要意义。
3.针对sar图像真假目标鉴别与目标识别的重要应用,现有的方法主要通过对真假目标进行特征提取然后构建多任务分类器,实现端到端的模型优化,实现真假目标鉴别和目标识别。这类方法忽视了虚假关联特征与目标类别关联特征的耦合作用,导致模型只能学习到虚假的数据关联性,导致特征表示能力不足,进而在实际应用中容易造成性能崩塌,难以满足高精度的目标识别应用需求。因此,现有的针对真假目标鉴别与目标识别的技术还有待改进与发展。
技术实现要素:
4.本发明主要针对真假目标鉴别与目标识别困难的问题,构建了一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,实现虚假关联特征与目标类别关联特征解耦合,进而实现高精度的真假目标鉴别与目标识别。
5.本发明是通过以下技术方案实现的:
6.基于解耦与重构学习的sar真假目标鉴别与目标识别方法,所述方法包括以下步骤:
7.步骤一:准备真假sar目标切片数据集,利用高分辨率的sar数据作为真实目标模板,使用仿真生成该模板对应的虚假目标图像,虚假目标标签为1,真实目标标签为0;
8.步骤二:数据集划分与预处理,根据准备好的真假sar图像数据集,按照一定的比例对每个类别的真假目标样本分别划分训练集与测试集,真假目标图像划分训练集与测试集的比例相同,将所有图像切片中心剪裁为相同大小,并使用统一的格式进行储存;
9.步骤三:构建卷积自编码器模型,该模型主体结构包含编码器和解码器结构,其中编码器结构用于目标的潜在特征提取,而解码器结构通过将潜在特征重建为原始图像,以保证提取的特征具有信息完整性;
10.步骤四:基于构建的卷积自编码器模型,构建解耦与重构学习模型,为了分别提取
虚假关联特征与类别关联特征,在特征独立性与信息完整性准则下,构建真假目标鉴别损失,目标识别损失,解耦损失与重构损失,使用训练数据联合优化这四类损失函数实现解耦与重构学习,进而训练得到最优的模型权重;
11.步骤五:利用训练好的模型权重实现真假目标鉴别与目标识别,丢弃解码器结构,利用编码器结构对输入sar图像目标进行深度特征提取,进而对提取到的深度特征进行特征解耦得到虚假关联特征和类别关联特征,实现真假目标鉴别与目标识别,最后使用目标识别率和虚假目标识别率来评价性能。
12.进一步地,所述步骤一具体为:
13.第一步:准备高分辨率sar图像目标切片数据集,作为真实目标模板,对每个目标切片进行类别标注;
14.第二步:通过在真实目标图像的距离-多普勒域添加1%的二次相位误差,生成该模板对应的虚假目标图像,将假目标标签设置为1,真实目标标签设置为0。
15.进一步地,所述步骤二具体为:
16.第一步:数据集划分与预处理,根据准备好的真假sar图像数据集,按照5%,10%和20%的样本数比例对每个类别的真假目标样本分别划分训练集,每类真假目标图像划分训练集的比例相同,剩余的样本作为测试集;
17.第二步:将所有图像切片中心剪裁、缩放为128
×
128大小,并使用统一的文件格式进行储存。
18.进一步地,所述步骤三具体为:
19.第一步:构建卷积自编码器的编码器:编码器fe由5个卷积层、1个残差模块和1个全连接层组成,经过5次降采样操作扩大感受野,每个卷积层由卷积操作,实例归一化层和relu激活函数组成;残差模块由两个卷积层和残差连接组成;编码器输入通道数为3,每个卷积层的输出通道数分别为64,128,256,256和256,残差模块输入与输出通道数均为256;为了减少计算量,使用全连接层对编码器输出的特征进行降维,降维后使用relu激活函数增强特征的非线性表示能力,为了避免过拟合,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全连接层的表达能力;
20.第二步:构建卷积自编码器的解码器:解码器结构与编码器结果恰恰相反,采用转置卷积(transposed convolution)代替卷积操作进行隐变量的解码,与编码器结构的组成类似,解码器结构由5个转置卷积层、1个残差模块和1个全连接层组成,全连接层的作用是对隐变量进行升维,以满足后续转置卷积层计算的需求,升维后使用relu激活函数增强隐变量的非线性表示能力,为了避免过拟合,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全连接层的表达能力;每个转置卷积层由转置卷积操作,实例归一化层和relu激活函数组成,残差模块与编码器结构的结构一致;对编码器的结构对应,解码器模块输入通道数为256,残差模块输入与输出通道数均为256,5个转置卷积层的输出通道数分别为256,256,128,64,3,以实现输入图像的重建。
21.进一步地,所述步骤四具体为:
22.第一步:利用卷积自编码器的编码器fe将输入图片x经过神经网络的非线性映射得到编码后的特征向量z0:
23.z0=fe(x)
ꢀꢀꢀ
(1)
24.第二步:在此基础上,使用多变量独立的高斯混合模型来表征虚假关联特征z
fake
和类别关联特征z
cls
,这两类特征的每个维度均由相互独立的隐变量组成,且每个隐变量服从正态分布,利用神经网络对均值向量μ和方差向量σ2进行估计:
[0025][0026]
其中,f
μ
和f
σ
分别表示预测均值向量μ和方差向量σ2的全连接层神经网络;进一步使用kl散度(kullback-leibler divergence)约束隐变量尽可能接近标准正态分布n(0,i),计算解耦损失:
[0027]
l
dec
=kl(n(μ,σ2)||n(0,i))
ꢀꢀꢀ
(3)
[0028]
其中,均值向量μ=[μ0,...,μ
d-1
],标准差向量σ=[σ0,...,σ
d-1
],由于各个变量之间相互独立,以一元正态分布的kl散度为例,可得:
[0029][0030]
对于多变量相互独立的正态分布而言,解耦损失可计算为:
[0031][0032]
其中,d为隐变量的个数,μi和σi分别为第i个服从正态分布n(μi,σ
i2
)的隐变量的均值与标准差,通过重参数化方法可以得到第i个隐变量zi:
[0033]
zi=μi+εi×
σiꢀꢀꢀ
(6)
[0034]
其中,εi为从标准正态分布的采样值,虚假关联特征z
fake
和类别关联特征z
cls
特征均包含d/2个隐变量zi,取第0到第d/2-1维独立的隐变量zi作为虚假关联特征z
fake
,取第d/2到第d-1维独立的隐变量zi作为虚假关联特征z
cls
:
[0035][0036]
第三步:为了保证虚假关联隐特征z
fake
与类别关联隐特征z
cls
的信息完整性,即包含了输入图片的所有信息,利用这两类特征能够重构出输入图片;具体地,将虚假关联隐特征z
fake
与类别关联隐特征z
cls
再经过解码器fd将潜在的特征表示映射回图像空间,得到重建的图片:
[0037]
x
′
=fd(concat(z
fake
,z
cls
))
ꢀꢀꢀ
(8)
[0038]
那么通过约束输入图片与重建图片之间的重构误差最小,则使得z
fake
和z
cls
包含
所有的信息;该实施拟采用二范数计算重构误差,计算重构损失为:
[0039]
l
rec
=(x-fd(concat(z
fake
,z
cls
)))2ꢀꢀꢀ
(9)
[0040]
第四步:为了确保类别关联特征包含目标识别的关键特征,虚假关联特征包含目标虚假相关的信息,使用目标识别损失与真假鉴别损失实现目标识别与真假目标鉴别有效信息的注入;目标识别损失使用交叉熵损失函数计算第i个类别预测概率与第i个类别标签的误差:
[0041][0042]
其中,c为类别数,真假鉴别损失使用二元交叉熵函数计算虚假目标预测概率p
fake
与真假目标标签y
fake
误差:
[0043]
l
fake
=-y
fake
logp
fake-(1-y
fake
)log(1-p
fake
)
ꢀꢀꢀꢀ
(11)
[0044]
第五步:为了通过获得具有可分辨性的类别关联的特征表示与虚假关联的特征表示,将以上4类损失进行联合优化,总体损失函数为
[0045]
l=l
cls
+l
fake
+λ1l
dec
+λ2l
rec
ꢀꢀꢀ
(12)
[0046]
其中,λ1和λ2分别为平衡训练过程中l
dec
和l
rec
损失的超参数,实验中分别设置为1和0.4;训练过程中使用动量的随机梯度下降算法(sgd算法)优化式(12)的损失函数,为了保证训练过程中的稳定,加快收敛速度,使用余弦退火对学习率进行调整:
[0047][0048]
其中,n为训练epoch数,η
t
、η
max
和η
min
分别为当前,最大与最小学习率,实验中,η
max
=0.001,η
min
=0.0002,训练过程中batchsize设置为4,总共训练50个epoch。
[0049]
进一步地,所述步骤五具体为:
[0050]
第一步:利用训练好的模型权重实现真假目标鉴别与目标识别,丢弃解码器结构,利用编码器结构对测试集中的sar图像目标进行深度特征提取,进而对提取到的深度特征进行特征解耦得到虚假关联特征和类别关联特征,实现真假目标鉴别与目标识别;真假目标鉴别置信度阈值设定为0.5,预测置信度大于0.5则判定为假目标,否则为真实目标;
[0051]
第二步:采用目标识别率和虚假目标识别率作为评价指标,评价指标定义如下:
[0052][0053]
其中,n
tp
为正确识别的样本数,n
gt
为样本总数,正确识别的虚假目标数,nc为虚假样本总数。
[0054]
本发明相对于现有技术的有益效果为:
[0055]
1、本发明通过解耦与重构学习的方式提取sar目标虚假关联特征与类别关联特征,使得面向真假目标鉴别与目标识别的各个维度特征之间互不相关,特征分布更为稀疏,对噪声扰动更为鲁棒,进而使得模型收敛过程更快,真假目标鉴别与目标识别的精度更高。
[0056]
2、本发明可应用于sar遥感图像处理领域,可以实现高精度的真假目标鉴别与目标识别。
附图说明
[0057]
图1为解耦与重构学习的总体方案框图;
[0058]
图2为解耦与重构学习模型示意图;
[0059]
图3为测试过程的解耦与重构学习模型图;
[0060]
图4为图2模型的卷积自编码器的编码器结构图;
[0061]
图5为卷积操作示意图;
[0062]
图6为转置卷积操作的示意图;
[0063]
图7为图2模型的卷积自编码器的解码器结构图;
[0064]
图8为基于余弦退火的学习率变化曲线图;
[0065]
图9为10类目标的光学图与真假目标sar图像示意图;
[0066]
图10为本发明方法损失收敛曲线图;
[0067]
图11为对比方法的损失收敛曲线图;
[0068]
图12为经过解耦合后的特征分布情况图。
具体实施方式
[0069]
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0070]
本发明主要针对真假目标鉴别与目标识别困难的问题,构建了一种基于解耦与重构学习的sar真假目标识别方法,实现虚假关联特征与目标类别关联特征解耦合,进而促进真假目标鉴别与目标识别应用。本发明首先通过仿真的方式得到虚假目标,结合真实目标数据构建真假目标数据集,进而构建卷积自编码器作为真假目标特征提取与重构学习的主干网络,并基于主干网络构建解耦与重构学习模型,经过模型训练,得到解耦合后的虚假关联特征与类别关联特征,保证解耦合特征的稀疏性与完整性,提高特征对噪声的鲁棒性,进而实现高精度的真假目标鉴别与目标识别。
[0071]
实施例1:
[0072]
结合附图1-图8,本发明提出一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,包括以下步骤:
[0073]
步骤一:准备真假sar目标切片数据集,该实施例以mstar目标数据集为真实目标模板数据,分辨率为0.3m
×
0.3m,采用17度侧视角下的10类目标,包含的目标有2s1自行榴弹炮、bmp2步兵战车、brdm-2装甲侦察车、btr-70装甲运输车、btr-60装甲运输车、d7推土机、t62坦克、t72坦克、zil131货运卡车、zsu-23/4自行高炮。利用高分辨率的sar数据作为真实目标模板,使用仿真算法添加1%的二次相位误差生成该模板对应的虚假目标图像,虚假目标标签为1,真实目标标签为0。训练集中的各个类别的真实图像和虚假图像如图9所示。
[0074]
步骤二:数据集划分与预处理,根据准备好的真假sar图像数据集,按照5%,10%和20%的样本数比例划分训练集,其余为测试集,将所有图像切片中心剪裁为128
×
128,并使用统一的文件格式进行储存;
[0075]
步骤三:采用卷积自编码器的主干结构对类别关联特征与虚假关联特征进行解耦与重构学习,模型结构如图2所示。构建的卷积自编码器模型是一种无监督神经网络,该模型主体结构包含编码器和解码器结构,通过优化这种生成模型,能够学习到一个损失信息尽量少的隐表征,使得原始输入可以通过隐表征进行重建。其中编码器结构用于目标的潜在特征提取,而解码器结构通过将潜在特征重建为原始图像,以保证提取的潜在变量具有信息完整性。卷积自编码器的结构图如图2所示,卷积自编码器的编码器与解码器使用卷积神经网络堆叠而成。其中编码器fe由5个卷积层、1个残差模块和1个全连接层组成,经过5次降采样操作扩大感受野,具体结构如图4所示,每个卷积层由卷积操作,实例归一化层和relu激活函数组成;残差模块由两个卷积层和残差连接组成。编码器输入通道数为3,每个卷积层的输出通道数分别为64,128,256,256和256,残差模块输入与输出通道数均为256。为了减少计算量,增强计算效率,使用全连接层对编码器输出的高维特征进行降维,降维后使用relu激活函数增强特征的非线性表示能力,为了减少过拟合,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全连接层的表达能力。解码器结构与编码器结果恰恰相反,采用转置卷积(transposed convolution)代替卷积操作进行隐变量的解码,正向卷积与转置卷积的示意图分别如图5和图6所示。和编码器结构的组成类似,解码器结构由5个转置卷积层、1个残差模块和1个全连接层组成,详细结构如图7所示,全连接层的作用是对特征进行升维,以满足后续转置卷积层计算的需求,恢复在编码器全连接层降维的特征维度以满足重构学习需求,升维后使用relu激活函数增强特征的非线性表示能力,为了减少过拟合,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全连接层的表达能力。每个转置卷积层由转置卷积操作,实例归一化层和relu激活函数组成,残差模块与编码器结构的结构一致。对编码器的结构对应,解码器模块输入通道数为256,残差模块输入与输出通道数均为256,5个转置卷积层的输出通道数分别为256,256,128,64,3。编码器和解码器结构组成了解耦与重构学习的主干网络,用于提取目标的特征,希望通过卷积自编码器的重构学习过程学习到稀疏完备的隐变量,用于表征目标的特性。
[0076]
步骤四:基于构建的卷积自编码器模型,为了分别提取虚假关联特征与类别关联特征,在特征独立性与信息完整性准则下,构建真假目标鉴别损失,目标识别损失,解耦损失与重构损失,使用训练数据联合优化这四类损失函数实现解耦与重构学习,进而训练得到最优的模型权重,模型结构如图2所示。利用卷积自编码器的编码器fe将输入图片x经过神经网络的非线性映射得到编码后的特征向量z0:
[0077]
z0=fe(x)
ꢀꢀꢀꢀ
(1)
[0078]
在此基础上,为了得到解耦合的各个因子的特征向量,进一步在解耦损失的约束下,利用神经网络对特征向量z0进行解耦合,得到相互独立的隐变量,并利用解耦合的隐变量进行真假目标鉴别与目标识别。具体地,假设虚假关联特征z
fake
和类别关联特征z
cls
各含有d/2个相互独立的隐变量,每个隐变量为相互独立的随机变量,且每个随机变量服从正态分布n(μ,σ2)。那么,每一个随机变量的概率分布则可以用于表示与目标某种特性相关的潜
在因子,进而虚假关联特征z
fake
和类别关联特征z
cls
就可以用多变量独立的高斯混合模型来进行表征。为了估计每个变量的分布情况,利用神经网络对均值向量μ和方差向量σ2进行估计,于是
[0079][0080]
其中,f
μ
和f
σ
分别表示预测均值和方差的全连接层神经网络。当随机变量分布的均值与方差确定后,则可以确定该随机变量的分布情况,也就得到了虚假关联隐特征z
fake
与类别关联隐特征z
cls
。更进一步,为了便于优化,约束解耦得到的隐变量尽可能接近于标准正态分布,进而转为约束隐变量的概率分布与标准正态分布n(0,i)的kl散度(kullback-leibler divergence)尽可能小,那么可用kl散度计算解耦损失:
[0081]
l
dec
=kl(n(μ,σ2)||n(0,i)),
ꢀꢀꢀꢀ
(3)
[0082]
其中均值向量μ=[μ0,...,μ
d-1
],标准差向量σ=[σ0,...,σ
d-1
],由于各个变量之间相互独立,以一元正态分布的kl散度为例,可得
[0083][0084]
因此对于多变量相互独立的正态分布而言,解耦损失可得:
[0085][0086]
其中,d为隐变量的个数,μi和σi分别为第i个服从正态分布n(μi,σ
i2
)的隐变量的均值与标准差,通过重参数化方法可以得到第i个隐变量zi:
[0087]
zi=μi+εi×
σiꢀꢀꢀ
(6)
[0088]
其中,εi为从标准正态分布的采样值,虚假关联特征z
fake
和类别关联特征z
cls
特征均包含d/2个隐变量zi,取第0到第d/2-1维独立的隐变量zi作为虚假关联特征z
fake
,取第d/2到第d-1维独立的隐变量zi作为虚假关联特征z
cls
:
[0089][0090]
为了保证虚假关联隐特征z
fake
与类别关联隐特征z
cls
的信息完整性,即包含了输入图片的所有信息,希望利用这两类特征能够重构出输入图片,具体地,将虚假关联隐特征z
fake
与类别关联隐特征z
cls
再经过解码器fd将潜在的特征表示映射回图像空间,得到重建的图片:
[0091]
x
′
=fd(concat(z
fake
,z
cls
))。
ꢀꢀꢀ
(8)
[0092]
那么通过约束输入图片与重建图片之间的重构误差最小,则可以使得z
fake
和z
cls
包含所有的信息。该实施例采用二范数计算重构误差,计算重构损失为:
[0093]
l
rec
=(x-fd(concat(z
fake
,z
cls
)))2。
ꢀꢀꢀ
(9)
[0094]
更进一步,为了保证解耦得到的特征的有效性,确保类别关联特征包含目标识别的关键特征,虚假关联特征包含虚假目标相关的信息,使用目标识别损失与真假鉴别损失实现目标识别与真假目标鉴别有效信息的注入。目标识别模块fc
cls
与真假目标鉴别模块fc
fake
分别由两个全连接层组成。基于类别关联特征z
cls
的第i个目标类别预测概率为基于虚假关联特征z
fake
的虚假目标预测概率可以表示为p
fake
=sigmoid(fc
fake
(z
fake
)),其中,激活函数i=1,...,c,激活函数sigmoid(x)=1/(1+e-x
),其中,c为类别个数。
[0095]
经过激活函数后,得到取值范围在[0,1]之间的预测概率。在训练过程中,针对多类别目标识别问题的优化过程,目标识别损失使用交叉熵损失函数计算第i个类别预测概率与第i个类别标签的误差,目标识别损失可计算为:
[0096][0097]
针对二元分类的真假目标判别问题,真假目标鉴别损失使用二元交叉熵函数计算虚假目标预测概率p
fake
与真假目标标签y
fake
误差:
[0098]
l
fake
=-y
fake
logp
fake-(1-y
fake
)log(1-p
fake
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(11)
[0099]
其中,p
fake
为预测为虚假目标的概率,y
fake
为真假目标的标签。为了获得具有可分辨性的类别关联的特征表示与虚假关联的特征表示,将分类损失与变分卷积自编码器损失进行联合优化,总体损失函数为
[0100]
l=l
cls
+l
fake
+λ1l
dec
+λ2l
rec
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(12)
[0101]
其中,λ1和λ2分别为用于平衡l
dec
和l
rec
损失的超参数,分别设置为1和0.4。训练过程中使用带动量的随机梯度下降算法(sgd算法)优化式(12)的损失函数,动量设置为0.9,权值衰减设置为5
×
10-4
。在动量的约束下,使得模型收敛速度加快。为了保证训练过程中的稳定,加快收敛速度,使用余弦退火对学习率进行调整:
[0102][0103]
其中,n为训练epoch数,η
t
、η
max
和η
min
分别为当前,最大与最小学习率,实验中,η
max
=0.001,η
min
=0.0002,学习率变化曲线如图8所示。训练过程中batchsize设置为4,总共训练50个epoch。
[0104]
步骤五:利用训练好的模型权重实现真假目标鉴别与目标识别,丢弃解码器结构,模型结构如图3所示,利用编码器结构对测试集中的sar图像目标进行深度特征提取,进而对提取到的深度特征进行特征解耦得到虚假关联特征和类别关联特征,实现真假目标鉴别与目标识别。真假目标鉴别置信度阈值设定为0.5,预测置信度大于0.5则判定为虚假目标,否则为真实目标。该实施例采用目标识别率和虚假目标识别率作为评价指标。评价指标定
义如下:
[0105][0106]
其中,n
tp
为正确识别的样本数,n
gt
为样本总数,正确识别的虚假目标数,nc为虚假样本总数。
[0107]
本发明的真假目标鉴别与目标识别性能可以通过以下的实验进行进一步说明。
[0108]
本实验使用mstar数据作为模板以1%相位误差进行虚假样本仿真,得到真假目标数据集,数据集示例如图9所示,每类样本数如表1所示。本实验分别采用5%训练样本,10%训练样本和20%训练样本进行了性能测试,对比方法为不采用解耦与重构学习手段,直接采用编码器进行特征提取,然后使用提取的特征分别采用与提出方法相同的分类器实现真假目标鉴别与目标识别。为了保证实验的公平性,实验过程中两类方法输入数据与训练手段完全相同。实验结果如图10,图11,图12和表2所示。
[0109]
表1实验样本类别与数量
[0110]
类别2s1bmp2brdm-2btr-70btr-60d7t62t72zil131zsu-23/4真实目标299196298196256299299196299299虚假目标299196298196256299299196299299
[0111]
对比图10可以看出,本发明提出方法能够在20epoch训练后快速收敛,相较于对比方法收敛速度更快。训练过程损失变化更为平滑,说明本发明提出的基于特征解耦与重构学习的目标识别方法训练过程更为稳定。
[0112]
为了定量化分析解耦后的类别相关特征与虚假相关特征的特征分布,使用t-sne对解耦后的特征进行可视化,如图12所示。从图中可以看出,解耦后的两类特征相互独立,验证了特征解耦的有效性。后续将使用类别相关特征进行目标识别,使用虚假相关特征进行真假目标的鉴别,实验结果如表2所示。从表中可以看出,对比方法在20%训练样本条件下目标识别性能仅能突破79%,而本发明使用的方法在10%训练样本条件下就能达到89%的识别性能,甚至在20%训练样本条件下目标识别性能突破了90%。说明不管是在少量样本条件,还是在充足训练样本条件下,本发明在保证较高的真假目标鉴别精度的前提下,目标识别精度具有较大优势。
[0113]
表2在1%二次相位仿真误差条件下不同样本比例的识别结果
[0114]
技术特征:
1.基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述方法包括以下步骤:步骤一:准备真假sar目标切片数据集,利用高分辨率的sar数据作为真实目标模板,使用仿真生成该模板对应的虚假目标图像,虚假目标标签为1,真实目标标签为0;步骤二:数据集划分与预处理,根据准备好的真假sar图像数据集,按照一定的比例对每个类别的真假目标样本分别划分训练集与测试集,真假目标图像划分训练集与测试集的比例相同,将所有图像切片中心剪裁为相同大小,并使用统一的格式进行储存;步骤三:构建卷积自编码器模型,该模型主体结构包含编码器和解码器结构,其中编码器结构用于目标的潜在特征提取,而解码器结构通过将潜在特征重建为原始图像,以保证提取的特征具有信息完整性;步骤四:基于构建的卷积自编码器模型,构建解耦与重构学习模型,为了分别提取虚假关联特征与类别关联特征,在特征独立性与信息完整性准则下,构建真假目标鉴别损失,目标识别损失,解耦损失与重构损失,使用训练数据联合优化这四类损失函数实现解耦与重构学习,进而训练得到最优的模型权重;步骤五:利用训练好的模型权重实现真假目标鉴别与目标识别,丢弃解码器结构,利用编码器结构对输入sar图像目标进行深度特征提取,进而对提取到的深度特征进行特征解耦得到虚假关联特征和类别关联特征,实现真假目标鉴别与目标识别,最后使用目标识别率和虚假目标识别率来评价性能。2.根据权利要求1所述的一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述步骤一具体为:第一步:准备高分辨率sar图像目标切片数据集,作为真实目标模板,对每个目标切片进行类别标注;第二步:通过在真实目标图像的距离-多普勒域添加1%的二次相位误差,生成该模板对应的虚假目标图像,将假目标标签设置为1,真实目标标签设置为0。3.根据权利要求1所述的一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述步骤二具体为:第一步:数据集划分与预处理,根据准备好的真假sar图像数据集,按照5%,10%和20%的样本数比例对每个类别的真假目标样本分别划分训练集,每类真假目标图像划分训练集的比例相同,剩余的样本作为测试集;第二步:将所有图像切片中心剪裁、缩放为128
×
128大小,并使用统一的文件格式进行储存。4.根据权利要求1所述的一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述步骤三具体为:第一步:构建卷积自编码器的编码器:编码器f
e
由5个卷积层、1个残差模块和1个全连接层组成,经过5次降采样操作扩大感受野,每个卷积层由卷积操作,实例归一化层和relu激活函数组成;残差模块由两个卷积层和残差连接组成;编码器输入通道数为3,每个卷积层的输出通道数分别为64,128,256,256和256,残差模块输入与输出通道数均为256;使用全连接层对编码器输出的特征进行降维,降维后使用relu激活函数增强特征的非线性表示能力,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全
连接层的表达能力;第二步:构建卷积自编码器的解码器:解码器结构与编码器结果恰恰相反,采用转置卷积代替卷积操作进行隐变量的解码,与编码器结构的组成类似,解码器结构由5个转置卷积层、1个残差模块和1个全连接层组成,全连接层的作用是对隐变量进行升维,以满足后续转置卷积层计算的需求,升维后使用relu激活函数增强隐变量的非线性表示能力,全连接层后设置dropout率为0.5,训练过程中随机丢弃50%的全连接层神经元,增强全连接层的表达能力;每个转置卷积层由转置卷积操作,实例归一化层和relu激活函数组成,残差模块与编码器结构的结构一致;对编码器的结构对应,解码器模块输入通道数为256,残差模块输入与输出通道数均为256,5个转置卷积层的输出通道数分别为256,256,128,64,3,以实现输入图像的重建。5.根据权利要求1所述的一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述步骤四具体为:第一步:利用卷积自编码器的编码器f
e
将输入图片x经过神经网络的非线性映射得到编码后的特征向量z0:z0=f
e
(x) (1)第二步:使用多变量独立的高斯混合模型来表征虚假关联特征z
fake
和类别关联特征z
cls
,这两类特征的每个维度均由相互独立的隐变量组成,且每个隐变量服从正态分布,利用神经网络对均值向量μ和方差向量σ2进行估计:其中,f
μ
和f
σ
分别表示预测均值向量μ和方差向量σ2的全连接层神经网络;使用kl散度(kullback-leibler divergence)约束隐变量尽可能接近标准正态分布n(0,i),计算解耦损失:l
dec
=kl(n(μ,σ2)||n(0,i)) (3)其中,均值向量μ=[μ0,...,μ
d-1
],标准差向量σ=[σ0,...,σ
d-1
],由于各个变量之间相互独立,以一元正态分布的kl散度为例,可得:对于多变量相互独立的正态分布而言,解耦损失可计算为:
其中,d为隐变量的个数,μ
i
和σ
i
分别为第i个服从正态分布n(μ
i
,σ
i2
)的隐变量的均值与标准差,通过重参数化方法可以得到第i个隐变量z
i
:z
i
=μ
i
+ε
i
×
σ
i (6)其中,ε
i
为从标准正态分布的采样值,虚假关联特征z
fake
和类别关联特征z
cls
特征均包含d/2个隐变量z
i
,取第0到第d/2-1维独立的隐变量z
i
作为虚假关联特征z
fake
,取第d/2到第d-1维独立的隐变量z
i
作为虚假关联特征z
cls
:第三步:为了保证虚假关联隐特征z
fake
与类别关联隐特征z
cls
的信息完整性,即包含了输入图片的所有信息,利用这两类特征能够重构出输入图片;具体地,将虚假关联隐特征z
fake
与类别关联隐特征z
cls
再经过解码器f
d
将潜在的特征表示映射回图像空间,得到重建的图片:x
′
=f
d
(concat(z
fake
,z
cls
)) (8)那么通过约束输入图片与重建图片之间的重构误差最小,则使得z
fake
和z
cls
包含所有的信息;该实施拟采用二范数计算重构误差,计算重构损失为:l
rec
=(x-f
d
(concat(z
fake
,z
cls
)))
2 (9)第四步:为了确保类别关联特征包含目标识别的关键特征,虚假关联特征包含目标虚假相关的信息,使用目标识别损失与真假鉴别损失实现目标识别与真假目标鉴别有效信息的注入;目标识别损失使用交叉熵损失函数计算第i个类别预测概率与第i个类别标签的误差:其中,c为类别数,真假鉴别损失使用二元交叉熵函数计算虚假目标预测概率p
fake
与真假目标标签y
fake
误差:l
fake
=-y
fake
logp
fake-(1-y
fake
)log(1-p
fake
) (11)第五步:为了通过获得具有可分辨性的类别关联的特征表示与虚假关联的特征表示,将以上4类损失进行联合优化,总体损失函数为l=l
cls
+l
fake
+λ1l
dec
+λ2l
rec (12)其中,λ1和λ2分别为平衡训练过程中l
dec
和l
rec
损失的超参数,训练过程中使用动量的随机梯度下降算法优化式(12)的损失函数,为了保证训练过程中的稳定,加快收敛速度,使用余弦退火对学习率进行调整:其中,n为训练epoch数,η
t
、η
max
和η
min
分别为当前,最大与最小学习率。6.根据权利要求1所述的一种基于解耦与重构学习的sar真假目标鉴别与目标识别方法,其特征在于:所述步骤五具体为:第一步:利用训练好的模型权重实现真假目标鉴别与目标识别,丢弃解码器结构,利用编码器结构对测试集中的sar图像目标进行深度特征提取,进而对提取到的深度特征进行
特征解耦得到虚假关联特征和类别关联特征,实现真假目标鉴别与目标识别;真假目标鉴别置信度阈值设定为0.5,预测置信度大于0.5则判定为假目标,否则为真实目标;第二步:采用目标识别率和虚假目标识别率作为评价指标,评价指标定义如下:其中,n
tp
为正确识别的样本数,n
gt
为样本总数,正确识别的虚假目标数,n
c
为虚假样本总数。
技术总结
基于解耦与重构学习的SAR真假目标鉴别与目标识别方法,属于遥感图像处理技术领域。本发明主要针对真假目标鉴别与目标识别困难的问题,构建了一种基于解耦与重构学习的SAR真假目标识别方法,实现虚假关联特征与目标类别关联特征解耦合,进而促进真假目标鉴别与目标识别应用。本发明首先通过仿真的方式得到虚假目标,结合真实目标数据构建真假目标数据集,进而构建卷积自编码器作为真假目标特征提取与重构学习的主干网络,并基于主干网络构建解耦与重构学习模型,经过模型训练,得到解耦合后的虚假关联特征与类别关联特征,保证解耦合特征的稀疏性与完整性,提高特征对噪声的鲁棒性,进而实现高精度的真假目标鉴别与目标识别。别。别。
技术研发人员:邹斌 秦江 张腊梅
受保护的技术使用者:哈尔滨工业大学
技术研发日:2023.05.10
技术公布日:2023/9/20
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/