目标检测方法、存储介质及计算机设备与流程
未命名
09-11
阅读:91
评论:0

1.本技术涉及目标检测技术领域,特别是涉及一种目标检测方法、存储介质及计算机设备。
背景技术:
2.目前,人工智能技术已经广泛应用于各行业中,尤其在智能监测领域中更是发挥了重要的作用。火灾事故是近年来频繁发生且极易造成严重的经济损失的安全事故之一。往往很多大面积火灾是由于火灾初期时火灾发生地没有便利的灭火设施导致的,因此在可能发生火灾的场所(尤其是存在动火施工作业时)配置灭火设施是十分重要的。但是由于施工人员安全意识不高或者工作疏忽而未放置灭火器的情况时有发生,这很有可能会导致火灾的发生。因此,通过在监控设备中部署检测算法对灭火器配置进行实时监测是必要的。
3.随着深度学习技术的发展,基于深度学习的物体检测方法取得了卓著的成绩,其中以ssd(single shot multi-box detector)系列和yolo(you only look once)系列为代表,还包括fcos,centernet等。其中以yolo系列的发展最为迅速,应用也最为广泛,从yolov1问世至今,已经涌现了很多的方法,如yolov1~yolov7,yolox,yolor,pp-yolov2等,这些方法在主干网络、特征聚合网络、损失函数、样本分配策略等各个方面进行了探索,大幅度提高了模型的检测效率。
4.但是灭火器检测仍存在不少的挑战,灭火器在图片中往往占据较小的区域或者处于被严重遮挡的状态,且灭火器通常为红色,与红色圆柱体较为相似,因此很容易出现误检或者漏检的情况。
技术实现要素:
5.本技术主要提供一种目标检测方法、存储介质及计算机设备,以解决目前目标检测算法针对小目标的误检或者漏检率较高的问题。
6.为解决上述技术问题,本技术采用的一个技术方案是:提供一种目标检测方法。该目标检测方法,包括:构建fednet网络模型,其中将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将所述yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得所述fednet网络模型;采用训练集对所述fednet网络模型进行训练;采用训练好的所述fednet网络模型对待检测图片进行检测,以识别所述待检测图片中的被检测目标。
7.在一些实施例中,所述构建fednet网络模型,其中将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将所述yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得所述fednet网络模型,包括:采用轻量级的多层感知机和并行注意力机制来设计生成所述c3lp模块,并采用所述c3lp模块替换所述骨干网络中的c3模块;采用transformer模型构建transblock模块,并采用所述transblock模块设计生成所述c3tb模块,采用所述c3tb模块替换所述特征聚合网络中的c3模块。
8.在一些实施例中,所述c3lp模块包括第一cbs层、残差组件、第二cbs层、所述轻量级的多层感知机、第一concat模块、所述并行注意力机制和第三cbs层;其中所述第一cbs的输出端连接所述残差组件的输入端,所述残差组件的输出端连接所述第一concat模块的一输入端,所述第二cbs的输出端连接所述轻量级的多层感知机的输入端,所述轻量级的多层感知机的输出端连接所述第一concat模块的另一输入端,所述第一concat模块的输出端连接所述并行注意力机制的输入端,所述并行注意力机制的输出端连接所述第三cbs层的输入端。
9.在一些实施例中,所述轻量级的多层感知机的计算公式如下:所述轻量级的多层感知机的计算公式如下:所述轻量级的多层感知机的计算公式如下:其中,m(x)表示所述轻量级的多层感知机,x表示输入特征;dw表示depthwise卷积;gn表示group normalization;drop表示dropout操作;conv1×1表示1
×
1的卷积;gelu表示gelu激活函数;所述并行注意力机制的计算公式如下:其中,pam(x)表示并行注意力机制;cam表示通道注意力;sam表示空间注意力。
10.在一些实施例中,所述c3tb模块包括第四cbs层、所述transblock模块、第五cbs层、第二concat模块和第六cbs层,所述第四cbs层的输出端连接所述transblock模块的输入端,所述transblock模块的输出端连接所述第二concat模块的一输入端,所述第五cbs层的输出端连接所述第二concat模块的另一输入端,所述第二concat模块的输出端连接所述第六cbs层的输入端。
11.在一些实施例中,所述 transblock模块的计算公式如下:transblock模块的计算公式如下:transblock模块的计算公式如下:transblock模块的计算公式如下:transblock模块的计算公式如下:其中,x表示输入特征;tb(x)表示所述transblock模块;linear表示全连接层网络;mha表示多头注意力机制;ln表示layer normalization;relu表示relu激活函数;所述多头注意力机制的计算公式如下:其中sigmoid表示sigmoid激活函数;
⊗
表示矩阵乘积;scale为缩放系数,drop表示dropout操作。
12.在一些实施例中,所述采用训练集对所述fednet网络模型进行训练,包括:获取包含被检测目标的图片并对所述图片进行数据标注和划分,以得到所述训练集和测试集;
采用所述训练集对所述fednet网络模型进行训练,其中利用simota算法进行动态正负样本分配,并利用分配的正负样本计算损失函数,以对fednet网络模型的参数进行调整;采用所述测试集评估完成训练后的所述fednet网络模型的性能。
13.在一些实施例中,所述采用训练好的所述fednet网络模型对待检测图片进行检测,包括:应用nms非极大抑制方法进行目标框的筛选,获得最终的检测框。
14.为解决上述技术问题,本技术采用的另一个技术方案是:提供一种存储介质。该存储介质上存储有程序数据,所述程序数据被处理器执行时实现如上述目标检测方法的步骤。
15.为解决上述技术问题,本技术采用的另一个技术方案是:提供一种计算机设备。该计算机设备包括相互连接的处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,实现如上述目标检测方法的步骤。
16.本技术的有益效果是:区别于现有技术的情况,本技术公开了一种目标检测方法、存储介质及计算机设备。通过以yolov5-s模型为基础,将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得fednet网络模型,进而利用训练后的fednet网络模型对待检测图片进行目标检测,从而通过改进后的c3lp模块增加网络对于小目标的关注度,增加特征中小目标的特征信息;以及通过改进后的c3tb模块减少网络在下采样过程中目标位置信息的损失,从而提高fednet网络模型的鲁棒性,有效地提高了目标检测的精度,降低小目标的误检率或者漏检率。
附图说明
17.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:图1是本技术提供的目标检测方法一实施例的流程示意图;图2是图1实施例中所述的fednet网络模型的结构示意图;图3是图1实施例中步骤10的流程示意图;图4是图3实施例中c3lp模块的结构示意图;图5是图3实施例中c3tb模块的结构示意图;图6是图5 c3tb模块中多头注意力机制的结构示意图;图7是图1实施例中步骤20的流程示意图;图8是本技术提供的存储介质的一实施例的结构示意图;图9是本技术提供的计算机设备的一实施例的结构示意图。
具体实施方式
18.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术的一部分实施例,而不是全部的实施例。基于
本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
19.本技术实施例中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本技术的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
20.在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
21.本技术提供一种目标检测方法,参阅图1,图1是本技术提供的目标检测方法一实施例的流程示意图,该目标检测方法包括:步骤10:构建fednet网络模型,其中将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得fednet网络模型。
22.yolo(you only look once)是一种使用卷积神经网络进行目标检测的算法,yolov5-s是该算法的一种版本,本技术所保护的目标检测方法是基于yolov5-s模型改进得到的。
23.yolov5-s模型包括输入端、骨干网络(backbone)、特征聚合网络和预测结构(prediction),基于该yolov5-s模型进行改进以得到fednet网络模型,其中将骨干网络中的c3模块替换成c3lp模块,将特征聚合网络中的c3模块替换成c3tb模块。
24.参阅图2,图2是图1实施例中所述的fednet网络模型的结构示意图。
25.图2是改进后得到的fednet网络模型,该fednet网络模型的改进点在于以yolov5-s模型为基础,将骨干网络中的c3模块替换成c3lp模块,将特征聚合网络中的c3模块替换成c3tb模块,其余模块的算法逻辑保持原样。
26.骨干网络为提取特征的网络,其作用就是提取图片中的信息,供后面的网络使用;特征聚合网络进一步对骨干网络提取的特征进行特征融合,提高模型的鲁棒性;预测结构(prediction)利用之前提取的特征,做出预测。
27.其中cbs层是由卷积层(conv)、归一化层(bn)和激活函数层(silu)所构成的基本操作单元;resunit为残差组件;c3lp模块具体为c3lp_x模块,其中串行的x组残差组件能够避免网络加深后的效果退化问题,轻量级多层感知机(light mlp)能够增强网络对于位置信息的获取能力;sppf为空间金字塔池化层,通过不同尺度的池化核来增加特征的感受野;upsampling为上采样层,即放大特征,其主要目的是放大原特征;concat为特征融合层,可将两个特征进行拼接,例如两个输入特征形状分别为(b, c1, h, w)和(b, c2, h, w),则输出特征的形状为(b, c1+c2, h, w);c3tb模块具体为c3tb_x模块,其主要通过串行的2x组transblock模块和cbs层来进行融合收敛。
28.参阅图3,图3是图1实施例中步骤10的流程示意图。
29.具体地,步骤10中将骨干网络的c3模块替换成c3lp模块,将特征聚合网络的c3模块替换成c3tb模块的步骤可以按以下方式执行。
30.步骤11:采用轻量级的多层感知机和并行注意力机制来设计生成c3lp模块,并采用c3lp模块替换骨干网络中的c3模块。
31.参阅图4,图4是图3实施例中c3lp模块的结构示意图。c3lp模块包括第一cbs层、残差组件(resunit)、第二cbs层、轻量级的多层感知机(light mlp)、第一concat模块、并行注意力机制(paddle attention module,pam)和第三cbs层;其中第一cbs的输出端连接残差组件(resunit)的输入端,残差组件(resunit)的输出端连接第一concat模块的一输入端,第二cbs的输出端连接轻量级的多层感知机(light mlp)的输入端,轻量级的多层感知机(light mlp)的输出端连接第一concat模块的另一输入端,第一concat模块的输出端连接并行注意力机制(pam)的输入端,并行注意力机制(pam)的输出端连接第三cbs层的输入端,第一cbs层和第二cbs层的输入端输入相同的特征图且作为该c3lp模块的输入端,第三cbs层的输出端作为该c3lp模块的输出端。
32.c3lp模块具体为c3lp_x模块,c3lp_x模块中的x表示残差组件的数量,x可以为1、2或3等;例如骨干网络中的c3lp_1模块,表示其内为1组残差组件;c3lp_2模块,表示其内为2组残差组件;c3lp_3模块,表示其内为3组残差组件。
33.其中,cbs层、残差组件(resunit)及concat模块的算法逻辑与原yolov5-s模型中的算法逻辑相同,不再赘述。
34.本实施例中,轻量级的多层感知机(light mlp)的计算公式如下:mlp)的计算公式如下:mlp)的计算公式如下:其中,m(x)表示该轻量级的多层感知机,x表示输入特征;dw表示深度可分分离卷积(depthwise卷积);gn表示group normalization;drop表示dropout操作;conv1×1表示1
×
1的卷积;gelu表示gelu激活函数。
35.并行注意力机制(pam)的计算公式如下:其中,pam(x)表示并行注意力机制,x表示输入特征;cam表示通道注意力;sam表示空间注意力。
36.该c3lp_x模块通过将残差组件(resunit)和轻量级的多层感知机(light mlp)提取的特征进行融合,并采用并行注意力机制,减少了网络在提取特征过程中的位置信息的损失,提高了网络对于小目标的关注度,增加了特征中小目标的特征信息,避免小尺寸的目标特征被忽略,可减少信息损失,提高目标检测精度。
37.步骤12:采用transformer模型构建transblock模块,并采用transblock模块设计生成c3tb模块,采用c3tb模块替换特征聚合网络中的c3模块。
38.参阅图5,图5是图3实施例中c3tb模块的结构示意图。c3tb模块包括第四cbs层、transblock模块、第五cbs层、第二concat模块和第六cbs层,第四cbs层的输出端连接transblock模块的输入端,transblock模块的输出端连接第二concat模块的一输入端,第
五cbs层的输出端连接第二concat模块的另一输入端,第二concat模块的输出端连接第六cbs层的输入端,第四cbs层和第五cbs层的输入端输入相同的特征图且作为该c3tb模块的输入端,第六cbs层的输出端作为该c3tb模块的输出端。
39.c3tb模块具体为c3tb_x模块,c3tb_x模块中的x表示transblock模块的数量为2x,x可以为1、2或3等;例如特征聚合网络中的c3tb_1模块,表示其内为2组transblock模块。
40.本实施例中,该transblock模块的计算公式如下:该transblock模块的计算公式如下:该transblock模块的计算公式如下:该transblock模块的计算公式如下:该transblock模块的计算公式如下:其中,x表示输入特征;tb(x)表示所述transblock模块;linear表示全连接层网络;mha表示多头注意力机制;ln表示layer normalization;relu表示relu激活函数。
41.参阅图6,图6是图5 c3tb模块中多头注意力机制的结构示意图。
42.该多头注意力机制(mha)的计算公式如下:其中sigmoid表示sigmoid激活函数;
⊗
表示矩阵乘积;scale为缩放系数,drop表示dropout操作。
43.通过采用transformer模型构建transblock模块,以利用transformer模型中的注意力机制来对特征进行加权,以提取区域之间的关系,加强浅层特征图中的位置特征和深层特征图中的类别特征之间的联系,进而所得到的c3tb模块能够进一步地提高模型的鲁棒性,减少信息损失,可避免小尺寸的目标特征被忽略,提高目标检测精度。
44.步骤20:采用训练集对fednet网络模型进行训练。
45.在fednet网络模型构建好后,需对fednet网络模型进行训练,以教会fednet网络模型识别被检测目标,例如该被检测目标口罩、行人或灭火器等。
46.本实施例中,被检测目标为消防工具,其具体可以为灭火器,例如通过该fednet网络模型识别各消防场所的消防工具的配备是否符合要求。
47.参阅图7,图7是图1实施例中步骤20的流程示意图。具体地,步骤20中采用训练集对fednet网络模型进行训练的步骤可以按以下方式执行。
48.步骤21:获取包含被检测目标的图片并对所述图片进行数据标注和划分,以得到训练集和测试集。
49.例如,被检测目标为灭火器,则获取各种场景下的灭火器图片,进行数据标注和划分,得到训练集和测试集。
50.具体地,可以通过网络或者自行拍摄等方式获取各种场景下的灭火器图片,并进行筛选;再使用标注工具labelimg对所有图片进行标注,标注内容为图片中灭火器的位置,使用矩形框标注,格式为pasacl voc,标签以xml文件储存。
51.可选地,若被检测目标为车辆,则可以获取各种场景下的车辆图片;标注工具还可
以是已知的其他类型的标注工具,本技术对此不做限制。
52.本实施例中,将灭火器图片按照4:1比例划分为训练集和测试集,也可采用5:1或6:1等比例对所获取的图片进行划分。
53.步骤22:采用训练集对fednet网络模型进行训练,其中利用simota算法进行动态正负样本分配,并利用分配的正负样本计算损失函数,以对fednet网络模型的参数进行调整。
54.训练集中的每张图片上均用矩形框标注出被检测目标的位置,在fednet网络模型中的预测结构(prediction)进行预测后,利用simota算法进行动态正负样本分配,目标框预测正确的属于正样本,目标框预测错误的属于负样本,每一次训练均需要进行正负样本分配,再利用分配的正负样本计算损失函数,以对fednet网络模型的参数进行调整。
55.具体地,损失函数计算公式如下:损失函数计算公式如下:其中,、分别表示分类损失和置信度损失,它们可利用二进制交叉熵损失计算得到;为目标框回归损失,使用giou函数计算得到;、、为平衡三个损失函数的超参数;iou表示两个矩形框的交并比;表示两个矩形框的最小包络矩形的面积;表示两个矩形框交集的面积。
56.本实施例中,、、分别被设置为2.0、1.0和5.0。在其他实施例中,、、可基于需要进行设定。
57.完成损失函数计算后,可指导对fednet网络模型的参数进行调整,以提升fednet网络模型的识别准确率。
58.步骤23:采用测试集评估完成训练后的fednet网络模型的性能。
59.在完成训练集对fednet网络模型的训练后,采用测试集评估完成训练后的fednet网络模型的性能,以确定该fednet网络模型的性能是否符合要求,该性能指标可以包括准确率、计算量大小、模型参数量和图片处理速率等。
60.步骤30:采用训练好的fednet网络模型对待检测图片进行检测,以识别待检测图片中的被检测目标。
61.训练好的fednet网络模型对待检测图片进行目标检测,在预测结构(prediction)进行预测后,直接应用nms非极大抑制方法进行目标框的筛选,获得最终的检测框。
62.在进行目标检测方法验证时,验证实验采用自制数据集共有5466张样本数据,其中训练集样本数量4376张,测试集样本数量1090张。其中实验中模型的搭建、训练和测试均在pytorch框架下完成,同时使用cuda和cudnn加速计算。
63.本目标检测方法提供的模型训练和测试均在ubuntu16.04操作系统下完成,处理器为32gbits的inter(r) xeon(r) silver 4114 cpu @ 2.20ghz处理器,显卡为一个16gbits的nvidia tesla v100-pcie gpu,在训练过程中设置epoch为1000,batch_size为16,使用sgd优化器,初始学习率为0.01,最小学习率为0.00005,使用余弦退火学习率下降策略,权重衰减系数为0.937,置信度阈值为0.001,iou阈值为0.6。
64.为验证本目标检测方法的有效性,在相同的硬件设备下使用同一个数据集对不同的方法进行了实验:yolov3、yolov4、yolov5-s,yolox和本技术提供的方法。
65.实验结果如下表,根据下表的实验结果可知,本技术提供的目标检测方法能够有效的检测到图片中的灭火器的位置,本技术中fednet网络模型的map0.5达到了94.0%,比yolov5-s和yolox分别高出1.4%和0.2%。
66.模型模型参数量flopsmap0.5:0.95/%map0.5/%fpsyolov361.49m154.5g92.363.860yolov467.8m139.7g92.564.055yolov5-s7.01m15.8g92.664.4137yolox8.01m21.3g93.868.0119fednet8.15m18.3g94.068.0110模型参数量:模型中所有需要学习的参数的个数,主要反映模型占用内存的大小,参数量越大,占用的内存就越多。
67.flops(floating point operations):指模型前向传播的计算量和计算速度,用于衡量模型的复杂度。
68.map0.5:0.95:指检测框位置的准确性。
69.map0.5:指检测框类别的准确性。
70.fps(frame per second):模型每秒处理的图片数量。
71.可见,本技术中的fednet网络模型的模型参数量、flops、map0.5:0.95、map0.5和fps等各项指标均处于前列。
72.参阅图8,图8是本技术提供的存储介质的一实施例的结构示意图。
73.该存储介质40存储有程序数据41,程序数据41在被处理器执行时,实现如图1所描述的目标检测方法的步骤。
74.该程序数据41存储于一个存储介质40中,包括若干指令用于使得一台网络设备(可以路由器、个人计算机、服务器等网络设备)或处理器执行本技术各个实施例所述方法的全部或部分步骤。
75.可选的,存储介质40可以为u盘、移动硬盘、只读存储器(rom)、随机存取存储器(ram)、磁盘或者光盘等各种可以存储程序数据41的介质。
76.参阅图9,图9是本技术提供的计算机设备的一实施例的结构示意图。
77.该计算机设备50包括相互连接的处理器52和存储器51,存储器51存储有计算机程序,处理器52执行计算机程序时,实现如上述目标检测方法的步骤。
78.区别于现有技术的情况,本技术公开了一种目标检测方法、存储介质及计算机设备。通过以yolov5-s模型为基础,将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得fednet网络模型,进而利用训练后的fednet网络模型对待检测图片进行目标检测,网络中的并行注意力机制能够增加网络对于小目标的关注度,增加特征中小目标的特征信息;轻量级多层感知机和transformer结构具有获取长距离依赖的能力,能够减少网络在下采样过程中目标位置信息的损失。从而提高fednet网络的鲁棒性,有效地提高了目标检测的精度,提高对小目标的检测精度。
79.本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于存储介质实施例及电子装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
80.本技术可用于众多通用或专用的计算系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
81.在本技术所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
82.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
83.另外,在本技术各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
84.以上所述仅为本技术的实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本技术的专利保护范围内。
技术特征:
1.一种目标检测方法,其特征在于,包括:构建fednet网络模型,其中将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将所述yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得所述fednet网络模型;采用训练集对所述fednet网络模型进行训练;采用训练好的所述fednet网络模型对待检测图片进行检测,以识别所述待检测图片中的被检测目标。2.根据权利要求1所述的目标检测方法,其特征在于,所述构建fednet网络模型,其中将yolov5-s模型的骨干网络中的c3模块替换成c3lp模块,将所述yolov5-s模型的特征聚合网络中的c3模块替换成c3tb模块,以获得所述fednet网络模型,包括:采用轻量级的多层感知机和并行注意力机制来设计生成所述c3lp模块,并采用所述c3lp模块替换所述骨干网络中的c3模块;采用transformer模型构建transblock模块,并采用所述transblock模块设计生成所述c3tb模块,采用所述c3tb模块替换所述特征聚合网络中的c3模块。3.根据权利要求2所述的目标检测方法,其特征在于,所述c3lp模块包括第一cbs层、残差组件、第二cbs层、所述轻量级的多层感知机、第一concat模块、所述并行注意力机制和第三cbs层;其中所述第一cbs的输出端连接所述残差组件的输入端,所述残差组件的输出端连接所述第一concat模块的一输入端,所述第二cbs的输出端连接所述轻量级的多层感知机的输入端,所述轻量级的多层感知机的输出端连接所述第一concat模块的另一输入端,所述第一concat模块的输出端连接所述并行注意力机制的输入端,所述并行注意力机制的输出端连接所述第三cbs层的输入端。4.根据权利要求3所述的目标检测方法,其特征在于,所述轻量级的多层感知机的计算公式如下:公式如下:公式如下:其中,m(x)表示所述轻量级的多层感知机,x表示输入特征;dw表示depthwise卷积;gn表示group normalization;drop表示dropout操作;conv1×1表示1
×
1的卷积;gelu表示gelu激活函数;所述并行注意力机制的计算公式如下:其中,pam(x)表示并行注意力机制;cam表示通道注意力;sam表示空间注意力。5.根据权利要求2所述的目标检测方法,其特征在于,所述c3tb模块包括第四cbs层、所述transblock模块、第五cbs层、第二concat模块和第六cbs层,所述第四cbs层的输出端连接所述transblock模块的输入端,所述transblock模块的输出端连接所述第二concat模块的一输入端,所述第五cbs层的输出端连接所述第二concat模块的另一输入端,所述第二concat模块的输出端连接所述第六cbs层的输入端。
6.根据权利要求5所述的目标检测方法,其特征在于,所述 transblock模块的计算公式如下:式如下:式如下:式如下:式如下:其中,x表示输入特征;tb(x)表示所述transblock模块;linear表示全连接层网络;mha表示多头注意力机制;ln表示layer normalization;relu表示relu激活函数;所述多头注意力机制的计算公式如下:其中sigmoid表示sigmoid激活函数;
⊗
表示矩阵乘积;scale为缩放系数,drop表示dropout操作。7.根据权利要求1所述的目标检测方法,其特征在于,所述采用训练集对所述fednet网络模型进行训练,包括:获取包含被检测目标的图片并对所述图片进行数据标注和划分,以得到所述训练集和测试集;采用所述训练集对所述fednet网络模型进行训练,其中利用simota算法进行动态正负样本分配,并利用分配的正负样本计算损失函数,以对fednet网络模型的参数进行调整;采用所述测试集评估完成训练后的所述fednet网络模型的性能。8.根据权利要求1所述的目标检测方法,其特征在于,所述采用训练好的所述fednet网络模型对待检测图片进行检测,包括:应用nms非极大抑制方法进行目标框的筛选,获得最终的检测框。9.一种存储介质,其上存储有程序数据,其特征在于,所述程序数据被处理器执行时实现如权利要求1-8任一项所述目标检测方法的步骤。10.一种计算机设备,其特征在于,包括相互连接的处理器和存储器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-8任一项所述目标检测方法的步骤。
技术总结
本申请公开了一种目标检测方法、存储介质及计算机设备。该目标检测方法,包括:构建FEDNet网络模型,其中将YOLOv5-s模型的骨干网络中的C3模块替换成C3LP模块,将YOLOv5-s模型的特征聚合网络中的C3模块替换成C3TB模块,以获得FEDNet网络模型;采用训练集对FEDNet网络模型进行训练;采用训练好的FEDNet网络模型对待检测图片进行检测,以识别待检测图片中的被检测目标。通过上述方式,本申请提供的目标检测方法能够有效地提高目标检测精度,降低了对小目标的误检率或者漏检率。小目标的误检率或者漏检率。小目标的误检率或者漏检率。
技术研发人员:黄军文 刘魏魏 陈兴委 李文强
受保护的技术使用者:深圳华付技术股份有限公司
技术研发日:2023.08.09
技术公布日:2023/9/9
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/