数据处理方法、装置、电子设备及可存储介质与流程
未命名
08-18
阅读:109
评论:0
1.本技术涉及数据处理技术领域,尤其涉及一种数据处理方法、装置、电子设备及可存储介质。
背景技术:
2.深度学习是一个复杂的机器学习算法,它的最终目标是让机器人能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。在深度学习过程中,首先将每一批次的训练数据输入模型,通过前向传播输出预测值,然后应用损失函数计算预测值与真实值的差异值,即损失(loss)值,得到损失值后模型再通过反向传播训练网络。
3.对于一次训练的不同样本,会产生多个不同的损失值,相关技术的深度学习过程中,通常是以样本中各个损失值的平均值作为最终损失值,但是采用上述损失函数进行深度学习网络模型训练时,其训练效果不佳,进而导致在进行例如图像分类处理、图像识别处理等操作时效果不佳。
技术实现要素:
4.为解决或部分解决相关技术中存在的问题,本技术提供一种数据处理方法、装置、电子设备及可存储介质,能够提高深度学习网络的预测准确度,提高深度学习网络的训练效果。
5.本技术第一方面提供一种数据处理方法,包括:
6.获取训练样本数据集,并将所述训练样本数据集输入至深度学习网络模型,获得由所述深度学习网络模型的损失函数处理模块输出的n个损失值;
7.分别根据所述n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值;
8.根据所述n个损失值中各个损失值、以及所述n个损失值中各个损失值对应的权重值,获得总体损失值;
9.根据所述总体损失值对所述深度学习网络模型进行训练优化。
10.在一实施方式中,所述分别根据所述n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值,包括:
11.分别根据所述n个损失值中各个损失值,获得所述n个损失值的均值;
12.根据所述n个损失值中各个损失值、以及所述n个损失值的均值,获得所述n个损失值中各个损失值对应的权重值。
13.在一实施方式中,所述根据所述n个损失值中各个损失值、以及所述n个损失值的均值,获得所述n个损失值中各个损失值对应的权重值,包括:
14.根据所述n个损失值中各个损失值、所述n个损失值的均值以及超参数,获得所述n个损失值中各个损失值对应的权重值。
15.在一实施方式中,通过激活函数获得所述n个损失值中各个损失值对应的权重值。
16.在一实施方式中,所述通过激活函数获得所述n个损失值中各个损失值对应的权重值,包括:
17.根据所述n个损失值中各个损失值li、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值wi:
[0018][0019]
在一实施方式中,所述通过激活函数获得所述n个损失值中各个损失值对应的权重值,包括:
[0020]
根据所述n个损失值中各个损失值li、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值wi:
[0021][0022]
在一实施方式中,所述根据所述n个损失值中各个损失值、以及所述n个损失值中各个损失值对应的权重值,获得总体损失值,包括:
[0023]
根据所述n个损失值中各个损失值li、以及所述n个损失值中各个损失值对应的权重值wi,通过以下公式获得总体损失值loss:
[0024][0025]
本技术第二方面提供一种数据处理装置,包括:
[0026]
获取单元,用于获取训练样本数据集,并将所述训练样本数据集输入至深度学习网络模型,获得由所述深度学习网络模型的损失函数处理模块输出的n个损失值;
[0027]
第一计算单元,用于分别根据所述获取单元获取的n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值;
[0028]
第二计算单元,用于根据所述获取单元获取的n个损失值中各个损失值、以及所述第一计算单元获得的n个损失值中各个损失值对应的权重值,获得总体损失值;
[0029]
更新模块,用于根据所述第二计算单元获得的总体损失值对所述深度学习网络模型进行训练优化。
[0030]
本技术第三方面提供一种电子设备,包括:
[0031]
处理器;以及
[0032]
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如上所述的方法。
[0033]
本技术第四方面提供一种计算机可读存储介质,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如上所述的方法。
[0034]
本技术提供的技术方案可以包括以下有益效果:
[0035]
通过降低对预测效果好(损失值数值更小)的位置的关注度、增大对预测效果差(损失值数值更大)的位置的关注度,使得深度学习网络模型在预测效果差的位置的性能提升,有助于提高效果差的位置的预测效果,能够提高深度学习网络的预测准确度,提高深度学习效果。该方法用于图像分类处理时,可以获得较好的分类效果。
[0036]
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不
能限制本技术。
附图说明
[0037]
通过结合附图对本技术示例性实施方式进行更详细地描述,本技术的上述以及其他目的、特征和优势将变得更加明显,其中,在本技术示例性实施方式中,相同的参考标号通常代表相同部件。
[0038]
图1是本技术实施例示出的数据处理方法的流程示意图;
[0039]
图2是本技术实施例示出的数据处理装置的结构示意图;
[0040]
图3是本技术实施例示出的电子设备的结构示意图。
具体实施方式
[0041]
下面将参照附图更详细地描述本技术的实施方式。虽然附图中显示了本技术的实施方式,然而应该理解,可以以各种形式实现本技术而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本技术更加透彻和完整,并且能够将本技术的范围完整地传达给本领域的技术人员。
[0042]
在本技术使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本技术。在本技术和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
[0043]
应当理解,尽管在本技术可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本技术范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本技术的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0044]
深度学习应用于文字、图像、声音等数据的识别和学习。在目前的深度学习中一般有分类损失函数和回归损失函数两类损失函数,其中常用的分类损失函数包括0-1损失函数、对数损失函数、平方损失函数、hinge损失函数、交叉熵损失函数(crossentropyloss)等;常用的回归损失函数包括平均绝对误差(meanabsoluteerror,mae)、均方误差(meansquareerror,mse)、huber损失函数、log-cosh损失函数、分位数损失函数等。目前深度学习网络模型中,损失函数计算过程最后一步通常是对样本的损失值做平均,得到最终损失值,以下为以图像的语义分割领域使用的交叉熵损失函数示例,具体表示如下:
[0045][0046]
其中,l
ce
为网络根据样本图片预测输出的损失值;n为样本图片中所有像素的数量;c为样本类别的数量;y为该像素是该类别的可能性真值,即如果某像素的类别id为k,则
[0047][0048]
p为通过网络预测出该像素为该类别的可能性,其数值范围为[0,1],且满足同一
像素所有类别的可能性和为1.0,即
[0049][0050]
可见,上述以图像的语义分割领域为例使用的交叉熵损失函数通过全局平均的方式对图片上所有像素-类别的损失值进行平均,从而得到最终损失值。但是对于一次训练的不同样本,会产生多个不同的损失值,以全局平均的方式会阻碍深度学习网络模型在预测效果不好位置的性能提升,因此采用上述损失函数进行深度学习网络模型训练时,训练效果不佳。
[0051]
针对上述问题,本技术实施例提供一种数据处理方法,能够提高深度学习网络的预测准确度,提高深度学习网络的训练效果。
[0052]
以下结合附图详细描述本技术实施例的技术方案。
[0053]
图1是本技术实施例示出的数据处理方法的流程示意图。
[0054]
参见图1,该数据处理方法包括:
[0055]
s110、获取训练样本数据集,并将训练样本数据集输入至深度学习网络模型,获得由深度学习网络模型的损失函数处理模块输出的n个损失值。
[0056]
在一实施方式中,可以是获取训练样本数据集,训练样本数据集包含n个样本;将训练样本数据集输入深度学习网络模型中,由深度学习网络模型输出预测值,进而获得由该深度学习网络模型的损失函数处理模块输出的n个损失值,每个样本对应一个损失值。
[0057]
在另一实施方式中,也可以是获取训练样本数据集,训练样本数据集包含m个样本,样本类别数量为c个;将训练样本数据集输入到深度学习网络模型中,由深度学习网络模型输出预测值,进而获得由深度学习网络模型的损失函数处理模块输出的n个损失值,其中,n=m*c,即对于m个样本中的每个样本来说,都存在对应c个类别中的各个类别的一个可能性,因此该训练样本数据集对应的总的损失值数量为样本数量与类别数量的乘积n。
[0058]
本实施例中,将训练样本数据集输入深度学习网络模型中,对于每个样本i来说,由深度学习网络模型输出该样本i对应的预测值f(i)以及预测值f(i)与真实值yi的损失值li,获得训练样本数据集中每个样本分别对应的损失值li。
[0059]
其中,深度学习网络模型指由深度学习网络训练得到的模型,深度学习网络包括但不限于卷积神经网络、自编码神经网络、深度置信网络等,在此不做限制。深度学习网络模型中可以根据实际应用场景选择合适的损失函数类型,例如,可以选择0-1损失函数计算训练样本数据集的损失值,其表示式参见式(4):
[0060][0061]
0-1损失函数表示:当预测值f(i)与真实值yi相等时,损失值为0;当预测值f(i)与真实值yi不相等时,损失值为1;
[0062]
也可以选择交叉熵损失函数计算训练样本数据集的损失值,其表示式参见式(1),当样本图片中像素分类正确时,损失值loss为0,否则大于0。
[0063]
需要说明的是,在s110获得的n个损失值是通过上述分类损失函数或者回归损失函数获得的,并不局限于交叉熵损失函数或0-1损失函数。
[0064]
s120、分别根据n个损失值中各个损失值,获得n个损失值中各个损失值对应的权
重值。
[0065]
在一次训练的训练样本数据集中的n个损失值,当前预测结果比较好的位置(样本)对应的损失值比较小;当前预测效果比较差的位置(样本)对应的损失值比较大;因此如果采用全局平均得到方式计算获得该一次训练的训练样本数据集对应的总体损失值,则预测效果好的位置占总体损失值的比例小,预测效果差的位置占总体损失值的比例大,从而极大影响了预测结果的正确率。
[0066]
本实施例中,采用计算n个损失值中每个损失值占总体损失值的权重,进而计算一次训练训练样本数据集对应的总体损失值,使得深度学习网络模型可以降低对预测效果不好的位置的关注度、提高对预测效果好的位置的关注度,即降低预测效果不好的位置的损失值占总体损失值的比例、提高预测效果好的位置的损失值占总体损失值的比例,从而提高整体预测正确率。
[0067]
在一实施方式中,可以分别根据n个损失值中各个损失值,获得n个损失值的均值;根据n个损失值中各个损失值以及n个损失值的均值,获得n个损失值中各个损失值对应的权重值。其中,获得n个损失值的均值的方式是计算n个损失值的和的平均数,表达式参见式(5):
[0068][0069]
其中,m为n个损失值的均值;n为损失值数量;li为n个损失值中第i个损失值。
[0070]
可以理解的,上述的n个损失值可以是n个样本中每个样本分别对应的损失值,也可以是m个样本中每个样本分别对应c个样本类别而获得的损失值。
[0071]
在一实施方式中,可以通过n各损失值中各个损失值与n个损失值的均值的比值计算n个损失值对应的权重值,其表示式参见式(6):
[0072][0073]
其中,wi为n个损失值中第i个损失值对应的权重值。
[0074]
在一实施方式中,还可以通过激活函数计算n个损失值中各个损失值对应的权重值,激活函数可以选择单调递增或单调递减且能够约束上下限范围的函数,可以选择sigmoid函数、tanh函数。
[0075]
其中,sigmoid函数也叫logistic函数,其公式参见式(7):
[0076][0077]
在一实施方式中,当通过sigmoid函数计算权重值时,利用n个损失值中各个损失值与n个损失值均值的比值可以计算每个损失值li对应的权重值,即令其表达式参见式(8):
[0078][0079]
通过sigmoid函数计算得到的n个损失值中每个损失值对应的权重值的范围都在0《wi《1,可以约束n个损失值中每个损失值对应的权重值范围,避免出现个别损失值对应的权重值过大的情况。
[0080]
在一实施方式中,为了调整n个损失值中不同损失值之间的差距,即使得不同损失值对应的权重差距增大,可以令例如可以采用式(9)的方式:
[0081][0082]
此时,计算n个损失值中li《m的损失值对应的权重值时,其0《wi《0.5;计算n个损失值中li》m的损失值对应的权重值时,其0.5《wi《1,扩大了不同损失值对应权重值的差距,有利于区分各个损失值在总体损失值占据的比例。
[0083]
在一实施方式中,可以根据n个损失值中各个损失值、n个损失值的均值以及超参数,获得n个损失值中各个损失值对应的权重值。在实际应用中,可以利用与超参数k的乘积计算每个损失值li对应的权重值;或者,也可以利用与超参数k的乘积计算每个损失值li对应的权重。以下为以与超参数k的乘积为例计算n个损失值中各个损失值对应的权重的表达式(10),此时令
[0084][0085]
其中,k为超参数,k》0。
[0086]
采用引入超参数k值的方式进一步调整了n个损失值中不同损失值之间的差距,即使得不同损失值对应的权重差距增大,有利于区分各个损失值占总体损失值的比重。在一次训练的样本计算总体损失值时需要采用同一个超参数k,确保在一次训练的样本计算总体损失值各个损失值的公平性。需要说明的是,超参数k可以根据样本数据集的不同或应用场景的不同调整,直至选择到合适的超参数;同时,也可以同时使用多个不同的超参数k对同一训练样本数据集训练,获得多个不同的训练结果,选择其中较优训练结果对应的超参数k作为该训练样本数据集的超参数k。
[0087]
在引入超参数k计算权重值的时候,可以比较或与1的大小,如果大部分或小于或等于1,此时可以将超参数k设定为k》1;如果大部分或大于1,此时可以将超参数k设定为《1,从而适当调节sigmoid函数的x的范围,适当调节不同损失值对应的权重。
[0088]
进一步地,超参数k的区间设定可以为0.5《k《2,从而起到增大不同损失值对应权重差距的效果,使得各个损失值对应权重分散分布在(0,1)之间,不会使得损失值对应权重值完全趋于1或完全趋于0,有利于区分各个不同损失值占总体损失值的比重。
[0089]
在另一实施方式中,可以采用tanh函数获取n个损失值中每个损失值对应的权重值,tanh函数的公式参见式(11):
[0090][0091]
当通过tanh函数计算n个损失值中各个损失值对应的权重时,也可以令或令
或令以下以为例计算n个损失值中第i个损失值对应的权重值wi的表示式(12):
[0092][0093]
通过tanh函数计算得到的n个损失值中每个损失值对应的权重值的范围都在0《wi《2,可以约束n个损失值中每个损失值对应的权重值范围,避免出现个别损失值对应的权重值过大的情况。
[0094]
本实施例中,获得的每个损失值对应的权重值是针对于每次训练过程中每个样本对应损失值的权重值,即同一训练样本在不同批次训练过程中所产生的损失值如果不同,其对应的权重值也不同,权重值是根据每次获得的损失值的结果动态调整的。而且在计算n个损失值中各个损失值对应的权重值时,不需要反向传播。
[0095]
s130、根据n个损失值中各个损失值、以及n个损失值中各个损失值对应的权重值,获得总体损失值。
[0096]
在训练过程中,将权重加入总体损失值的计算后,根据n个损失值中各个损失值、以及n个损失值中各个损失值对应的权重值,获得n个损失值的加权平均值,以该n个损失值的加权平均值为总体损失值,具体计算表示式如下:
[0097][0098]
在总体损失值的计算过程中,损失值更大的位置(预测效果更差的位置)占比更大,有助于提高预测效果差的位置的检测效果,从而提高预测结果的正确率。同时当采用sigmoid函数计算权重值时,最大的权重值小于1,最小的权重大于0;当采用tanh函数计算权重值时,最大的权重值小于2,最小的权重大于0,可以保证获得的总体损失值不会过分关注预测效果差的位置而忽略预测效果一般的位置,提高深度学习效果。
[0099]
s140、根据总体损失值对深度学习网络模型进行训练优化。
[0100]
利用该总体损失值及对深度学习网络模型的相关参数进行更新优化,以提高该深度学习网络模型输出的预测值准确性。
[0101]
该总体损失值的获取方法可以应用于各种应用场景的损失函数计算中,例如以图像的语义分割领域、图像目标检测领域、图像的实例分割、人体关键点检测、点云的语义分割等深度学习领域,在此不做限制。
[0102]
以图像分类处理为例,采用该数据处理方法进行深度学习网络模型训练的过程包括:
[0103]
a)将一批次图像训练样本输入深度学习网络模型,由深度学习网络模型的损失函数处理模块输出样本图像属于某一类别的预测值与真实值的误差,即损失值;
[0104]
b)对每个损失值进行平均,获得均值;
[0105]
c)由每个损失值与均值获得每个损失值对应的权重值;
[0106]
d)通过每个损失值及其各自对应的权重值获得该批次图像训练样本的总体损失值;
[0107]
e)通过总体损失值对深度学习网络模型进行训练,调整深度学习网络模型的相关
参数,直至获得的总体损失值小于或等于设定阈值,完成深度学习网络模型的训练。
[0108]
本技术实施例的数据处理方法,对深度学习网络模型的原损失值进行加权获得深度学习网络模型的新损失值,能够通过降低对预测效果好(损失值数值更小)的位置的关注度、增大对预测效果差(损失值数值更大)的位置的关注度,使得深度学习网络模型在预测效果差的位置的性能提升,有助于提高效果差的位置的预测效果,提高深度学习效果。应用于图像分类处理时,可以获得较好的分类效果。
[0109]
同时该损失函数处理过程不需要反向传播,即不需要计算梯度值,损失函数处理过程总体计算量小,占用资源小。
[0110]
与前述应用功能实现方法实施例相对应,本技术还提供了一种数据处理处理装置、电子设备及相应的实施例。
[0111]
图2是本技术实施例示出的损失函数处理装置的结构示意图。
[0112]
参见图2,该数据处理装置200包括获取单元210、第一计算单元220和第二计算单元230。
[0113]
获取单元210,用于获取训练样本数据集,并将训练样本数据集输入至深度学习网络模型,获得由深度学习网络模型的损失函数处理模块输出的n个损失值。
[0114]
第一计算单元220,用于分别根据获取单元210获取的n个损失值中各个损失值,获得n个损失值中各个损失值对应的权重值。
[0115]
该第一计算单元220用于分别根据所述n个损失值中各个损失值,获得所述n个损失值的均值;根据所述n个损失值中各个损失值、以及所述n个损失值的均值,获得所述n个损失值中各个损失值对应的权重值;或,根据所述n个损失值中各个损失值、所述n个损失值的均值以及超参数,获得所述n个损失值中各个损失值对应的权重值。
[0116]
其中,通过激活函数获得所述n个损失值中各个损失值对应的权重值,例如:根据所述n个损失值中各个损失值li、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值wi:
[0117][0118]
或,根据所述n个损失值中各个损失值li、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值wi:
[0119][0120]
第二计算单元230,用于根据获取单元210获取的n个损失值中各个损失值、以及第一计算单元220获得的n个损失值中各个损失值对应的权重值,获得总体损失值。
[0121]
该第二计算单元230用于根据所述n个损失值中各个损失值、以及所述n个损失值中各个损失值对应的权重值,获得总体损失值;具体地,根据所述n个损失值中各个损失值li、以及所述n个损失值中各个损失值对应的权重值wi,通过以下公式获得总体损失值loss:
[0122][0123]
更新单元,用于根据第二计算单元获得的总体损失值对深度学习网络模型进行训练优化。
[0124]
本技术实施例的数据处理装置,通过降低对预测效果好(损失值数值更小)的位置的关注度、增大对预测效果差(损失值数值更大)的位置的关注度,使得深度学习网络在预测效果差的位置的性能提升,有助于提高效果差的位置的预测效果,提高深度学习效果;应用于图像分类处理时,可以获得较好的分类效果。同时该损失函数处理过程不需要反向传播,即不需要计算梯度值,损失函数处理过程总体计算量小,占用资源小。
[0125]
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不再做详细阐述说明。
[0126]
图3是本技术实施例示出的电子设备的结构示意图。
[0127]
参见图3,电子设备300包括存储器310和处理器320。
[0128]
处理器320可以是中央处理单元(centralprocessingunit,cpu),还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0129]
存储器310可以包括各种类型的存储单元,例如系统内存、只读存储器(rom)和永久存储装置。其中,rom可以存储处理器320或者计算机的其他模块需要的静态数据或者指令。永久存储装置可以是可读写的存储装置。永久存储装置可以是即使计算机断电后也不会失去存储的指令和数据的非易失性存储设备。在一些实施方式中,永久性存储装置采用大容量存储装置(例如磁或光盘、闪存)作为永久存储装置。另外一些实施方式中,永久性存储装置可以是可移除的存储设备(例如软盘、光驱)。系统内存可以是可读写存储设备或者易失性可读写存储设备,例如动态随机访问内存。系统内存可以存储一些或者所有处理器在运行时需要的指令和数据。此外,存储器310可以包括任意计算机可读存储媒介的组合,包括各种类型的半导体存储芯片(例如dram,sram,sdram,闪存,可编程只读存储器),磁盘和/或光盘也可以采用。在一些实施方式中,存储器310可以包括可读和/或写的可移除的存储设备,例如激光唱片(cd)、只读数字多功能光盘(例如dvd-rom,双层dvd-rom)、只读蓝光光盘、超密度光盘、闪存卡(例如sd卡、mini-sd卡、micro-sd卡等)、磁性软盘等。计算机可读存储媒介不包含载波和通过无线或有线传输的瞬间电子信号。
[0130]
存储器310上存储有可执行代码,当可执行代码被处理器320处理时,可以使处理器320执行上文述及的方法中的部分或全部。
[0131]
此外,根据本技术的方法还可以实现为一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品包括用于执行本技术的上述方法中部分或全部步骤的计算机程序代码指令。
[0132]
或者,本技术还可以实施为一种计算机可读存储介质(或非暂时性机器可读存储介质或机器可读存储介质),其上存储有可执行代码(或计算机程序或计算机指令代码),当可执行代码(或计算机程序或计算机指令代码)被电子设备(或服务器等)的处理器执行时,使处理器执行根据本技术的上述方法的各个步骤的部分或全部。
[0133]
以上已经描述了本技术的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨
在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文披露的各实施例。
技术特征:
1.一种数据处理方法,其特征在于,包括:获取训练样本数据集,并将所述训练样本数据集输入至深度学习网络模型,获得由所述深度学习网络模型中损失函数处理模块输出的n个损失值;分别根据所述n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值;根据所述n个损失值中各个损失值、以及所述n个损失值中各个损失值对应的权重值,获得总体损失值;根据所述总体损失值对所述深度学习网络模型进行训练优化。2.根据权利要求1所述的方法,其特征在于,所述分别根据所述n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值,包括:分别根据所述n个损失值中各个损失值,获得所述n个损失值的均值;根据所述n个损失值中各个损失值、以及所述n个损失值的均值,获得所述n个损失值中各个损失值对应的权重值。3.根据权利要求2所述的方法,其特征在于,所述根据所述n个损失值中各个损失值、以及所述n个损失值的均值,获得所述n个损失值中各个损失值对应的权重值,包括:根据所述n个损失值中各个损失值、所述n个损失值的均值以及超参数,获得所述n个损失值中各个损失值对应的权重值。4.根据权利要求2或3所述的方法,其特征在于,通过激活函数获得所述n个损失值中各个损失值对应的权重值。5.根据权利要求4所述的方法,其特征在于,所述通过激活函数获得所述n个损失值中各个损失值对应的权重值,包括:根据所述n个损失值中各个损失值l
i
、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值w
i
:6.根据权利要求4所述的方法,其特征在于,所述通过激活函数获得所述n个损失值中各个损失值对应的权重值,包括:根据所述n个损失值中各个损失值l
i
、所述n个损失值的均值m以及超参数k,通过以下公式获得所述n个损失值中各个损失值对应的权重值w
i
:7.根据权利要求1所述的方法,其特征在于,所述根据所述n个损失值中各个损失值、以及所述n个损失值中各个损失值对应的权重值,获得总体损失值,包括:根据所述n个损失值中各个损失值l
i
、以及所述n个损失值中各个损失值对应的权重值w
i
,通过以下公式获得总体损失值loss:8.一种数据处理装置,其特征在于,包括:获取单元,用于获取训练样本数据集,并将所述训练样本数据集输入至深度学习网络
模型,获得由所述深度学习网络模型的损失函数处理模块输出的n个损失值;第一计算单元,用于分别根据所述获取单元获取的n个损失值中各个损失值,获得所述n个损失值中各个损失值对应的权重值;第二计算单元,用于根据所述获取单元获取的n个损失值中各个损失值、以及所述第一计算单元获得的n个损失值中各个损失值对应的权重值,获得总体损失值;更新模块,用于根据所述第二计算单元获得的总体损失值对所述深度学习网络模型进行训练优化。9.一种电子设备,其特征在于,包括:处理器;以及存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1-7中任一项所述的方法。10.一种计算机可读存储介质,其特征在于,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如权利要求1-7中任一项所述的方法。
技术总结
本申请涉及一种数据处理方法、装置、电子设备及可存储介质。该方法包括:获取训练样本数据集,并将所述训练样本数据集输入至深度学习网络模型,获得由所述深度学习网络模型中损失函数处理模块输出的N个损失值;分别根据所述N个损失值中各个损失值,获得所述N个损失值中各个损失值对应的权重值;根据所述N个损失值中各个损失值、以及所述N个损失值中各个损失值对应的权重值,获得总体损失值;根据所述总体损失值对所述深度学习网络模型进行训练优化。本申请提供的方案,能够提高深度学习网络的预测准确度,提高深度学习网络的训练效果。果。果。
技术研发人员:单国航 万如 贾双成 孟鹏飞
受保护的技术使用者:智道网联科技(北京)有限公司
技术研发日:2023.05.19
技术公布日:2023/8/16
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/
上一篇:一种防滑高弹运动鞋的制作方法 下一篇:一种单组分大分子光引发剂及其制备方法与流程
