人脸质量检测模型的训练方法及其相关设备与流程
未命名
09-13
阅读:78
评论:0

背景技术:
::2.随着多媒体技术和网络技术的飞速发展和广泛应用,人们在日常生活和生产活动中大量的使用人脸图像信息。例如,在银行办理业务、电子支付等验证个人身份时,需要对人脸进行拍摄,以获取人脸图像信息,但是,人脸图像信息的质量会影响应用过程中的效果。3.因此,需要在应用之前,对人脸图像信息进行筛选,以筛选出质量较高的人脸图像信息来进行后续应用。那么,如何提高人脸图像质量检测的检测准确性,成为了一个亟需解决的问题。技术实现要素:4.本技术提供了一种人脸质量检测模型的训练方法及其相关设备,能够提高对人脸姿态是否过大和图像质量的检测准确性,从而提高后续应用效果。5.第一方面,提供了一种人脸质量检测模型的训练方法,该训练方法包括:6.获取人脸训练图像,所述人脸训练图像标注有分类结果和质量得分,所述分类结果用于指示人脸姿态是否过大,所述质量得分用于指示图像质量情况;7.根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型;所述初始人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络,所述编码网络的输入端接收所述人脸训练图像,输出端分别与所述人脸姿态分类网络和所述人脸质量检测网络相连接,所述编码网络用于提取特征,所述人脸姿态分类网络用于预测分类结果,所述人脸质量检测网络用于预测质量得分。8.其中,编码网络基于卷积神经网络生成。9.在本技术实施例提供的训练方法中,既考虑了图像中的人脸姿态对人脸图像检测的影响,又考虑的图像质量对人脸图像检测的影响。其中,通过将人脸姿态仅划分为是否过大,降低了网络的复杂度和学习难度,在满足需要的同时预测精度更好;并且,有利于在进行人脸图像的检测时,筛选掉人脸偏转角度过大或者说人脸姿态过大的图像,保留人脸姿态正常的图像,从而可以提高人脸质量检测的精确性。10.需要说明的是,训练得到的中间人脸质量检测模型可以在人脸检测质量方法中进行应用。在应用时,将中间人脸质量检测模型更改为:已训练的编码网络、已训练的人脸姿态分类网络和已训练的人脸质量检测网络依次级联,此时,应用时的内部结构与训练时的结构不同。11.在一种可能的实现方式中,根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型,包括:12.根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸姿态分类网络,预测分类结果;13.基于标注的分类结果和预测的分类结果,确定人脸姿态分类损失值;14.根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸质量检测网络,预测质量得分;15.基于标注的质量得分和预测的质量得分,确定图像质量回归损失值;16.根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量检测模型进行训练,得到所述中间人脸质量检测模型。17.人脸姿态分类损失值用于指示标注的分类结果与利用初始人脸质量检测模型预测的分类结果之间的差异程度。图像质量回归损失值用于指示标注的质量得分与利用初始人脸质量检测模型预测的质量得分之间的差异程度。18.在该实现方式中,由于人脸图像信息的质量不好主要受人脸姿态和人脸图像本身质量的影响,对此,本技术结合人脸姿态和图像质量两方面来对初始人脸质量检测模型进行训练,以使得后续应用于检测时,可以人脸姿态是否过大和图像质量进行准确的判断。19.在一种可能的实现方式中,根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量检测模型进行训练,得到所述中间人脸质量检测模型,包括:20.对所述人脸姿态分类损失值分配第一权重;21.对所述图像质量回归损失值分配第二权重;22.根据所述人脸姿态分类损失值、所述图像质量回归损失值、所述第一权重和所述第二权重,得到第一目标损失值;23.基于所述第一目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。24.在该实现方式中,通过对人脸姿态分类损失值和图像质量回归损失值分配权重,可以实现人脸姿态分类网络的分类任务和人脸质量检测网络的计算得分任务在训练过程中的平衡。25.在一种可能的实现方式中,所述初始人脸质量检测模型还包括辅助网络;所述编码网络、所述人脸质量检测网络均与所述辅助网络相连接;26.所述方法还包括:27.获取人脸训练图像对应的人脸参考图像,所述人脸参考图像锐化过度或包含伪纹理;28.根据所述人脸训练图像和所述人脸参考图像确定差值真值图像;29.根据所述人脸训练图像和所述人脸参考图像,利用所述初始人脸质量检测模型中的所述编码网络、所述人脸质量检测模型和所述辅助网络,确定差值特征图像;30.基于所述差值真值图像和所述差值特征图像,确定图像相似性损失值;31.所述根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型,包括:32.根据所述人脸姿态分类损失值、所述图像质量回归损失值和所述图像相似性损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型。33.在该实现方式中,不光考虑了图像中的人脸姿态对人脸图像检测影响,还考虑了图像质量对人脸图像检测的影响;此外,还考虑到了锐化过度或包含伪纹理等情况的图像对人脸图像检测的影响。由此,在训练过程中,不仅训练人脸姿态分类网络对人脸姿态是否过大进行分类检测,以及训练人脸质量检测网络对图像清晰度、亮度等进行检测,还通过增加和训练辅助网络,来优化人脸质量检测网络的特征提取能力和检测能力,从而可以在不影响模型测试性能的前提下,对锐化过度或包含伪纹理等特殊情况的图像也能实现准确的检测,综合考量图像的质量得分。34.在一种可能的实现方式中,根据所述人脸姿态分类损失值、所述图像质量回归损失值和所述图像相似性损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型,包括:35.对所述人脸质量分类损失值分配第一权重;36.对所述图像质量回归损失值分配第二权重;37.对所述图像相似性损失值分配第三权重;38.根据所述人脸姿态分配损失值、所述图像质量回归损失值、所述图像相似性损失值、所述第一权重、所述第二权重和所述第三权重,得到第二目标损失值;39.基于所述第二目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。40.在该实现方式中,通过对人脸姿态分类损失值、图像质量更回归损失值和图像相似性损失值分配权重,可以实现人脸姿态分配网络的分类任务、人脸质量检测网络的得分任务、以及辅助网络的特征提取任务在训练过程中的平衡。41.在一种可能的实现方式中,所述方法还包括:42.对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型;所述稀疏化训练用于指示对部分参数进行置0,所述目标人脸质量检测模型中已训练的编码网络、已训练的人脸姿态分类网络和已训练的人脸质量检测网络依次相连接。43.在该实现方式中,通过进行稀疏化训练,可以在基本不影响模型效果的前提下,减少冗余参数,达到加速的目的,而处理速度加快的人脸质量检测模型在后续应用时,可以提高实时性。44.在一种可能的实现方式中,针对由包括所述编码网络、所述人脸姿态分类网络和所述人脸质量检测网络的所述初始人脸质量检测模型训练得到的所述中间人脸质量检测模型,所述对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型,包括:45.对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;46.结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络和人脸质量检测网络依次进行稀疏化训练,得到所述目标人脸质量检测模型。47.在该实现方式中,此处先针对编码网络进行稀疏化训练,再对各个网络支路进行稀疏化训练,可以尽可能提高整体稀疏度的情况下,减小人脸质量检测模型最终的效果的损失。48.在一种可能的实现方式中,针对由包括所述编码网络、所述人脸姿态分类网络、所述人脸质量检测网络和辅助网络的所述初始人脸质量检测模训练得到的所述中间人脸质量检测模型,所述对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型,包括:49.对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;50.结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络、人脸质量检测网络、辅助网络进行稀疏化训练,得到所述目标人脸质量检测模型。51.在该实现方式中,此处先针对编码网络进行稀疏化训练,再对各个网络支路进行稀疏化训练,可以尽可能提高整体稀疏度的情况下,减小人脸质量检测模型最终的效果的损失。52.在一种可能的实现方式中,所述人脸姿态分类网络包括依次相连接的第一卷积层和第一全连接层;53.所述第一卷积层用于提取特征,所述第一全连接层用于对所述第一卷积层提取的特征进行分类,预测分类结果。54.在该实现方式中,基于第一卷积层和第一全连接层实现分类结果的精准预测。55.在一种可能的实现方式中,所述人脸质量检测网络包括依次相连接的第二卷积层和第二全连接层;56.所述第二卷积层用于提取特征,所述第二全连接层用于对所述第二卷积层提取的特征进行计算,预测质量得分。57.在该实现方式中,基于第二卷积层和第二全连接层实现质量得分的精准预测。58.在一种可能的实现方式中,辅助网络包括依次相连接第三卷积层、拼接层和第四卷积层,所述拼接层的输入端还与所述第二卷积层的输出端相连接;59.所述第三卷积层用于提取特征,所述拼接层用于将所述第二卷积层提取的特征和所述第三卷积层提取的特征进行拼接,所述第四卷积层用于对拼接的特征进行特征提取。60.在该实现方式中,基于辅助网络中的第三卷积层、拼接层和第四卷积层实现对人脸质量检测网络的辅助,实现更精准的预测。61.第二方面,提供了一种人脸质量检测方法,应用于电子设备,该方法包括:62.开启相机应用程序;63.获取待检测人脸图像;64.利用如第一方面或者第一方面中的任意一种实现方式中的训练方法得到的目标人脸质量检测模型,对所述待检测人脸图像进行检测,确定满足预设条件的待检测人脸图像;所述预设条件为分类结果为人脸姿态没有过大,且质量得分大于质量得分阈值。65.在本技术实施例中,基于不包括辅助网络确定的目标人脸质量检测模型在检测时,可以针对待检测人脸图像中的人脸姿态是否过大和图像质量进行精准检测。66.基于包括辅助网络确定的目标人脸质量检测模型,相对于基于不包括辅助网络确定的目标人脸质量检测模型在检测时,可以对锐化过度或者包含伪纹理等特殊情况的待检测人脸图像进行更好的检测。67.此外,无论是基于包括辅助网络确定的目标人脸质量检测模型,相对于基于不包括辅助网络确定的目标人脸质量检测模型,由于目标人脸质量检测模型是经过稀疏化训练后得到的,所以,目标人脸质量检测模型部署在电子设备上,运行速度也非常快,检测效率和检测效果均可以得到平衡和保障。68.第三方面,提供了一种训练装置,包括用于执行第一方面或者第一方面中的任意一种实现方式中的人脸质量检测模型的训练方法的模块/单元。69.第四方面,提供了一种人脸质量检测装置,包括用于执行第二方面或者第二方面中的任意一种实现方式中的人脸质量检测方法的模块/单元。70.第五方面,提供一种训练装置,包括一个或多个处理器和存储器;所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述训练装置执行第一方面或者第一方面中的任意一种实现方式中的人脸质量检测的训练方法。71.第六方面,提供一种人脸质量检测装置,包括一个或多个处理器和存储器;所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述人脸质量检测装置执行第二方面或者第二方面中的任意一种实现方式中的人脸质量检测方法。72.第七方面,提供了一种芯片系统,所述芯片系统应用于电子设备,所述芯片系统包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行第一方面或者第一方面中的任意一种实现方式中的训练方法;和/或,执行第二方面或第二方面中的任意一种实现方式中的人脸质量检测方法。73.第八方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面或者第一方面中的任意一种实现方式中的训练方法;和/或,执行第二方面或第二方面中的任意一种实现方式中的人脸质量检测方法。74.第九方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面或者第一方面中的任意一种实现方式中的训练方法;和/或,执行第二方面或第二方面中的任意一种实现方式中的人脸质量检测方法。附图说明75.图1是一种本技术实施例适用的应用场景;76.图2是另一种本技术实施例适用的应用场景;77.图3是本技术实施例提供的一种第一人脸质量检测模型的结构示意图;78.图4是图3中的第一人脸质量检测模型的内部结构示意图;79.图5是图3对应的训练方法的流程示意图;80.图6是本技术实施例提供的一种第三人脸质量检测模型的结构示意图;81.图7是图6中的第三人脸质量检测模型的内部结构示意图;82.图8是一种确定图像相似性损失值的流程示意图;83.图9是图6对应的训练方法的流程示意图;84.图10是本技术实施例提供的一种优化训练的流程示意图;85.图11是本技术实施例提供的一种人脸质量检测方法的流程示意图;86.图12是一种适用于本技术的电子设备的硬件系统的示意图;87.图13是一种适用于本技术的电子设备的软件系统的示意图;88.图14是本技术实施例提供的一种训练装置的结构示意图;89.图15是本技术实施例提供的一种人脸质量检测装置的结构示意图;90.图16是本技术实施例提供的一种芯片的结构示意图。91.附图标记:92.10-支付界面;20-第一显示界面;21-取景框;22-控件;23-第二显示界面;24-美肤选项。具体实施方式93.在本技术的实施例中,以下术语“第一”、“第二”、“第三”、“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。94.为了便于对本技术实施例的理解,首先对本技术实施例中涉及的相关概念进行简要说明。95.1.神经网络96.神经网络是指将多个单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入;每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。97.2.卷积神经网络98.卷积神经网络(convolutionalneuronnetwork,cnn)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器;卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。99.3.反向传播算法100.神经网络可以采用误差反向传播(backpropagation,bp)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,用于得到最优的神经网络模型的参数;例如,权重矩阵。101.以上是对本技术实施例所涉及的名词的简单介绍,以下不再赘述。102.随着多媒体技术和网络技术的飞速发展和广泛应用,人们在日常生活和生产活动中大量的使用人脸图像信息。103.例如,图1示出了一种适用于本技术的应用场景。图1也可以称为刷脸支付场景。104.如图1所示,以电子设备100为支付设备进行举例说明。假设用户在超市进行支付时,用户可以在支付设备显示的显示界面中选择进行“刷脸支付”。此时,响应于用户的点击操作,支付设备可以开启相机模组,采集人脸图像后,进行支付事件的相应处理,并在支付界面10上显示所采集的人脸图像,以及提示用户正在支付中。当支付事件处理完成后,关闭相机模组,提示支付成功。105.又例如,图2示出了另一种适用于本技术的应用场景。图2也可以称为自拍场景。106.如图2所示,以电子设备100为手机进行举例说明。假设用户需要利用电子设备100的前置镜头录制包括自己人脸图像信息的视频。此时,响应于用户针对相机应用程序的点击操作,手机可以开启相机应用程序,显示如图2中的(a)所示的录像模式下的第一显示界面20。107.该第一显示界面20可以包括取景框21、用于指示开启美颜处理的控件22。在检测到用户点击控件22之前,该取景框21内可以显示包括人脸的预览图像。响应于用户针对控件22的点击操作,手机可以开启美颜功能,显示如图2中的(b)所示的第二显示界面23。108.该第二显示界面23可以包括取景框21和美肤选项24,该美肤选项24以滑动轴的形式显示,比如,左端点用于指示美肤程度为0,右端点用于指示美肤程度为10。响应于用户针对美肤选项24从左到右的滑动操作时,手机可以针对人脸信息进行越来越强的美肤处理(美白、磨皮等);响应于用户针对美肤选项24从右到左的滑动操作时,手机可以针对人脸信息进行越来越弱的美肤处理。109.然而,进行上述示例的应用时,人脸图像信息的质量都会不同程度的影响应用的效果。比如在刷脸支付场景中,如果人脸图像信息的质量不好,将可能出现多次无法支付成功的情况,影响用户购物体验。又比如在自拍场景中,如果人脸图像信息的质量不好,将可能出现美肤处理的位置错误,或者,美肤处理的效果不均匀等问题。110.通过分析可以得出,上述人脸图像信息的质量不好主要受两方面影响,一方面为人脸姿态的影响,另一方面为人脸图像本身质量的影响。其中,如果人脸姿态角度过大,会很大程度影响人脸对齐、人脸识别的结果,而如果人像图像本身质量过差,则可能会导致修复时,出现伪纹理的问题,也即可能将修复的清晰的特征放置在错误的位置的问题。所以,在进行上述示例的应用之前,需要一个针对人脸质量能进行检测的模块,以对人脸图像进行筛选,将筛选出的符合要求的高质量人脸图像再进行后续应用。111.那么,如何进行人脸图像质量检测,并提高人脸图像质量检测的检测准确性,成为了一个亟需解决的问题。112.有鉴于此,本技术实施例提供一种人脸质量检测模型的训练方法和人脸质量检测方法,在训练人脸质量检测模型时,除了训练判断人脸姿态是否过大的分类能力和确定人脸图像质量得分的计算能力,还增加了辅助网络,用于训练针对锐化过度或包含伪纹理的图像的特征提取能力,进而辅助提高确定人脸图像质量的计算能力。113.基于本技术训练得到的人脸质量检测模型,后续在进行应用时,可以通过人脸姿态分类网络来对人脸姿态是否过大进行分类,在确定人脸姿态没有过大的情况下,可以继续通过人脸质量检测网络确定质量得分,然后,结合人脸姿态的分类结果和质量得分可以筛选出高质量的人脸图像,进而后续能够更好的进行相应的决策和处理,使得整个应用功能逻辑更加完备合理。114.在检测时,由于人脸姿态分类网络和人脸质量检测网络是依次相连接的,输出可解释性更好。又由于本技术是对人脸姿态是否过大进行分类预测,所以可以降低网络的复杂度和学习难度,在满足应用需要的同时预测精度更好。此外,由于本技术在训练时增加了辅助网络以对锐化过度或包含伪纹理的图像确定质量得分进行了训练,所以在检测时,可以更好的针对锐化过度或包含伪纹理等特殊情况的图像来准确的确定质量得分,进而可以提高后续应用时人脸图像质量检测的准确性。115.通过上述描述可知,人脸图像信息的质量不好主要受人脸姿态和人脸图像本身质量的影响,对此,本技术实施例提供一种人脸质量检测模型(如第一人脸质量检测模型),以及相关的训练方法。通过利用该训练方法对第一人脸质量检测模型进行训练,可以使得训练出的第二人脸质量检测模型在后续应用时,具有较强的针对人脸姿态是否过大和人脸图像质量的检测能力。116.下面结合附图3至图5,对本技术实施例所提供的第一人脸质量检测模型的结构和第一人脸质量检测模型的训练过程进行介绍。117.图3示出了一种第一人脸质量检测模型的结构示意图,图4示出了图3所示的第一人脸质量检测模型的一种内部结构示意图。118.如图3和图4所示,本技术实施例提供的第一人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络。119.编码(encode)网络也可以称为主干(backbone)网络,编码网络的输入端接收人脸训练图像,输出端分别与人脸姿态分类网络和人脸质量检测网络连接;编码网络用于对输入的人脸训练图像进行特征提取,并将生成的特征向量分别输出给人脸姿态分类网络和人脸质量检测网络。120.人脸姿态分类网络用于确定分类结果,即确定人脸姿态是否过大。人脸姿态指的是用户脸部在参考坐标系(例如,地理坐标系)中的姿态。例如包括用户绕颈转头的角度、点头或抬头所形成的角度和左右摇头所形成的角度。角度越小,人脸姿态越小,属于正常状态;角度越大,人脸姿态越大,大到一定程度(比如大于预设的角度阈值),则可以认为人脸姿态过大。121.人脸质量检测网络用于确定图像的质量得分。质量得分用于指示图像清晰度和亮度情况,质量得分越大,图像亮度越亮、内容越清晰,图像质量相应越好;反之,质量得分越小,图像亮度越暗、内容越模糊,图像质量相应越差。122.应理解,在训练阶段,编码网络分别与人脸姿态分类网络和人脸质量检测网络连接,相当于,人脸姿态分类网络和人脸质量检测网络为并联结构,互不干扰。123.可选地,编码网络可以为卷积神经网络(convolutionalneuralnetwork,cnn),用于提取图像的特征向量。当然,编码网络也可以为其他网络,本技术实施例对此不进行任何限制。124.可选地,如图4所示,人脸姿态分类网络可以包括相连接的第一卷积层和第一全连接层。当然,人脸姿态分类网络也可以为其他结构,本技术实施例对此不进行任何限制。125.第一卷积层用于提取特征;第一全连接层用于对第一卷积层提取的特征进行分类,预测分类结果,即预测人脸姿态是否过大。126.可选地,如图4所示,人脸质量检测网络可以包括相连接的第二卷积层和第二全连接层。当然,人脸质量检测网络也可以为其他结构,本技术实施例对此不进行任何限制。127.第二卷积层用于提取特征;第二全连接层用于对第二卷积层提取的特征进行计算,预测相应的质量得分。128.结合图3和图4所示的第一人脸质量检测模型的结构,图5提供了一种针对第一人脸质量检测模型的训练方法,该方法10包括以下s11至s16。129.s11、获取人脸训练图像,人脸训练图像标注有分类结果(人脸姿态过大或人脸姿态没有过大)和质量得分。130.人脸训练图像即为需要进行质量检测训练的人脸图像。人脸训练图像可以为位于rgb域的彩色图像、位于raw域的拜耳格式图像、位于yuv域的灰度图像等,本技术对人脸训练图像的格式不进行限制。131.人脸训练图像可以为电子设备中的相机模组拍摄得到的图像,也可以为从电子设备内部获得的图像(例如,电子设备的相册中存储的图像,或者,电子设备从云端获取的图像),或者,是从其他设备获取的图像,本技术实施例对此不进行限制。132.应理解,为了提高训练后的模型检测效果,可以选择具有差异化的多帧人脸训练图像来进行训练,例如,多帧人脸训练图像包括不同的人脸姿态,和/或,不同的质量。133.可选地,若获取的训练图像,并不知道其是否包括人脸信息,则可以先利用人脸检测技术对训练图像进行人脸检测,筛选出其中包括人脸信息的训练图像来作为人脸训练图像进行训练。134.基于此,在一种示例中,在利用人脸检测技术确定到训练图像包括人脸信息时,可以通过抓取训练图像中的关键点(例如,内眼角点、外眼角点、鼻尖点、鼻孔点、口角点、头顶点、眉内心和眉外心等)来判断人脸姿态值。然后,通过确定人脸姿态值是否大于预设姿态阈值来判断人脸姿态是否过大并进行标注。人脸姿态值可以包括人脸俯仰角(omega)、人脸偏航角(phi)和人脸翻滚角(kappa)。135.在本技术的实施例中,该三个角用于分别指示用户脸部(可以视为头部)分别为绕着x、y和z轴旋转的角度。翻滚角用于指示用户绕颈转头的角度;俯仰角用于指示用户点头或抬头所形成的角度;偏航角用于指示用户左右摇头所形成的角度。136.其中,人脸俯仰角、人脸偏航角和人脸翻滚角中的任一个角度越大,说明人脸在该角度对应的轴向上转动幅度越大;当任一个角度越小,说明人脸姿态在该角度对应的轴向上转动幅度越小。137.而质量得分,可以通过相关的图像处理方法,来确定质量得分并进行标注。例如,可以基于图像梯度确定清晰度值,又基于图像的像素均值确定亮度值,然后,综合清晰度值和亮度值,来确定质量得分并进行标注。138.在另一种示例中,当确认出训练图像包括人脸信息后,也可以通过用户观察的方式来对人脸姿态是否过大进行分类判断,以及对质量进行判断,并进行手动标注。139.示例性地,当确定人脸训练图像a1中的人脸姿态正常、清晰度和亮度等情况较差时,可以在人脸训练图像a1上标注“否”,表示人脸姿态没有过大,并标注质量得分为0.3;当确定人脸训练图像a2的人脸姿态正常、清晰度和亮度等情况较好时,可以在人脸训练图像a2上标注“否”,表示人脸姿态没有过大,并标注质量得分为0.6;当确定人脸训练图像a3的人脸姿态过大、但清晰度和亮度等情况非常好时,可以在人脸训练图像a3上标注“是”,表示人脸姿态过大,并标注质量得分为0.8。140.应理解,上述仅为两种示例,具体标注的方法可以根据需要进行设置和修改,本技术实施例对此不进行任何限制。141.上述s12又可以表述为:获取人脸训练图像,并标注分类结果(人脸姿态过大或人脸姿态没有过大)和质量得分。或者,获取标注有分类结果(人脸姿态过大或人脸姿态没有过大)和质量得分的人脸训练图像。142.s12、根据人脸训练图像,利用第一人脸质量检测模型中的编码网络和人脸姿态分类网络,预测分类结果。143.在本技术实施例中,人脸姿态的检测可以定义为分类问题,输出结果为“是”或“否”。144.由此,上述s12又可以表述为:将一帧或多帧人脸训练图像输入第一人脸质量检测模型中,训练人脸姿态分类网络的分类能力,确定人脸训练图像中的人脸姿态过大,若人脸姿态正常,没有过大,则可以输出“否”,以表示人脸姿态没有过大;若人脸姿态过大,则可以输出“是”,以表示人脸姿态过大。145.s13、根据人脸训练图像,利用第一人脸质量检测模型中的编码网络和人脸质量检测网络,预测质量得分。146.在本技术实施例中,人脸图像质量的检测可以定义为回归问题,需要计算人脸训练图像的质量得分。由此,上述s13又可以表述为:将一帧或多帧人脸训练图像输入第一人脸质量检测模型中,训练人脸质量检测网络的计算能力,确定预测的质量得分。147.s14、基于标注的分类结果和预测的分类结果,确定人脸姿态分类损失值;基于标注的质量得分和预测的质量得分,确定图像质量回归损失值。148.人脸姿态分类损失值用于指示标注的分类结果与利用第一人脸质量检测模型预测的分类结果之间的差异程度。当差异较大,也即人脸姿态分类损失值较大时,此时说明第一人脸质量检测模型中针对人脸姿态的预测能力较差;当差异较小,也即人脸姿态分类损失值较小时,此时说明第一人脸质量检测模型中针对人脸姿态的预测能力较好。149.图像质量回归损失值用于指示标注的质量得分与利用第一人脸质量检测模型预测的质量得分之间的差异程度。当差异较大,也即图像质量回归损失值较大时,此时说明第一人脸质量检测模型中针对图像质量的预测能力较差;当差异较小,也即图像质量回归损失值较小时,此时说明第一人脸质量检测模型中针对图像质量的预测能力较好。150.s15、对人脸姿态分类损失值和图像质量回归损失值分配权重;根据分配的权重,对该两个损失值进行线性叠加,得到总的损失值。151.应理解,通过对人脸姿态分类损失值和图像质量回归损失值分配权重,可以实现人脸姿态分类网络的分类任务和人脸质量检测网络的计算得分任务在训练过程中的平衡。152.其中,对人脸姿态分类损失值分配的权重和对图像质量回归损失值分配的权重大小可以相同,也可以不同,具体可以根据需要进行设置和修改,本技术实施例对此不进行任何限制。153.针对人脸姿态分类损失值分配的权重可以称为第一权重,针对图像质量回归损失值分配的权重可以称为第二权重;根据脸姿态分类损失值、图像质量回归损失值、第一权重和第二权重计算得到的总的损失值,可以称为第一目标损失值。154.s16、基于该总的损失值对第一人脸质量检测模型以反向传播算法进行训练,得到第二人脸质量检测模型。155.示例性地,人脸姿态分类损失值为loss_cls,图像质量回归损失值为loss_reg,针对人脸姿态分类损失值分配的权重为a1,针对图像质量回归损失值分配的权重为a2,由此,可以计算得到总的损失值为loss_cls×a1+loss_reg×a2。然后,基于该总的损失值可以对第一人脸质量检测模型进行训练,调整第一人脸质量检测模型中的参数,使其总的损失值收敛,进而可以将训练好的模型称为第二人脸质量检测模型。156.本技术实施例提供的第一质量检测模型和训练方法,既考虑了图像中的人脸姿态对人脸图像检测的影响,又考虑的图像质量对人脸图像检测的影响。其中,通过将人脸姿态仅划分为是否过大,降低了网络的复杂度和学习难度,在满足需要的同时预测精度更好;并且,有利于在进行人脸图像的检测时,筛选掉人脸偏转角度过大或者说人脸姿态过大、质量较差的图像,保留人脸姿态正常、质量较高的图像,从而可以提高后续人脸质量检测的精确性。157.上述介绍了第一人脸质量检测模型,以及相关的训练方法,通过利用该训练方法对第一人脸质量检测模型进行训练,可以使得训练出的第二人脸质量检测模型在后续应用时,具有较强的针对人脸姿态和人脸图像质量的检测能力。由于第一人脸质量检测模型中的人脸质量检测网络,针对人脸图像质量的检测是通过对图像的清晰度、亮度这些维度进行训练的,所以训练出的第二人脸质量检测模型在后续应用时,对输入的人脸图像的清晰度、亮度可以进行较好的判断,但是,若输入的人脸图像是过度锐化(也可称为过锐)或者包含伪纹理等情况,则不能进行很好的检测,结果不符合预期和实际应用的需要,而这种类型的人脸图像在实际应用场景中往往又特别多。158.对此,本技术实施例还提供一种人脸质量检测模型(如第三人脸质量检测模型),以及相关的训练方法。通过利用该训练方法对第三人脸质量检测模型进行训练,可以使得训练出的第四人脸质量检测模型在后续应用,针对过锐或包含伪纹理等特殊情况的人脸图像,也能具有较好的检测能力,能对图像的综合情况进行正确的得分计算。159.下面结合附图6至图9,对本技术实施例所提供的第三人脸质量检测模型的结构和第三人脸质量检测模型的训练过程进行介绍。160.图6示出了一种第三人脸质量检测模型的结构示意图,图7示出了图6所示的第三人脸质量检测模型的一种内部结构示意图。161.如图6和图7所示,本技术实施例提供的第三人脸质量检测模型包括编码网络、人脸姿态分类网络、人脸质量检测网络和辅助网络。162.编码网络的输入端接收人脸训练图像,输出端分别与人脸姿态分类网络和人脸质量检测网络、以及辅助网络相连接;编码网络用于对输入的人脸训练图像进行特征提取,并将生成的特征向量分别输出给人脸姿态分类网络、人脸质量检测网络和辅助网络。163.人脸姿态分类网络和人脸质量检测网络的介绍与第一人脸质量检测模型中的介绍相同,在此不再赘述。164.辅助网络用于对过锐或包含伪纹理等情况的人脸图像进行特征提取。165.应理解,在训练阶段,在第三人脸质量检测模型中可以增加辅助网络来提高特征提取,用来优化人脸质量检测网络的检测能力,而在后续应用阶段,则不包括和使用辅助网络。166.可选地,如图7所示,辅助网络可以包括相连接的第三卷积层、拼接层和第四卷积层,拼接层还与人脸质量检测网络中的第二卷积层的输出端相连接。167.第三卷积层用于提取特征;拼接层用于将人脸质量检测网络中第二卷积层提取的特征和第三卷积层提取的特征进行拼接;第四卷积层用于将拼接后的特征继续进行卷积。168.应理解,辅助网络中增设第四卷积层,可以提高辅助网络的特征表达能力。169.上述仅为一种辅助网络的示例,辅助网络还可以包括其他结构,或者包括其他的组合形式,本技术实施例对此不进行任何限制。170.结合图6和图7所示的第三人脸质量检测模型的结构,图9提供了一种针对第三人脸质量检测模型进行训练的训练方法,该方法20包括以下s21至s29。171.s21、获取人脸训练图像,人脸训练图像标注有分类结果(人脸姿态过大或人脸姿态没有过大)和质量得分。172.针对该步骤,可以参考上述s11中的描述,在此不再赘述。173.s22、获取人脸训练图像对应的人脸参考图像,并根据人脸训练图像和人脸参考图像确定差值真值图像;该人脸参考图像锐化过度或包含伪纹理。174.锐度是指反映图像边缘锐利程度的一个指标,锐化过度指的是图像边缘锐利程度或者说锐度已经大于锐度阈值,产生了不好的视觉效果。例如,针对雪地场景或者水流场景,锐化过度将会破坏雪地或水流的平滑感。同理,人脸参考图像锐化过度指的是人脸参考图像中的内容平滑感被破坏,图像边缘过于锐利。175.伪纹理指的是将修复的清晰的特征放置在错误的位置。例如,人脸训练图像中的人脸在眉毛上方有一处阴影,利用相关图像处理方法进行处理时,可能会出现将该阴影误当作眉毛进行修复的情况,从而导致人脸上出现了多余的错误的眉毛信息,该错误的眉毛信息即为伪纹理。176.应理解,根据人脸训练图像和人脸参考图像,可以通过确定相同位置处的像素的像素值差值的方式,来确定出相应的差值真值图像。差值真值图像用于指示人脸训练图像和人脸参考图像之间的差异程度。177.s23、根据人脸训练图像,利用第三人脸质量检测模型中的编码网络和人脸姿态分类网络,预测分类结果(人脸姿态过大或人脸姿态没有过大)。178.s24、根据人脸训练图像,利用第三人脸质量检测模型中的编码网络和人脸质量检测网络,预测质量得分。179.s25、基于标注的分类结果和预测的分类结果,确定人脸姿态分类损失值;基于标注的质量得分和预测的质量得分,确定图像质量回归损失值。180.针对s23、s24和s25,可以参考上述s12、s13和s14中的描述,在此不再赘述。181.s26、根据人脸训练图像和人脸参考图像,利用编码网络、人脸质量检测模型和辅助网络,确定差值特征图像。182.其中,辅助网络可以将编码网络提取的特征进行卷积,然后将卷积后的特征与人脸质量检测网络中的第二卷积层提取的特征进行拼接,并将拼接后的特征再次卷积,由此,可以得到差值特征图像。183.差值特征图像用于指示利用辅助网络预测出的人脸训练图像和人脸参考图像的差异程度。184.s27、根据差值真值图像和差值特征图像,确定图像相似性损失值。185.此处,可以利用结构相似性(structuralsimilarityindex,ssim)算法或基于ssim算法变换而来的其他算法,来作为确定图像相似性损失值的计算方法。186.需要说明的是,本技术不选择使用mse算法来确定图像相似性损失值,是因为mse算法计算得到的图像相似性损失值不足以表达人眼视觉系统对图像的直观感受。例如,有时候两帧人脸训练图像只是亮度不同,但是,利用mse算法计算得到的图像相似性损失值却很大,表示两帧人脸训练图像差异很大,反而针对一组模糊的和很清晰的人脸训练图像,计算得到的图像相似性损失值却很小。187.相对于此,利用ssim算法来确定图像相似性损失值时,ssim算法可以从图像的亮度、对比度和结构相似性三个方面综合考量差值真值图像和差值特征图像的相似性,判断的结果更符合人眼的主观视觉感受。188.示例性地,图8示出了一种确定图像相似性损失值的流程示意图。189.如图8所示,根据人脸训练图像ig,构造其对应的人脸参考图像ig(ref),该人脸参考图像锐化过度或包含伪纹理。根据人脸训练图像ig和人脸参考图像ig(ref)通过确定相同位置处的像素的像素值差值,可以确定出对应的差值真值图像ig(diff)。190.同时,将人脸训练图像ig和人脸参考图像ig(ref)输入编码网络进行特征提取,再将人脸训练图像ig提取的特征输入人脸质量检测网络中的第二卷积层进行处理,以及将人脸参考图像ig(ref)提取的特征输入辅助网络中的第三卷积层进行处理,将两者处理后的特征信息再同时输入至辅助网络中的拼接层进行特征拼接,然后,将拼接后的特征经第四卷积层再次提取特征进行处理后输出,输出结果即为差值特征图像ig(diff)'。基于两种方式确定出的差值真值图像和差值特征图像,利用ssim算法确定两者之间的图像相似性损失值。191.s28、对人脸姿态分类损失值、图像质量回归损失值和图像相似性损失值分配权重,对该三个损失值进行线性叠加,得到总的损失值。192.应理解,通过对人脸姿态分类损失值、图像质量更回归损失值和图像相似性损失值分配权重,可以实现人脸姿态分配网络的分类任务、人脸质量检测网络的得分任务、以及辅助网络的特征提取任务在训练过程中的平衡。193.其中,对人脸姿态分类损失值分配的权重、对图像质量回归损失值分配的权重大小和对图像相似性损失值分配的权重大小可以相同,也可以不同,具体可以根据需要进行设置和修改,本技术实施例对此不进行任何限制。194.s29、基于该总的损失值对第三人脸质量检测模型进行训练,得到第四人脸质量检测模型。195.示例性地,人脸姿态分类损失值为loss_cls,图像质量回归损失值为loss_reg,图像相似性损失值为loss_aux,针对人脸姿态分类损失值分配的权重为a1,针对图像质量回归损失值分配的权重为a2,针对图像相似性损失值分配的权重为a3;由此,可以计算得到总的损失值为loss_cls×a1+loss_reg×a2+loss_aux×a3。然后,基于该总的损失值可以对第三人脸质量检测模型进行训练,调整第三人脸质量检测模型中的参数,使其总的损失值收敛,进而可以将训练好的模型称为第四人脸质量检测模型。196.本技术实施例提供的第三质量检测模型和训练方法,不光考虑了图像中的人脸姿态对人脸图像检测影响,还考虑了图像质量对人脸图像检测的影响;此外,还考虑到了锐化过度或包含伪纹理等情况的图像对人脸图像检测的影响。由此,在训练过程中,不仅训练人脸姿态分类网络对人脸姿态是否过大进行分类检测,以及训练人脸质量检测网络对图像清晰度、亮度等进行检测,还通过增加和训练辅助网络,来优化人脸质量检测网络的特征提取能力和检测能力,从而可以在不影响模型测试性能的前提下,对锐化过度或包含伪纹理等特殊情况的图像也能实现准确的检测,综合考量图像的质量得分。197.上述介绍了第三人脸质量检测模型,以及相关的训练方法,通过利用该训练方法对第三人脸质量检测模型进行训练,可以使得训练出的第四人脸质量检测模型在后续应用时,具有较强的针对人脸姿态和人脸图像质量,以及图像锐化过渡或包含伪纹理等特殊情况的检测能力。198.但是,由于这一检测过程为图像应用之前的预处理过程,并且,训练好的模型常常需要部署在移动端设备上,因此,还需要对人脸质量检测模型的实时性进行考虑。199.对此,本技术实施例在图5和图9的基础上,可以继续对第二人脸质量检测模型和第四人脸质量检测模型继续进行训练,优化模型的性能,使得模型在后续应用过程中的检测速度可以提高,以满足其实时性的需求。200.图10为本技术实施例提供的一种针对第二人脸质量检测模型或第四人脸质量检测模型进行优化的过程示意图。该方法30包括以下s31和s32。201.s31、对编码网络进行稀疏化训练。202.稀疏化训练指的是增加参数中0的数量,以加快网络的推理速度。203.上述s31又可以表述为:把编码网络中的部分参数置0,进行训练,检测训练后的第二人脸质量检测模型或第四人脸质量检测模型是否能满足原有的针对人脸姿态和人脸图像质量的检测需求。204.在满足检测需求的基础上,还可以继续迭代训练,并逐步扩大编码网络中置0的参数范围,使得更多的参数设置成0。在0的比例达到第一比例时,以及检测的效果也满足要求,两者平衡的情况下,可以确认编码网络已经达到稀疏化的较好效果了,此时,可以将编码网络的参数冻结,作为后续应用时的编码网络的初始化参数。205.其中,第一比例可以根据需要进行设置和修改,本技术实施例对此不进行任何限制。例如,第一比例为60%或80%。206.s32、结合稀疏化训练后的编码网络,对各个网络支路进行稀疏化训练,得到目标人脸质量检测模型。207.上述s32又可以表述为:针对第二人脸质量检测模型,结合设置成初始化参数的编码网络,继续针对人脸姿态分类网络和人脸质量检测网络进行稀疏化训练,此时,可以将人脸姿态分类网络和人脸质量检测网络中的部分参数置0,进行训练,检测训练后的第二人脸质量检测模型是否能满足原有的针对人脸姿态和人脸图像质量的检测需求。208.针对第四人脸质量检测模型,结合设置成初始化参数的编码网络,继续针对人脸姿态分类网络、人脸质量检测网络,以及辅助网络进行稀疏化训练,此时,可以将人脸姿态分类网络和人脸质量检测网络、辅助网络中的部分参数置0,进行训练,检测训练后的第四人脸质量检测模型是否能满足原有的针对人脸姿态和人脸图像质量、以及针对锐化过度和包括伪纹理等特殊情况的图像的检测需求。209.在满足检测需求的基础上,还可以继续迭代训练,并逐步扩大各个网络支路中置0的参数范围,使得更多的参数设置成0。在0的比例达到一定第二比例,以及检测的效果也满足要求,两者平衡的情况下,可以确认各个网络支路已经达到稀疏化的较好效果了,此时,可以将各个网络支路的参数冻结,作为后续应用时的各个网络支路的初始化参数。210.其中,第二比例可以根据需要进行设置和修改,本技术实施例对此不进行任何限制。例如,第二比例为60%或80%。211.针对人脸姿态分类网络、人脸质量检测网络和辅助网络可以分别设置不同的第二比例,或者,也可以设置相同的第二比例,具体根据需要进行设置和调整,本技术实施例对此不进行任何限制。212.需要说明的是,此处先针对编码网络进行稀疏化训练,再对各个网络支路进行稀疏化训练,可以尽可能提高整体稀疏度的情况下,减小人脸质量检测模型最终的效果的损失。213.当然,针对人脸姿态分类网络、人脸质量检测网络和辅助网络的稀疏化训练,可以同时进行,也可以依次进行或者按照指定的执行顺序进行;针对编码网络和各个网络支路的稀疏化训练,可以同时进行,也可以依次进行或者按照指定的执行顺序进行,具体执行稀疏化训练的次序,本技术实施例对此不进行任何限制。214.本技术实施例提供的优化的训练步骤,通过对第二人脸质量检测模型中的编码网络、人脸姿态分类网络、人脸质量检测网络,或者,对第四人脸质量检测模型中的编码网络、人脸姿态分类网络、人脸质量检测网络和辅助网络进行稀疏化训练,从而可以在基本不影响模型效果的前提下,减少冗余参数,达到加速的目的,而处理速度加快的人脸质量检测模型在后续应用时,可以提高实时性。215.结合上述训练过程,针对第二人脸质量检测模型进行稀疏化训练之后,得到的目标人脸质量检测模型中,编码网络、人脸姿态检测网络和图像质量检测网络为依次相连接的状态。针对第四人脸质量检测模型进行稀疏化训练之后,得到的目标人脸质量检测模型中,不包括辅助网络,而且,编码网络、人脸姿态检测网络和图像质量检测网络为依次相连接的状态。216.这样,在利用目标人脸质量检测模型对人脸姿态角度进行检测时,如果判断到人脸姿态角度在正常范围内,也即人脸姿态正常,下一步再对人脸图像质量进行预测,根据质量得分结果再进行后续应用决策。217.下面结合图11对本技术实施例训练好的目标人脸质量检测模型的应用过程进行介绍。218.图11为本技术实施例提供的一种人脸质量检测方法的流程示意图。219.如图11所示,该方法40包括以下s41至s44。220.s41、电子设备开启相机应用程序。221.示例性地,用户可以通过单击“相机”应用程序的图标,指示电子设备开启相机应用。222.示例性地,电子设备处于锁屏状态时,用户可以通过在电子设备的显示屏上向右滑动的手势,指示电子设备开启相机应用。又或者,电子设备处于锁屏状态,锁屏界面上包括相机应用程序的图标,用户通过点击相机应用程序的图标,指示电子设备开启相机应用程序。又或者,电子设备在运行其他应用时,该应用具有调用相机应用程序的权限;用户通过点击相应的控件可以指示电子设备开启相机应用程序。例如,电子设备正在运行即时通信类应用程序时,用户可以通过选择相机功能的控件,指示电子设备开启相机应用程序等。223.示例性地,电子设备处于灭屏状态时,当用户靠近电子设备,电子设备中的红外传感器感应到用户距离电子设备一定范围内时,电子设备可以开启相机应用程序。224.应理解,上述为对开启相机应用程序的操作的举例说明;还可以通过语音指示操作,或者其它操作的指示电子设备开启相机应用程序,本技术对此不作任何限定。resolution,sr)、人脸美颜等领域。241.例如,通过本技术实施例中的人脸质量检测方法,在电子设备的相机模组采集图像后,可以检测图像中的人脸信息;基于该采集的包括人脸信息的图像,可以利用部署在电子设备中的目标人脸质量检测模型确定该图像中的人脸姿态是否过大;当人脸姿态没有过大时可以继续确定图像的质量得分,进而可以筛选出符合预设条件的高质量的人脸图像。若该人脸图像符合高质量人脸图像的标准,则可以应用于上述各个场景中,再继续对高质量的人脸图像进行识别、活体检测、肤色增强、超分、美颜等处理;若不符合,则可以提示用户进行调整,重新采集、重新检测。242.在一个示例中,本技术实施例提供的人脸质量检测方法可以应用于门禁、道闸、考勤机等;门禁、道闸或考勤机等探测到用户处于预设的距离范围内时,开启相机模组,采集人脸图像,利用本技术实施例提供的目标人脸质量检测模型对人脸图像进行检测,从而可以确定出人脸姿态没有过大,且图像质量得分较高的高质量人脸图像,然后,可以将其与存储的人脸图像库中的人脸图像进行对比,对比成功时,可以开启门禁、道闸,或进行考勤。由于目标人脸质量检测模型可以对人脸图像进行快速准确的检测,因此,开启门禁、道闸,或进行考勤的速度较快,效果较好。243.在一个示例中,本技术实施例提供的人脸质量检测方法可以应用于支付设备等;支付设备接收到用户针对“刷脸支付”的点击操作后,开启相机模组,采集人脸图像,利用本技术实施例提供的目标人脸质量检测模型对人脸图像进行检测,从而可以确定出人脸姿态没有过大,且图像质量得分较高的高质量人脸图像,然后,可以进行支付事件的相应处理。由于目标人脸质量检测模型可以对人脸图像进行快速准确的检测,因此,开启支付速度较快,效果较好。244.在一个示例中,本技术实施例提供的人脸质量检测方法可以应用于特效应用程序等;在对人脸拍摄时,电子设备调用特效应用程序,并开启相机模组,采集人脸图像,利用本技术实施例提供的目标人脸质量检测模型对人脸图像进行检测,从而可以确定出人脸姿态没有过大,且图像质量得分较高的高质量人脸图像,然后,响应于用户的特效选择,可以将在人脸区域进行肤色增强、美颜等处理,或者在人脸区域上增加装饰品、文字等其他效果,或者还可以对人脸信息进行变更等。由于目标人脸质量检测模型可以对人脸图像进行准确的检测,因此,更改特效的速度较快,效果较好。245.应理解,上述为对本技术实施例的应用场景的举例说明,并不对本技术的应用场景作任何限定。246.上文结合图1至图11详细描述了本技术实施例提供的人脸质量检测模型、人脸质量检测模型的训练方法和人脸质量检测方法;下面将结合图12至图16详细描述本技术的电子设备的硬件系统、软件系统、装置以及芯片。应理解,本技术实施例中的电子设备的硬件系统、软件系统、装置以及芯片均可以执行前述本技术实施例对应的方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。247.图12示出了一种适用于本技术的电子设备的硬件系统。248.电子设备100可以是手机、智慧屏、平板电脑、可穿戴电子设备、车载电子设备、增强现实(augmentedreality,ar)设备、虚拟现实(virtualreality,vr)设备、笔记本电脑、超级移动个人计算机(ultra-mobilepersonalcomputer,umpc)、上网本、个人数字助理(personaldigitalassistant,pda)、投影仪等等,本技术实施例对电子设备100的具体类型不作任何限制。249.电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universalserialbus,usb)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170a,受话器170b,麦克风170c,耳机接口170d,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriberidentificationmodule,sim)卡接口195等。其中传感器模块180可以包括压力传感器180a,陀螺仪传感器180b,气压传感器180c,磁传感器180d,加速度传感器180e,距离传感器180f,接近光传感器180g,指纹传感器180h,温度传感器180j,触摸传感器180k,环境光传感器180l,骨传导传感器180m等。250.需要说明的是,图12所示的结构并不构成对电子设备100的具体限定。在本技术另一些实施例中,电子设备100可以包括比图12所示的部件更多或更少的部件,或者,电子设备100可以包括图12所示的部件中某些部件的组合,或者,电子设备100可以包括图12所示的部件中某些部件的子部件。图12示的部件可以以硬件、软件、或软件和硬件的组合实现。251.处理器110可以包括一个或多个处理单元。例如,处理器110可以包括以下处理单元中的至少一个:应用处理器(applicationprocessor,ap)、调制解调处理器、图形处理器(graphicsprocessingunit,gpu)、图像信号处理器(imagesignalprocessor,isp)、控制器、视频编解码器、数字信号处理器(digitalsignalprocessor,dsp)、基带处理器、神经网络处理器(neural-networkprocessingunit,npu)。其中,不同的处理单元可以是独立的器件,也可以是集成的器件。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。252.处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。253.示例性地,处理器110可以用于执行本技术实施例的人脸质量检测模型的训练方法。254.例如,处理器110可以用于获取人脸训练图像,所述人脸训练图像标注有分类结果和质量得分,所述分类结果用于指示人脸姿态是否过大,所述质量得分用于指示图像质量情况;255.根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型;所述初始人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络,所述编码网络的输入端接收所述人脸训练图像,输出端分别与所述人脸姿态分类网络和所述人脸质量检测网络相连接,所述编码网络用于提取特征,所述人脸姿态分类网络用于预测分类结果,所述人脸质量检测网络用于预测质量得分。256.示例性地,处理器110可以用于执行本技术实施例的人脸质量检测方法。257.例如,处理器110可以用于开启相机应用程序;258.获取待检测人脸图像;259.利用如上述训练方法训练得到的目标人脸质量检测模型,对所述待检测人脸图像进行检测,确定满足预设条件的待检测人脸图像;所述预设条件为分类结果为人脸姿态没有过大,且质量得分大于质量得分阈值。260.图12所示的各模块间的连接关系只是示意性说明,并不构成对电子设备100的各模块间的连接关系的限定。可选地,电子设备100的各模块也可以采用上述实施例中多种连接方式的组合。261.电子设备100的无线通信功能可以通过天线1、天线2、移动通信模块150、无线通信模块160、调制解调处理器以及基带处理器等器件实现。262.天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。263.电子设备100可以通过gpu、显示屏194以及应用处理器实现显示功能。gpu为图像处理的微处理器,连接显示屏194和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。264.示例性地,显示屏194可以用于显示图像或视频。265.可选地,电子设备100可以通过isp、摄像头193、视频编解码器、gpu、显示屏194以及应用处理器等实现拍摄功能。266.例如,isp用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给isp处理,转化为肉眼可见的图像。isp可以对图像的噪点、亮度和色彩进行算法优化,isp还可以优化拍摄场景的曝光和色温等参数。在一些实施例中,isp可以设置在摄像头193中。267.示例性地,摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(chargecoupleddevice,ccd)或互补金属氧化物半导体(complementarymetal-oxide-semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的红绿蓝(redgreenblue,rgb),yuv等格式的图像信号。在一些实施例中,电子设备100可以包括1个或n个摄像头193,n为大于1的正整数。268.示例性地,数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。269.示例性地,视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpictureexpertsgroup,mpeg)1、mpeg2、mpeg3和mpeg4。270.示例性地,陀螺仪传感器180b可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180b确定电子设备100围绕三个轴(即,x轴、y轴和z轴)的角速度。陀螺仪传感器180b可以用于拍摄防抖。例如,当快门被按下时,陀螺仪传感器180b检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180b还可以用于导航和体感游戏等场景。271.可选地,加速度传感器180e可检测电子设备100在各个方向上(一般为x轴、y轴和z轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。加速度传感器180e还可以用于识别电子设备100的姿态,作为横竖屏切换和计步器等应用程序的输入参数。272.示例性地,距离传感器180f用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,例如在拍摄场景中,电子设备100可以利用距离传感器180f测距以实现快速对焦。273.示例性地,环境光传感器180l用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180l也可用于拍照时自动调节白平衡。环境光传感器180l还可以与接近光传感器180g配合,检测电子设备100是否在口袋里,以防误触。274.示例性地,指纹传感器180h用于采集指纹。电子设备100可以利用采集的指纹特性实现解锁、访问应用锁、拍照和接听来电等功能。275.示例性地,触摸传感器180k,也称为触控器件。触摸传感器180k可以设置于显示屏194,由触摸传感器180k与显示屏194组成触摸屏,触摸屏也称为触控屏。触摸传感器180k用于检测作用于其上或其附近的触摸操作。触摸传感器180k可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180k也可以设置于电子设备100的表面,并且与显示屏194设置于不同的位置。276.上文详细描述了电子设备100的硬件系统,下面介绍电子设备100的软件系统。软件系统可以采用分层架构、事件驱动架构、微核架构、微服务架构或云架构,本技术实施例以分层架构为例,示例性地描述电子设备100的软件系统。277.如图13所示,采用分层架构的软件系统分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,软件系统可以分为四层,从上至下分别为应用程序层、应用程序框架层、安卓运行时(androidruntime)和系统库、以及内核层。278.应用程序层可以包括相机、图库、日历、通话、地图、导航、wlan、蓝牙、音乐、视频、短信息等应用程序。279.本技术实施例的人脸质量检测方法可以应用于相机app或者视频app;例如,电子设备检测到相机app请求打开相机的指令后,可以执行本技术实施例提供的人脸质量检测方法。280.应用程序框架层为应用程序层的应用程序提供应用程序编程接口(applicationprogramminginterface,api)和编程框架。应用程序框架层可以包括一些预定义的函数。281.例如,应用程序框架层包括窗口管理器、内容提供器、视图系统、电话管理器、资源管理器和通知管理器。282.窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏、锁定屏幕和截取屏幕。283.内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频、图像、音频、拨打和接听的电话、浏览历史和书签、以及电话簿。284.视图系统包括可视控件,例如显示文字的控件和显示图片的控件。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成,例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。285.电话管理器用于提供电子设备100的通信功能,例如通话状态(接通或挂断)的管理。286.资源管理器为应用程序提供各种资源,比如本地化字符串、图标、图片、布局文件和视频文件。287.通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。288.androidruntime包括核心库和虚拟机。androidruntime负责安卓系统的调度和管理。289.核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。290.应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理、堆栈管理、线程管理、安全和异常的管理、以及垃圾回收等功能。291.系统库可以包括多个功能模块,例如:表面管理器(surfacemanager),媒体库(medialibraries),三维图形处理库(例如:针对嵌入式系统的开放图形库(opengraphicslibraryforembeddedsystems,opengles)和2d图形引擎(例如:skia图形库(skiagraphicslibrary,sgl))。292.表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2d图层和3d图层的融合。293.媒体库支持多种音频格式的回放和录制、多种视频格式回放和录制以及静态图像文件。媒体库可以支持多种音视频编码格式,例如:mpeg4、h.264、动态图像专家组音频层面3(movingpictureexpertsgroupaudiolayeriii,mp3)、高级音频编码(advancedaudiocoding,aac)、自适应多码率(adaptivemulti-rate,amr)、联合图像专家组(jointphotographicexpertsgroup,jpg)和便携式网络图形(portablenetworkgraphics,png)。294.三维图形处理库可以用于实现三维图形绘图、图像渲染、合成和图层处理。295.二维图形引擎是2d绘图的绘图引擎。296.内核层是硬件和软件之间的层。内核层可以包括显示驱动、摄像头驱动、音频驱动和传感器驱动等驱动模块。297.下面结合显示拍照场景,示例性说明电子设备100的软件系统和硬件系统的工作流程。298.当用户在触摸传感器180k上进行触摸操作时,相应的硬件中断被发送至内核层,内核层将触摸操作加工成原始输入事件,原始输入事件例如包括触摸坐标和触摸操作的时间戳等信息。原始输入事件被存储在内核层,应用程序框架层从内核层获取原始输入事件,识别出原始输入事件对应的控件,并通知该控件对应的应用程序(application,app)。例如,上述触摸操作为单击操作,上述控件对应的app为相机app,相机app被单击操作唤醒后,可以通过api调用内核层的摄像头驱动,通过摄像头驱动控制摄像头193进行拍摄。299.图14是本技术实施例提供的训练装置的结构示意图。该训练装置200包括获取单元210、处理单元220。300.获取单元210用于获取人脸训练图像,所述人脸训练图像标注有分类结果和质量得分,所述分类结果用于指示人脸姿态是否过大,所述质量得分用于指示图像质量情况;301.处理单元220用于根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型;所述初始人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络,所述编码网络的输入端接收所述人脸训练图像,输出端分别与所述人脸姿态分类网络和所述人脸质量检测网络相连接,所述编码网络用于提取特征,所述人脸姿态分类网络用于预测分类结果,所述人脸质量检测网络用于预测质量得分。302.可选地,作为一个实施例,处理单元220还用于根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸姿态分类网络,预测分类结果;303.基于标注的分类结果和预测的分类结果,确定人脸姿态分类损失值;304.根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸质量检测网络,预测质量得分;305.基于标注的质量得分和预测的质量得分,确定图像质量回归损失值;306.根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量检测模型进行训练,得到所述中间人脸质量检测模型。307.可选地,作为一个实施例,处理单元220还用于对所述人脸姿态分类损失值分配第一权重;308.对所述图像质量回归损失值分配第二权重;309.根据所述人脸姿态分类损失值、所述图像质量回归损失值、所述第一权重和所述第二权重,得到第一目标损失值;310.基于所述第一目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。311.可选地,作为一个实施例,当所述初始人脸质量检测模型还包括辅助网络;所述编码网络、所述人脸质量检测网络均与所述辅助网络相连接时,处理单元220还用于获取人脸训练图像对应的人脸参考图像,所述人脸参考图像锐化过度或包含伪纹理;312.根据所述人脸训练图像和所述人脸参考图像确定差值真值图像;313.根据所述人脸训练图像和所述人脸参考图像,利用所述初始人脸质量检测模型中的所述编码网络、所述人脸质量检测模型和所述辅助网络,确定差值特征图像;314.基于所述差值真值图像和所述差值特征图像,确定图像相似性损失值;315.根据所述人脸姿态分类损失值、所述图像质量回归损失值和所述图像相似性损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型。316.可选地,作为一个实施例,处理单元220还用于对所述人脸质量分类损失值分配第一权重;317.对所述图像质量回归损失值分配第二权重;318.对所述图像相似性损失值分配第三权重;319.根据所述人脸姿态分配损失值、所述图像质量回归损失值、所述图像相似性损失值、所述第一权重、所述第二权重和所述第三权重,得到第二目标损失值;320.基于所述第二目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。321.可选地,作为一个实施例,处理单元220还用于对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型;所述稀疏化训练用于指示对部分参数进行置0,所述目标人脸质量检测模型中已训练的编码网络、已训练的人脸姿态分类网络和已训练的人脸质量检测网络依次相连接。322.可选地,作为一个实施例,针对由包括所述编码网络、所述人脸姿态分类网络和所述人脸质量检测网络的所述初始人脸质量检测模型训练得到的所述中间人脸质量检测模型,处理单元220还用于对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;323.结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络和人脸质量检测网络依次进行稀疏化训练,得到所述目标人脸质量检测模型。324.可选地,作为一个实施例,针对由包括所述编码网络、所述人脸姿态分类网络、所述人脸质量检测网络和辅助网络的所述初始人脸质量检测模训练得到的所述中间人脸质量检测模型,处理单元220还用于对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;325.结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络、人脸质量检测网络、辅助网络进行稀疏化训练,得到所述目标人脸质量检测模型。326.可选地,作为一个实施例,所述人脸姿态分类网络包括依次相连接的第一卷积层和第一全连接层;327.所述第一卷积层用于提取特征,所述第一全连接层用于对所述第一卷积层提取的特征进行分类,预测分类结果。328.可选地,作为一个实施例,所述人脸姿态分类网络包括依次相连接的第一卷积层和第一全连接层;329.所述第一卷积层用于提取特征,所述第一全连接层用于对所述第一卷积层提取的特征进行分类,预测分类结果。330.可选地,作为一个实施例,辅助网络包括依次相连接第三卷积层、拼接层和第四卷积层,所述拼接层的输入端还与所述第二卷积层的输出端相连接;331.所述第三卷积层用于提取特征,所述拼接层用于将所述第二卷积层提取的特征和所述第三卷积层提取的特征进行拼接,所述第四卷积层用于对拼接的特征进行特征提取。332.图15是本技术实施例提供的人类质量检测装置的结构示意图。该人类质量检测装置300包括获取单元310、处理单元320。333.处理单元320用于开启相机应用程序;334.获取单元310用于获取待检测人脸图像;335.处理单元320还用于利用如上述训练方法训练得到的目标人脸质量检测模型,对所述待检测人脸图像进行检测,确定满足预设条件的待检测人脸图像;所述预设条件为分类结果为人脸姿态没有过大,且质量得分大于质量得分阈值。336.需要说明的是,上述训练装置200、人脸质量检测装置300以功能单元的形式体现。这里的术语“单元”可以通过软件和/或硬件形式实现,对此不作具体限定。337.例如,“单元”可以是实现上述功能的软件程序、硬件电路或二者结合。所述硬件电路可能包括应用特有集成电路(applicationspecificintegratedcircuit,asic)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。338.因此,在本技术的实施例中描述的各示例的单元,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。339.图16示出了本技术提供的一种电子设备的结构示意图。图16中的虚线表示该单元或该模块为可选的,电子设备400可用于实现上述方法实施例中描述的人脸质量检测模型的训练方法和/或人脸质量检测方法。340.电子设备400包括一个或多个处理器401,该一个或多个处理器402可支持电子设备400实现方法实施例中的方法。处理器401可以是通用处理器或者专用处理器。例如,处理器401可以是中央处理器(centralprocessingunit,cpu)、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(fieldprogrammablegatearray,fpga)或者其它可编程逻辑器件,如分立门、晶体管逻辑器件或分立硬件组件。341.处理器401可以用于对电子设备400进行控制,执行软件程序,处理软件程序的数据。电子设备400还可以包括通信单元405,用以实现信号的输入(接收)和输出(发送)。342.例如,电子设备400可以是芯片,通信单元405可以是该芯片的输入和/或输出电路,或者,通信单元405可以是该芯片的通信接口,该芯片可以作为终端设备或其它电子设备的组成部分。343.又例如,电子设备400可以是终端设备,通信单元405可以是该终端设备的收发器,或者,通信单元405可以是该终端设备的收发电路。344.电子设备400中可以包括一个或多个存储器402,其上存有程序404,程序404可被处理器401运行,生成指令403,使得处理器401根据指令403执行上述方法实施例中描述的方法。345.可选地,存储器402中还可以存储有数据。可选地,处理器401还可以读取存储器402中存储的数据,该数据可以与程序404存储在相同的存储地址,该数据也可以与程序404存储在不同的存储地址。346.处理器401和存储器402可以单独设置,也可以集成在一起;例如,集成在终端设备的系统级芯片(systemonchip,soc)上。347.示例性地,存储器402可以用于存储本技术实施例中提供的人脸质量检测方法的相关程序404,处理器401可以用于在视频处理时调用存储器402中存储的人脸质量检测方法的相关程序304,执行本技术实施例的人脸质量检测方法;例如,348.开启相机应用程序;349.获取待检测人脸图像;350.利用如目标人脸质量检测模型,对所述待检测人脸图像进行检测,确定满足预设条件的待检测人脸图像;所述预设条件为分类结果为人脸姿态没有过大,且质量得分大于质量得分阈值。351.本技术还提供了一种计算机程序产品,该计算机程序产品被处理器执行时实现本技术中任一方法实施例所述的人脸质量检测模型的训练方法和/或人脸质量检测方法。352.该计算机程序产品可以存储在存储器302中,例如是程序经过预处理、编译、汇编和链接等处理过程最终被转换为能够被处理器执行的可执行目标文件。353.本技术还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被计算机执行时实现本技术中任一方法实施例所述的人脸质量检测模型的训练方法和/或人脸质量检测方法。该计算机程序可以是高级语言程序,也可以是可执行目标程序。354.可选地,该计算机可读存储介质例如是存储器302。存储器302可以是易失性存储器或非易失性存储器,或者,存储器302可以同时包括易失性存储器和非易失性存储器。其中,非易失性存储器可以是只读存储器(read-onlymemory,rom)、可编程只读存储器(programmablerom,prom)、可擦除可编程只读存储器(erasableprom,eprom)、电可擦除可编程只读存储器(electricallyeprom,eeprom)或闪存。易失性存储器可以是随机存取存储器(randomaccessmemory,ram),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的ram可用,例如静态随机存取存储器(staticram,sram)、动态随机存取存储器(dynamicram,dram)、同步动态随机存取存储器(synchronousdram,sdram)、双倍数据速率同步动态随机存取存储器(doubledataratesdram,ddrsdram)、增强型同步动态随机存取存储器(enhancedsdram,esdram)、同步连接动态随机存取存储器(synchlinkdram,sldram)和直接内存总线随机存取存储器(directrambusram,drram)。355.本领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和设备的具体工作过程以及产生的技术效果,可以参考前述方法实施例中对应的过程和技术效果,在此不再赘述。356.在本技术所提供的几个实施例中,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的方法实施例的一些特征可以忽略,或不执行。以上所描述的装置实施例仅仅是示意性的,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统。另外,各单元之间的耦合或各个组件之间的耦合可以是直接耦合,也可以是间接耦合,上述耦合包括电的、机械的或其它形式的连接。357.应理解,在本技术的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术的实施例的实施过程构成任何限定。358.另外,本文中术语“系统”和“网络”在本文中常被可互换使用。本文中的术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。359.总之,以上所述仅为本技术技术方案的较佳实施例而已,并非用于限定本技术的保护范围。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。当前第1页12当前第1页12
技术特征:
1.一种人脸质量检测模型的训练方法,其特征在于,所述方法包括:获取人脸训练图像,所述人脸训练图像标注有分类结果和质量得分,所述分类结果用于指示人脸姿态是否过大,所述质量得分用于指示图像质量情况;根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型;所述初始人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络,所述编码网络的输入端接收所述人脸训练图像,输出端分别与所述人脸姿态分类网络和所述人脸质量检测网络相连接,所述编码网络用于提取特征,所述人脸姿态分类网络用于预测分类结果,所述人脸质量检测网络用于预测质量得分。2.根据权利要求1所述的训练方法,其特征在于,根据所述人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型,包括:根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸姿态分类网络,预测分类结果;基于标注的分类结果和预测的分类结果,确定人脸姿态分类损失值;根据所述人脸训练图像,利用所述初始人脸质量检测模型中的所述编码网络和所述人脸质量检测网络,预测质量得分;基于标注的质量得分和预测的质量得分,确定图像质量回归损失值;根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量检测模型进行训练,得到所述中间人脸质量检测模型。3.根据权利要求2所述的训练方法,其特征在于,根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量检测模型进行训练,得到所述中间人脸质量检测模型,包括:对所述人脸姿态分类损失值分配第一权重;对所述图像质量回归损失值分配第二权重;根据所述人脸姿态分类损失值、所述图像质量回归损失值、所述第一权重和所述第二权重,得到第一目标损失值;基于所述第一目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。4.根据权利要求1所述的训练方法,其特征在于,所述初始人脸质量检测模型还包括辅助网络;所述编码网络、所述人脸质量检测网络均与所述辅助网络相连接;所述方法还包括:获取人脸训练图像对应的人脸参考图像,所述人脸参考图像锐化过度或包含伪纹理;根据所述人脸训练图像和所述人脸参考图像确定差值真值图像;根据所述人脸训练图像和所述人脸参考图像,利用所述初始人脸质量检测模型中的所述编码网络、所述人脸质量检测模型和所述辅助网络,确定差值特征图像;基于所述差值真值图像和所述差值特征图像,确定图像相似性损失值;所述根据所述人脸姿态分类损失值和所述图像质量回归损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型,包括:根据所述人脸姿态分类损失值、所述图像质量回归损失值和所述图像相似性损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型。
5.根据权利要求4所述训练方法,其特征在于,根据所述人脸姿态分类损失值、所述图像质量回归损失值和所述图像相似性损失值,对所述初始人脸质量过检测模型进行训练,得到所述中间人脸质量检测模型,包括:对所述人脸质量分类损失值分配第一权重;对所述图像质量回归损失值分配第二权重;对所述图像相似性损失值分配第三权重;根据所述人脸姿态分配损失值、所述图像质量回归损失值、所述图像相似性损失值、所述第一权重、所述第二权重和所述第三权重,得到第二目标损失值;基于所述第二目标损失值,对所述初始人脸质量检测模型以反向传播算法进行训练,得到所述中间人脸质量检测模型。6.根据权利要求1至5中任一项所述的训练方法,其特征在于,所述方法还包括:对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型;所述稀疏化训练用于指示对部分参数进行置0,所述目标人脸质量检测模型中已训练的编码网络、已训练的人脸姿态分类网络和已训练的人脸质量检测网络依次相连接。7.根据权利要求6所述的训练方法,其特征在于,针对由包括所述编码网络、所述人脸姿态分类网络和所述人脸质量检测网络的所述初始人脸质量检测模型训练得到的所述中间人脸质量检测模型,所述对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型,包括:对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络和人脸质量检测网络依次进行稀疏化训练,得到所述目标人脸质量检测模型。8.根据权利要求6所述的训练方法,其特征在于,针对由包括所述编码网络、所述人脸姿态分类网络、所述人脸质量检测网络和辅助网络的所述初始人脸质量检测模训练得到的所述中间人脸质量检测模型,所述对所述中间人脸质量检测模型进行稀疏化训练,得到目标人脸质量检测模型,包括:对所述中间人脸质量检测模型中的编码网络进行稀疏化训练;结合已稀疏化训练的编码网络,对所述中间人脸质量检测模型中的人脸姿态分类网络、人脸质量检测网络、辅助网络进行稀疏化训练,得到所述目标人脸质量检测模型。9.根据权利要求1至8中任一项所述的训练方法,其特征在于,所述人脸姿态分类网络包括依次相连接的第一卷积层和第一全连接层;所述第一卷积层用于提取特征,所述第一全连接层用于对所述第一卷积层提取的特征进行分类,预测分类结果。10.根据权利要求1至9中任一项所述的训练方法,其特征在于,所述人脸质量检测网络包括依次相连接的第二卷积层和第二全连接层;所述第二卷积层用于提取特征,所述第二全连接层用于对所述第二卷积层提取的特征进行计算,预测质量得分。11.根据权利要求10所述的训练方法,其特征在于,辅助网络包括依次相连接第三卷积层、拼接层和第四卷积层,所述拼接层的输入端还与所述第二卷积层的输出端相连接;所述第三卷积层用于提取特征,所述拼接层用于将所述第二卷积层提取的特征和所述
第三卷积层提取的特征进行拼接,所述第四卷积层用于对拼接的特征进行特征提取。12.一种人脸质量检测方法,其特征在于,应用于电子设备,所述方法包括:开启相机应用程序;获取待检测人脸图像;利用如权利要求1至11中任一项训练方法训练得到的目标人脸质量检测模型,对所述待检测人脸图像进行检测,确定满足预设条件的待检测人脸图像;所述预设条件为分类结果为人脸姿态没有过大,且质量得分大于质量得分阈值。13.一种训练装置,其特征在于,包括:一个或多个处理器和存储器;所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述训练装置执行如权利要求1至11中任一项所述的人脸质量检测模型的训练方法。14.一种人脸质量检测装置,其特征在于,包括一个或多个处理器和存储器;所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述人脸质量检测装置执行如权利要求12所述的人脸质量检测方法。15.一种芯片,其特征在于,所述芯片应用于电子设备,所述芯片包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行如权利要求1至11中任一项所述的人脸质量检测模型的训练方法,和/或,如权利要求12所述的人脸质量检测方法。16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储了计算机程序,当所述计算机程序被处理器执行时,使得处理器执行如权利要求1至11中任一项所述的人脸质量检测模型的训练方法,和/或,如权利要求12所述的人脸质量检测方法。
技术总结
本申请提供了一种人脸质量检测模型的训练方法及其相关设备,涉及图像处理领域,该方法包括:获取人脸训练图像,人脸训练图像标注有分类结果和质量得分;根据人脸训练图像,对初始人脸质量检测模型进行训练,得到中间人脸质量检测模型;初始人脸质量检测模型包括编码网络、人脸姿态分类网络和人脸质量检测网络,编码网络用于提取特征,人脸姿态分类网络用于预测分类结果,人脸质量检测网络用于预测质量得分。基于本申请的技术方案,针对分类结果和质量得分该两个任务对模型进行端到端的训练,从而可以提高训练后的模型针对人脸姿态是否过大和图像质量情况的检测,提高检测准确性。提高检测准确性。提高检测准确性。
技术研发人员:岳帅 汤明
受保护的技术使用者:荣耀终端有限公司
技术研发日:2022.09.28
技术公布日:2023/9/11
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/