一种基于情感分析的图像滤镜生成方法
未命名
10-26
阅读:94
评论:0

1.本发明涉及互联网技术领域,尤其涉及一种基于情感分析的图像滤镜生成方法。
背景技术:
2.随着人工智能技术的迅猛发展,人工智能生成内容(aigc)作为一种创新的技术应用,逐渐引起了广泛的关注和研究。本发明涉及一种基于人工智能技术的内容生成方法,其可自动生成各种形式的内容,例如文本、图像、音频等。这些内容是由计算机程序在无需人类手动创作的情况下完成的。本方法通过利用大规模数据集和深度学习模型,如神经网络和语言模型,实现内容的自动生成。由于传统图像创作对于设计者的绘图和美术技术功底要求较高,并且耗时耗费资源,因此本方法能够更加高效地创作艺术图像,满足全民创作的目标,并受到人们的广泛关注与喜爱。
3.情感分析,也被称为意见挖掘,是一种自然语言处理技术,用于识别和分析文本中所表达的情感倾向或情绪。该技术旨在从文本数据中自动识别出正面、负面或中性的情感,帮助理解人们在社交媒体、产品评论、新闻文章等各种文本中的情感和情绪态度。在人工智能领域中,研究者们希望让机器也能具有情感,最早在1997年,麻省理工媒体实验室就提出了情感计算的概念,在之后的研究中,情感计算是自然语言处理中的一个重要领域,其目的是让计算机能够自动识别和理解文本中蕴含的情感信息,赋予机器识别,理解,表达情感的能力。
4.情感分析可以应用于多个领域,如社交媒体监测、品牌声誉管理、市场营销、舆情分析、产品推广和客户服务等。它可以帮助企业了解用户对其产品或服务的满意度,发现潜在的用户需求和痛点,提高客户满意度和忠诚度。情感分析的实现通常涉及使用机器学习和深度学习技术,构建情感分类模型,对文本数据进行分类,并判断其情感倾向。常见的情感分析方法包括基于规则的方法、情感词典方法和机器学习方法,其中深度学习方法在处理大规模文本数据时表现出色。但是,情感分析也面临一些挑战,如语义理解、文本歧义性和文化差异等,因此仍在不断发展和完善。
5.在当前社会中,人们在社交网络上分享对某事件或活动的观点和体验,文本成为直接表达意见和与其他用户建立情感联系的媒介。例如:“我今天考试没考好,心情糟透了”或者“我即将搭火车去旅游,真是个令人期待的旅程”。此时,用户的文本描述可能包含观点和意向等情感词汇,希望通过包含情感的语句进行相应情感的风格转换。这对先前的模型构成了巨大挑战,因为它们无法提取文本中的情感信息,导致难以理解其中的情感,并且很难生成与文本表达的情感相对应的风格和纹理。因此,本发明提出了一种基于情感分析的图像滤镜生成方法。该方法允许用户输入情感文本和内容图像,模型从文本中提取情感,并对内容图像进行相应的情感迁移,最终生成能够体现情感并保留内容的新图像。
6.如图1所示,现有技术之一的“基于单一文本条件的图像风格迁移”文章中,引入了clip跨模态大模型以理解文本中的情感并投射到生成图中:
7.首先,为了解决文本和图像对应的问题,本发明引入了clip跨模态大模型,并设计
了clip损失。通过计算文本间的clip距离,指导最终生成图像的风格迁移。其次,为了更好地将文本中的情感投影到生成图像中,本发明采取了对生成图像进行随机切割的方法,取多个小图像块进行clip损失的计算。最后,本发明提出了一种快速进行迁移的风格迁移方法,从而使得模型可以适用于任何内容图像。
8.如图2所示,现有技术之二的“"语言驱动的艺术风格迁移”文章设计了鉴别器和对比学习损失,较好的保持了生成图的内容与内容图一致:
9.首先,本发明设计了结构重建模块,用于确保生成图像的内容与内容图像一致。其次,为了建立文本与内容图像之间的视觉语义联系,本发明引入了逐块风格鉴别器。通过将生成图像进行随机切割,并输入到风格鉴别器中,以判断文本与内容图像是否相匹配。最后,本发明提出了对比学习模块。针对不同的风格指令和内容图像,通过计算参考风格图像之间的余弦相似性来定义相对匹配关系。在此过程中,即使成对的样式指令不同,仍需对齐样式特征以一定程度上匹配。
10.发明人在研究的过程中发现:对于“基于单一文本条件的图像风格迁移”、“"语言驱动的艺术风格迁移”现有技术中:
11.1、利用clip跨模态大模型的先验知识,学习文本中的情感,并将情感投射到生成图像中;
12.2、利用鉴别器和对比学习的方法,学习内容图像的内容结构和风格图像的风格纹理,并在生成图像中较好地表现;
13.由于上述技术问题导致于现有技术中存在以下缺点:
14.1、模型的生成图更加关注文本的内容,导致对用户输入的内容图像的内容保留程度较差;
15.2、clip模型不能完全反映文本的情感,并且,模型缺乏对文本情感的提取和理解,导致文本中的情感无法正确地反映到生成图像中。
技术实现要素:
16.为了解决上述技术问题,本发明提供了一种基于情感分析的图像滤镜生成方法。该方法引入了视觉上情绪分析的先验知识,利用预训练的bert模型将文本编码为词向量,并进一步获取vad情感词典中的情感嵌入,以学习每个词的固有情感属性,从而提升了模型对文本中情感的感知能力。此外,本发明还设计了具有分组transformer架构的图像滤镜模型,将文本编码和图像编码进行融合。为了全面可视化客观和主观的情感,本发明还设计了新的损失函数。通过这些创新,使得模型更加准确地将文本中的情感展现到生成图像中。
17.本发明提供了一种基于情感分析的图像滤镜生成方法,在模型训练时,该方法包括:
18.步骤一、从artemis数据集中随机选择一个文本描述作为锚点文本。并且,取出锚点文本对应的风格图;
19.步骤二、根据锚点文本在米克尔情感轮(mikels emotion wheel)中的位置对其进行分类,与锚点文本在同一区域的文本描述中选择一个文本为正例文本,相邻区域的文本描述中选择一个文本为相关文本,相反区域的文本描述中选择一个文本为负例文本。并且,取出正例文本,相关文本,负例文本对应的风格图;
20.步骤三、使用预训练的bert将锚点文本编码为词向量,并进一步在vad词典中获取情感向量,以揭示每个词固有的情感属性。并将词向量和情感向量进行投射形成基于锚点文本的文本词编码;
21.步骤四、将内容图片输入图像编码器获得图像块编码;
22.步骤五、将图像块向量,基于锚点文本的文本词编码拼接为一个序列,并给两种不同模态的编码分别加上模态类型编码,得到基于锚点文本的特征融合跨模态编码序列;
23.步骤六、将基于锚点文本的跨模态编码序列输入到用于特征融合的分组transformer中,对跨模态序列的特征进行融合,得到基于锚点文本的特征融合跨模态序列;
24.步骤七、将基于锚点文本的特征融合跨模态序列拆分,把其中的图像块编码输入到解码器中,得到基于锚点文本的生成图;
25.步骤八、将步骤三中的锚点文本分别替换为正例文本、相关文本、负例文本,重复步骤五、步骤六和步骤七,得到基于正例文本、相关文本、负例文本的生成图;
26.步骤九、将所有的生成图输入到情感提取器提取对应图片的情感向量,通过对比学习,计算情感向量损失函数。再将生成图片输入情感分类器,并且使用kullback-leibler(kl)损失来计算情感分类损失函数;
27.步骤十、将生成图片与内容图像进行计算的到内容损失,将生成图片与风格图像进行计算的到风格损失,将生成图片与输入的文本进行计算得到条件损失,以上损失进行加权求和,得到图像可视化损失函数;
28.步骤十一、将情感向量损失函数、情感分类损失函数和图像可视化损失函数进行加权求和,得到整体损失函数,使用反向传播算法(back propagation,bp)计算梯度,并使用adam优化器优化整体损失函数更新模型各层权重。
29.进一步的,非训练情况下,进行基于情感分析的图像滤镜生成时,将步骤二、步骤八、步骤九、步骤十、步骤十一除去,并将步骤一、步骤三、步骤五、步骤六、步骤七予以替换,替换如下:
30.步骤一、将用户输入的情感文本作为输入;
31.步骤三、使用预训练的bert将用户输入的文本编码为词向量,并进一步在vad词典中获取情感向量,以揭示每个词固有的情感属性。并将词向量和情感向量进行投射形成文本词编码;
32.步骤五、将图像块向量,文本词编码拼接为一个序列,并给两种不同模态的编码分别加上模态类型编码,得到特征融合跨模态编码序列;
33.步骤六、将跨模态编码序列输入到用于特征融合的分组transformer中,对跨模态序列的特征进行融合,得到特征融合跨模态序列;
34.步骤七、将特征融合跨模态序列拆分,把其中的图像块编码输入到解码器中,得到最终生成图。
35.进一步的,所述步骤二中,模型的输入表示为:
36.input={t
seed
,t
pos
,t
rel
,t
neg
}
37.其中,t
seed
,t
pos
,t
rel
,t
neg
分别表示锚点文本,正例文本,相关文本,负例文本。
38.进一步的,所述步骤六中,使用分组transformer中的包含若干个计算单元,每个
计算单元计算过程如下:
[0039][0040][0041]
其中,f
tex
和f
img
分别是文本编码和图像编码。和为模态类型编码。并且,分组transformer的初始输入表示为:
[0042][0043]
其中,分组transformer包括l个标准的transformer模块,每个模块包含一个多头注意力层(msa),一个mlp层和两个残差连接,ln表示层归一化。
[0044][0045][0046]
进一步的,所述步骤九中,情感提取器提取图像vgg网络的多级特征,对这些特征进行格拉姆矩阵(gram matrix)操作,由此定义情感向量,如下:
[0047][0048]
其中,代表gram矩阵中第j个特征级的第i个上三角元素。
[0049]
因此,情绪向量之间的距离可以公式表示为:
[0050]fsw
(vi,vj)=||v
i-vj||/f
dis
(vi,vj)
[0051]
其中,将情绪之间的距离定义为从一个情绪区域到另一个情绪区的最小步数f
dis
,其定义为从一个情绪区域到另一个情绪区的最小步数。
[0052]
因此,情感向量损失函数为:
[0053]
l
sw
=max((f
sw
(v
seed
,v
pos
)-f
sw
(v
seed
,v
rel
)+a),0)+max((f
sw
(v
seed
,v
rel
)-f
sw
(v
seed
,v
neg
)+b),0)
[0054]
其中,超参数a=0.02,b=0.01。v
seed
,v
pos
,v
rel
,v
neg
分别为锚点文本对应图像的情感向量,正例文本对应图像的情感向量,相关文本对应图像的情感向量,负例文本对应图像的情感向量。
[0055]
进一步的,所述步骤九中,使用预训练的情感分类器σ,并且使用kullback-leibler(kl)损失来计算情感分类损失函数,如下所示:
[0056]fed
=∑diln(di/σ(i
out
)i)
[0057]
其中,σ(i
out
)i和di分别表示生成图估计的类别分布和实际的类别分布。这有助于图像情感滤镜模型更准确地将文本中的情绪反映到图像中。
[0058]
进一步的,所述步骤十中,设计了内容损失以保持生成图与用户提供的内容图在内容上保持一致,如下所示:
[0059][0060]
其中,和分别为生成图和内容图在第i级提取的特征。
[0061]
所述步骤十中,通过预训练的vgg网络,采用风格损失来缩小提取特征之间的风格
差异,如下所示:
[0062][0063]
其中,u和σ分别是均值函数和方差函数,和分别为生成图和风格图在第i级提取的特征。
[0064]
所述步骤十中,设计了多级条件和无条件鉴别器,目的是将生成图像与用户提供的文本对齐,以及区分生成图像情感是否与文本中提供的情感相同,如下所示:
[0065]
l
gan
=logd(i
acr
)+log(1-d(g(i
pat
,t
tex
)))+logd(i
acr
,t
tex
)+log(1-d(g(i
pat
,t
tex
),t
tex
))
[0066]
其中,d为鉴别器,生成器g为图像情感滤镜模型,i
pat
,i
acr
,t
tex
分别为内容图像,风格图像和输入文本。
[0067]
进一步的,所述步骤十一中,本实施例在4块英伟达titan rtx gpu显卡上进行训练,批量大小为24,并且进行了80000次的训练,使用adam优化器,并设置学习率为0.0005。
[0068]
本发明提供的一种基于情感分析的图像滤镜生成方法,引入了视觉上情绪分析的先验知识,使用预训练的bert模型和vad情感词典将文本中的情感进行有效的提取,提升了模型对文本中情感的感知能力;使用可学习的分组编码,将内容图像编码和文本编码的特征融合跨模态序列,赋予了模型跨模态感知的能力,提高了文本控制下使图像反应出文本的情感;通过设计情感向量损失函数和情感分类损失函数,全面可视化客观和主观的情感,从而使模型更加明确的将文本中的情感展现到生成图像中,在情感展现程度、内容保留程度、图像生成质量、条件一致性上都取得一定的性能提升。
附图说明
[0069]
图1为“基于单一文本条件的图像风格迁移”的示意图;
[0070]
图2为“"语言驱动的艺术风格迁移”的示意图;
[0071]
图3为实施例一的流程图;
[0072]
图4为本发明提供的一种基于情感分析的图像滤镜生成方法的流程图。
具体实施方式
[0073]
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。其中,本实施例中出现的缩略语和关键术语定义如下:
[0074]
aigc:artificial intelligence generated content人工智能生成内容;
[0075]
bp:back propagation反向传播;
[0076]
clip:contrastive language-image pre-training利用对比学习的语言-图像预训练大模型;
[0077]
vad:valence-arousal-dominance用这三个属性评价词的情感属性;
[0078]
vit:vision transformer 2020年google团队提出的将transformer应用在图像
分类的模型;
[0079]
relu:rectified linear unit线性整流函数,是一种激活函数;
[0080]
bert:bidirectional encoder representation from transformers基于transformer的双向编码器表示,是一种预训练模型;
[0081]
mikels emotion wheel:米克尔情感轮,一种情感分布的标记方法;
[0082]
gram matrix:格拉姆矩阵可以计算图像特征层之间的偏心协方差矩阵;
[0083]
vgg:一种卷积神经网络结构;
[0084]
kl loss:kl(kullback-leibler)散度可以用来衡量两个概率分布之间的相似性,两个概率分布越相近,kl散度越小;
[0085]
adam:a method for stochastic optimizaiton一种随机梯度下降方法。
[0086]
实施例一
[0087]
参照图3、4所示,图3,4示出了本发明提供的一种基于情感分析的图像滤镜生成方法,具体的,在模型训练时,该方法包括:
[0088]
步骤一、从artemis数据集中随机选择一个文本描述作为锚点文本。并且,取出锚点文本对应的风格图;
[0089]
步骤二、根据锚点文本在米克尔情感轮(mikels emotion wheel)中的位置对其进行分类,与锚点文本在同一区域的文本描述中选择一个文本为正例文本,相邻区域的文本描述中选择一个文本为相关文本,相反区域的文本描述中选择一个文本为负例文本。并且,取出正例文本,相关文本,负例文本对应的风格图;
[0090]
进一步的,所述步骤二中,模型的输入表示为:
[0091]
input={t
seed
,t
pos
,t
rel
,t
neg
}
[0092]
其中,t
seed
,t
pos
,t
rel
,t
neg
分别表示锚点文本,正例文本,相关文本,负例文本。
[0093]
步骤三、使用预训练的bert将锚点文本编码为词向量,并进一步在vad词典中获取情感向量,以揭示每个词固有的情感属性。并将词向量和情感向量进行投射形成基于锚点文本的文本词编码;
[0094]
步骤四、将内容图片输入图像编码器获得图像块编码;
[0095]
步骤五、将图像块向量,基于锚点文本的文本词编码拼接为一个序列,并给两种不同模态的编码分别加上模态类型编码,得到基于锚点文本的特征融合跨模态编码序列;
[0096]
步骤六、将基于锚点文本的跨模态编码序列输入到用于特征融合的分组transformer中,对跨模态序列的特征进行融合,得到基于锚点文本的特征融合跨模态序列;
[0097]
进一步的,所述步骤六中,使用分组transformer中的包含若干个计算单元,每个计算单元计算过程如下:
[0098][0099][0100]
其中,f
tex
和f
img
分别是文本编码和图像编码。和为模态类型编码。并且,分组transformer的初始输入表示为:
[0101][0102]
其中,分组transformer包括l个标准的transformer模块,每个模块包含一个多头注意力层(msa),一个mlp层和两个残差连接,ln表示层归一化。
[0103][0104][0105]
步骤七、将基于锚点文本的特征融合跨模态序列拆分,把其中的图像块编码输入到解码器中,得到基于锚点文本的生成图;
[0106]
步骤八、将步骤三中的锚点文本分别替换为正例文本、相关文本、负例文本,重复步骤五、步骤六和步骤七,得到基于正例文本、相关文本、负例文本的生成图;
[0107]
步骤九、将所有的生成图输入到情感提取器提取对应图片的情感向量,通过对比学习,计算情感向量损失函数。再将生成图片输入情感分类器,并且使用kullback-leibler(kl)损失来计算情感分类损失函数;
[0108]
进一步的,所述步骤九中,情感提取器提取图像vgg网络的多级特征,对这些特征进行gram矩阵操作,由此定义情感向量,如下:
[0109][0110]
其中,代表gram矩阵中第j个特征级的第i个上三角元素。
[0111]
因此,情绪向量之间的距离可以公式表示为:
[0112]fsw
(vi,vj)=||v
i-vj||/f
dis
(vi,vj)
[0113]
其中,将情绪之间的距离定义为从一个情绪区域到另一个情绪区的最小步数f
dis
,其定义为从一个情绪区域到另一个情绪区的最小步数。
[0114]
因此,情感向量损失函数为:
[0115]
l
sw
=max((f
sw
(v
seed
,v
pos
)-f
sw
(v
seed
,v
rel
)+a),0)+max((f
sw
(v
seed
,v
rel
)-f
sw
(v
seed
,v
neg
)+b),0)
[0116]
其中,超参数a=0.02,b=0.01。v
seed
,v
pos
,v
rel
,v
neg
分别为锚点文本对应图像的情感向量,正例文本对应图像的情感向量,相关文本对应图像的情感向量,负例文本对应图像的情感向量。
[0117]
进一步的,所述步骤九中,使用预训练的情感分类器σ,并且使用kullback-leibler(kl)损失来计算情感分类损失函数,如下所示:
[0118]fed
=∑diln(di/σ(i
out
)i)
[0119]
其中,σ(i
out
)i和di分别表示生成图估计的类别分布和实际的类别分布。这有助于图像情感滤镜模型更准确地将文本中的情绪反映到图像中。
[0120]
步骤十、将生成图片与内容图像进行计算的到内容损失,将生成图片与风格图像进行计算的到风格损失,将生成图片与输入的文本进行计算得到条件损失,以上损失进行加权求和,得到图像可视化损失函数;
[0121]
进一步的,所述步骤十中,设计了内容损失以保持生成图与用户提供的内容图在内容上保持一致,如下所示:
[0122][0123]
其中,和分别为生成图和内容图在第i级提取的特征。
[0124]
所述步骤十中,通过预训练的vgg网络,采用风格损失来缩小提取特征之间的风格差异,如下所示:
[0125][0126]
其中,u和σ分别是均值函数和方差函数,和分别为生成图和风格图在第i级提取的特征。
[0127]
所述步骤十中,设计了多级条件和无条件鉴别器,目的是将生成图像与用户提供的文本对齐,以及区分生成图像情感是否与文本中提供的情感相同,如下所示:
[0128]
l
gan
=logd(i
acr
)+log(1-d(g(i
pat
,t
tex
)))+logd(i
acr
,t
tex
)+log(1-d(g(i
pat
,t
tex
),t
tex
))
[0129]
其中,d为鉴别器,生成器g为图像情感滤镜模型,i
pat
,i
acr
,t
tex
分别为内容图像,风格图像和输入文本。
[0130]
步骤十一、将情感向量损失函数、情感分类损失函数和图像可视化损失函数进行加权求和,得到整体损失函数,使用反向传播算法(back propagation,bp)计算梯度,并使用adam优化器优化整体损失函数更新模型各层权重。
[0131]
进一步的,所述步骤十一中,本实施例在4块英伟达titan rtx gpu显卡上进行训练,批量大小为24,并且进行了80000次的训练,使用adam优化器,并设置学习率为0.0005。
[0132]
进一步的,非训练情况下,进行基于情感分析的图像滤镜生成时,将步骤二、步骤八、步骤九、步骤十、步骤十一除去,并将步骤一、步骤三、步骤五、步骤六、步骤七予以替换,替换如下:
[0133]
步骤一、将用户输入的情感文本作为输入;
[0134]
步骤三、使用预训练的bert将用户输入的文本编码为词向量,并进一步在vad词典中获取情感向量,以揭示每个词固有的情感属性。并将词向量和情感向量进行投射形成文本词编码;
[0135]
步骤五、将图像块向量,文本词编码拼接为一个序列,并给两种不同模态的编码分别加上模态类型编码,得到特征融合跨模态编码序列;
[0136]
步骤六、将跨模态编码序列输入到用于特征融合的分组transformer中,对跨模态序列的特征进行融合,得到特征融合跨模态序列;
[0137]
步骤七、将特征融合跨模态序列拆分,把其中的图像块编码输入到解码器中,得到最终生成图。
[0138]
一优选实施例,如图3所示,首先,从artemis数据集中选取锚点文本、正例文本、相关文本和负例文本,并提取对应的风格图像。然后,利用预训练的bert将锚点文本编码为词向量,并在vad词典中获取情感向量,揭示每个词的固有情感属性。将词向量和情感向量投射形成基于锚点文本的文本词编码。同样地,将内容图片输入图像编码器,获取图像块编码。接下来,将图像块编码和文本词编码拼接成一个序列,并为两种不同模态的编码分别添加模态类型编码。将这些编码输入分组transformer,得到相应的结果,将图像块编码输入
解码器,生成基于锚点文本的生成图。最后,将正例文本、相关文本和负例文本输入到模型中得到生成图,通过对比学习计算情感向量损失函数和情感分类损失函数,并与内容损失函数、风格损失函数和条件生成对抗网络损失进行加权求和,得到整体损失函数。使用反向传播算法计算梯度,并利用adam优化器优化整体损失函数来更新模型各层权重。在非训练情况下,无需取出正例文本、相关文本和负例文本以及对应的风格图像,也无需计算损失函数,直接输入到解码器即可得到生成图。
[0139]
本发明实施例引入了视觉上情绪分析的先验知识,采用预训练的bert模型和vad情感词典,有效提取文本中的情感,提升模型对文本情感的感知能力。通过可学习的分组编码,将内容图像编码和文本编码特征融合成跨模态序列,赋予模型跨模态感知能力,提高文本控制下图像表现出文本情感的能力。设计情感向量损失函数和情感分类损失函数,全面展示客观和主观情感,使模型准确地将文本情感反映在生成图像中。在情感展现程度、内容保留程度、图像生成质量和条件一致性等方面取得显著性能提升。
[0140]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0141]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
技术特征:
1.一种基于情感分析的图像滤镜生成方法,其特征在于采用分组transformer架构,并设计了情感向量损失和情感分类损失,以更好地学习文本中的情感信息。该方法包括:步骤一、从数据集中随机选择一个文本描述作为锚点文本。并且,取出锚点文本对应的风格图;步骤二、根据锚点文本在米克尔情感轮(mikels emotion wheel)中的位置对其进行分类,与锚点文本在同一区域的文本描述中选择一个文本为正例文本,相邻区域的文本描述中选择一个文本为相关文本,相反区域的文本描述中选择一个文本为负例文本。并且,取出正例文本,相关文本,负例文本对应的风格图;步骤三、使用预训练的bert将锚点文本编码为词向量,并进一步在vad词典中获取情感向量,以揭示每个词固有的情感属性。并将词向量和情感向量进行投射形成基于锚点文本的文本词编码;步骤四、将内容图片输入图像编码器获得图像块编码;步骤五、将图像块向量,基于锚点文本的文本词编码拼接为一个序列,并给两种不同模态的编码分别加上模态类型编码,得到基于锚点文本的特征融合跨模态编码序列;步骤六、将基于锚点文本的跨模态编码序列输入到用于特征融合的分组transformer中,对跨模态序列的特征进行融合,得到基于锚点文本的特征融合跨模态序列;步骤七、将基于锚点文本的特征融合跨模态序列拆分,把其中的图像块编码输入到解码器中,得到基于锚点文本的生成图;步骤八、将步骤三中的锚点文本分别替换为正例文本、相关文本、负例文本,重复步骤五、步骤六和步骤七,得到基于正例文本、相关文本、负例文本的生成图;步骤九、将所有的生成图输入到情感提取器提取对应图片的情感向量,通过对比学习,计算情感向量损失函数。再将生成图片输入情感分类器,并且使用kullback-leibler(kl)损失来计算情感分类损失函数;步骤十、将生成图片与内容图像进行计算的到内容损失,将生成图片与风格图像进行计算的到风格损失,将生成图片与输入的文本进行计算得到条件损失,以上损失进行加权求和,得到图像可视化损失函数;步骤十一、将情感向量损失函数、情感分类损失函数和图像可视化损失函数进行加权求和,得到整体损失函数,使用反向传播算法(back propagation,bp)计算梯度,并使用adam优化器优化整体损失函数更新模型各层权重。2.如权利要求1所述方法,其特征在于,所述步骤六中,使用分组transformer中的包含若干个计算单元,每个计算单元计算过程如下:若干个计算单元,每个计算单元计算过程如下:其中,f
tex
和f
img
分别是文本编码和图像编码。和为模态类型编码。并且,分组transformer的初始输入表示为:
其中,分组transformer包括l个标准的transformer模块,每个模块包含一个多头注意力层(msa),一个mlp层和两个残差连接,ln表示层归一化。力层(msa),一个mlp层和两个残差连接,ln表示层归一化。进一步的,所述步骤九中,情感提取器提取图像vgg网络的多级特征,对这些特征进行gram矩阵操作,由此定义情感向量,如下:其中,代表gram矩阵中第j个特征级的第i个上三角元素。因此,情绪向量之间的距离可以公式表示为:f
sw
(v
i
,v
j
)=||v
i-v
j
||/f
dis
(v
i
,v
j
)其中,将情绪之间的距离定义为从一个情绪区域到另一个情绪区的最小步数f
dis
,其定义为从一个情绪区域到另一个情绪区的最小步数。因此,情感向量损失函数为:l
sw
=max((f
sw
(v
seed
,v
pos
)-f
sw
(v
seed
,v
rel
)+a),0)+max((f
sw
(v
seed
,v
rel
)-f
sw
(v
seed
,v
neg
)+b),0)其中,超参数a=0.02,b=0.01。v
seed
,v
pos
,v
rel
,v
neg
分别为锚点文本对应图像的情感向量,正例文本对应图像的情感向量,相关文本对应图像的情感向量,负例文本对应图像的情感向量。3.如权利要求1所述方法,其特征在于,所述步骤九中,使用预训练的情感分类器σ,并且使用kullback-leibler(kl)损失来计算情感分类损失函数,如下所示:f
ed
=∑d
i
ln(d
i
/σ(i
out
)
i
)其中,σ(i
out
)
i
和d
i
分别表示生成图估计的类别分布和实际的类别分布。这有助于图像情感滤镜模型更准确地将文本中的情感反映到图像中。4.如权利要求1所述方法,其特征在于,所述步骤十中,设计了内容损失以保持生成图与用户提供的内容图在内容上保持一致,如下所示:其中,和分别为生成图和内容图在第i级提取的特征。所述步骤十中,通过预训练的vgg网络,采用风格损失来缩小提取特征之间的风格差异,如下所示:其中,u和σ分别是均值函数和方差函数,和分别为生成图和风格图在第i级提取的特征。所述步骤十中,设计了多级条件和无条件鉴别器,目的是将生成图像与用户提供的文本对齐,以及区分生成图像情感是否与文本中提供的情感相同,如下所示:l
gan
=logd(i
acr
)+log(1-d(g(i
pat
,t
tex
)))+logd(i
acr
,t
tex
)+log(1-d(g(i
pat
,t
tex
),
t
tex
))其中,d为鉴别器,生成器g为图像情感滤镜模型,i
pat
,i
acr
,t
tex
分别为内容图像,风格图像和输入文本。
技术总结
本发明提供的一种基于情感分析的图像滤镜生成方法,引入了视觉上情绪分析的先验知识,采用预训练的BERT模型和VAD情感词典,有效提取文本中的情感,提升模型对文本情感的感知能力。通过可学习的分组编码,将内容图像编码和文本编码特征融合成跨模态序列,赋予模型跨模态感知能力,提高文本控制下图像表现出文本情感的能力。设计情感向量损失函数和情感分类损失函数,全面展示客观和主观情感,使模型准确地将文本情感反映在生成图像中。在情感展现程度、内容保留程度、图像生成质量和条件一致性等方面取得显著性能提升。性等方面取得显著性能提升。性等方面取得显著性能提升。
技术研发人员:李思 施柏鑫 张沛瑄 翁书晨 常征
受保护的技术使用者:北京邮电大学
技术研发日:2023.08.11
技术公布日:2023/10/20
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/
上一篇:摄像头移动支架的制作方法 下一篇:一种既有建筑新增楼板的构造的制作方法