基于人工智能的对话模型训练方法、装置、设备及介质与流程

未命名 07-28 阅读:72 评论:0


1.本发明适用于金融科技领域,尤其涉及一种基于人工智能的对话模型训练方法、装置、设备及介质。


背景技术:

2.对话模型能够根据用户输入的信息来识别语义,然后根据用户的语义信息生成相应的回复,随着人工智能技术的发展,对话模型在虚拟助手、智能音箱和闲聊对话中的使用率逐渐提升,例如,在金融领域中,虚拟的客服机器人可以基于对话模型与客户进行沟通交流,在解决客户疑问、指导客户交易、提供售后服务等方面具有突出贡献,有效提升了金融领域中的服务效率。
3.目前对话模型主要偏向于将对话问题和对话答案直接拼接为输入内容,对话模型通过提取输入内容的语义特征来生成相应的回复,这种方法可能会由于拼接结果中对话问题和对话答案产生混淆,从而降低对话模型对输入内容的语义理解,同时会学习到对话答案中复杂的冗余信息,进一步降低了对话模型的准确性。
4.因此,在金融领域的对话场景中,如何提高对话模型的准确性成为亟待解决的问题。


技术实现要素:

5.有鉴于此,本发明实施例提供了一种基于人工智能的对话模型训练方法、装置、设备及介质,以解决现有对话模型的准确性较低的问题。
6.第一方面,本发明实施例提供一种基于人工智能的对话模型训练方法,所述对话模型训练方法包括:
7.将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本;
8.根据所述初始答案文本提取初始答案关键词,将所述初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将所述初始答案关键词和所述第一问答类别进行拼接,确定拼接结果为所述第一样本的标签;
9.将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将所述扩增问题文本、所述扩增答案文本和所述预设类别提示词项进行拼接,确定对应拼接结果为第二样本;
10.将所述扩增答案关键词输入至所述预训练好的问答分类模型中,得到第二问答类别,将所述扩增答案关键词和所述第二问答类别进行拼接,确定拼接结果为所述第二样本的标签;
11.以所述第一样本和所述第二样本为训练样本,以所述第一样本的标签和所述第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。
12.第二方面,本发明实施例提供一种基于人工智能的对话模型训练装置,所述对话模型训练装置包括:
13.第一样本拼接模块,用于将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本;
14.第一标签拼接模块,用于根据所述初始答案文本提取初始答案关键词,将所述初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将所述初始答案关键词和所述第一问答类别进行拼接,确定拼接结果为所述第一样本的标签;
15.第二样本拼接模块,用于将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将所述扩增问题文本、所述扩增答案文本和所述预设类别提示词项进行拼接,确定对应拼接结果为第二样本;
16.第二标签拼接模块,用于将所述扩增答案关键词输入至所述预训练好的问答分类模型中,得到第二问答类别,将所述扩增答案关键词和所述第二问答类别进行拼接,确定拼接结果为所述第二样本的标签;
17.对话模型训练模块,用于以所述第一样本和所述第二样本为训练样本,以所述第一样本的标签和所述第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。
18.第三方面,本发明实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的对话模型训练方法。
19.第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的对话模型训练方法。
20.本发明实施例与现有技术相比存在的有益效果是:通过将初始问题文本、初始答案文本和预设类别提示词项拼接为第一样本,以及通过文本回译模型得到扩增问题文本、扩增答案文本和扩增答案关键词,将扩增问题文本、扩增答案文本和预设类别提示词项拼接为第二样本,不仅扩充了文本数据,还通过设置类别提示词项来区分问题文本和答案文本,解决了拼接结果中问题文本和答案文本容易产生混淆的问题;并且,通过得到初始答案关键词的第一问答类别并拼接为第一样本的标签,以及得到扩增答案关键词的第二问答类别并拼接为第二样本的标签,通过在标签中加入问答类别信息,提高了对话模型在不同类别问题上的回复性能;最后以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签对预设的对话模型进行训练,有效提高了训练好的对话模型的准确性,提高了金融科技领域中客服机器人的对话准确性,进而提高了金融业务的服务效率和质量。
附图说明
21.为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些
附图获得其他的附图。
22.图1是本发明实施例一提供的一种基于人工智能的对话模型训练方法的一应用环境示意图;
23.图2是本发明实施例一提供的一种基于人工智能的对话模型训练方法的流程示意图;
24.图3是本发明实施例二提供的一种基于人工智能的对话模型训练装置的结构示意图;
25.图4是本发明实施例三提供的一种计算机设备的结构示意图。
具体实施方式
26.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
27.应当理解,当在本发明说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
28.还应当理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
29.如在本发明说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
[0030]
另外,在本发明说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0031]
在本发明说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本发明的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
[0032]
本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0033]
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
[0034]
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
[0035]
为了说明本发明的技术方案,下面通过具体实施例来进行说明。
[0036]
本发明实施例一提供的一种基于人工智能的对话模型训练方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,umpc)、上网本、云端计算机设备、个人数字助理(personal digital assistant,pda)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
[0037]
该方法可以广泛应用于金融科技、互联网科技、数字医疗、教育等领域中,例如,金融科技领域中的客服机器人可以根据该对话模型训练方法训练得到的对话模型与客户进行交流,完成解决客户疑问、指导客户交易、提供售后服务的工作,从而提升金融领域中的服务效率。
[0038]
参见图2,是本发明实施例一提供的一种基于人工智能的对话模型训练方法的流程示意图,上述对话模型训练方法可以应用于图1中的客户端,该对话模型训练方法可以包括以下步骤:
[0039]
步骤s201,将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本。
[0040]
其中,初始问题文本和初始答案文本是一一对应的问答文本,在进行对话模型训练时,以初始问题文本和初始答案文本作为训练文本的基础,通过对初始问题文本和初始答案文本进行语义分析来获得问答特征。对应地,针对金融领域中的客服机器人,初始问题文本和初始答案文本可以是根据人工客服与客户交流过程中,客户提出的问题和人工客服给出的答案,以基于人工客服的问答经验来训练客服机器人对应的问答模型,使得问答模型可以给出流畅、自然的回答,提高问答模型的准确性。
[0041]
预设类别提示词项是具有类别提示信息的词项,用于与初始问题文本、初始答案文本拼接,以同时提示初始问题文本的文本类别和初始答案文本的文本类别。例如,预设类别提示词项可以是“question”,用于提示对应的初始问题文本的文本类别为“问题”,也可以是“answer”,用于提示对应的初始答案文本的文本类别为“答案”。
[0042]
由于直接将初始问题文本和初始答案文本的拼接结果作为对话模型的输入内容时,拼接结果中初始问题文本和初始答案文本容易产生混淆,通过提取该种输入内容的语义特征来生成相应回复时,会降低对话模型对输入内容的语义理解程度,从而降低对话模型的准确性。
[0043]
因此,在本实施例中,为了提高对话模型的准确性,将获取的初始问题文本、初始答案文本和具有文本类别提示信息的预设类别提示词项进行拼接,并将拼接结果作为对话模型训练过程中的第一样本,以解决拼接结果中初始问题文本和初始答案文本容易产生混淆的问题,从而提高对话模型对输入内容的语义理解程度,进而提高对话模型的准确性。
[0044]
可选的是,将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本,包括:
[0045]
预设类别提示词项包括第一子词项和第二子词项,将获取的初始问题文本和第一
子词项进行拼接,得到问题提示文本;
[0046]
将获取的初始答案文本和第二子词项进行拼接,得到答案提示文本;
[0047]
将问题提示文本和答案提示文本进行拼接,确定对应拼接结果为第一样本。
[0048]
其中,模型输入的文本内容包括初始问题文本和初始答案文本两类文本,因此,对应地设置预设类别提示词项包括第一子词项和第二子词项,其中,第一子词项用于提示对应的初始问题文本的文本类别,例如,第一子词项为“question”,第二子词项用于提示对应的初始答案文本的文本类别,例如,第二子词项为“answer”。
[0049]
通过将获取的初始问题文本和第一子词项进行拼接,得到问题提示文本,并将获取的初始答案文本和第二子词项进行拼接,得到答案提示文本,然后将问题提示文本和答案提示文本进行拼接,确定对应拼接结果为第一样本。
[0050]
在一实施方式中,第一子词项作为初始问题文本的前缀与初始问题文本进行拼接,第二子词项作为初始答案文本的前缀与初始答案文本进行拼接,在提示初始问题文本的文本类别和初始答案文本的文本类别的同时,将初始问题文本和初始答案文本分隔开,进一步提高对话模型对输入内容的语义理解程度。
[0051]
在另一实施方式中,第一子词项作为初始问题文本的后缀与初始问题文本进行拼接,第二子词项作为初始答案文本的后缀与初始答案文本进行拼接,在提示初始问题文本的文本类别和初始答案文本的文本类别的同时,将初始问题文本和初始答案文本分隔开,进一步提高对话模型对输入内容的语义理解程度。
[0052]
上述将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本的步骤,通过将初始问题文本、初始答案文本和具有文本类别提示信息的预设类别提示词项拼接为对话模型训练过程中的第一样本,解决了拼接结果中初始问题文本和初始答案文本容易产生混淆的问题,提高了对话模型对输入内容的语义理解程度,进而提高了对话模型的准确性。
[0053]
步骤s202,根据初始答案文本提取初始答案关键词,将初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将初始答案关键词和第一问答类别进行拼接,确定拼接结果为第一样本的标签。
[0054]
其中,初始答案关键词是从初始答案文本中提取出的答案关键词,与初始答案关键词相比,初始答案文本中包含复杂的冗余信息,直接将初始答案文本作为对话模型的标签基础时,复杂的冗余信息会降低对话模型的准确性。因此,在本实施例中,将从初始答案文本提取出的初始答案关键词作为对话模型的标签基础,以提高对话模型的准确性。
[0055]
同时,将提取到的初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将初始答案关键词和第一问答类别进行拼接,确定拼接结果为第一样本的标签,由于该标签为对话模型的参数训练基础,因此,可以通过在标签中加入问答类别信息来提高对话模型在不同类别问题上的回复性能。其中,第一问答类别可以是地址问答、名称问答、时间问答、职业问答等中的任一种。
[0056]
在一实施方式中,可以使用关键词提取算法从初始答案文本中提取初始答案关键词。
[0057]
上述根据初始答案文本提取初始答案关键词,将初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将初始答案关键词和第一问答类别进行拼接,确定
拼接结果为第一样本的标签的步骤,通过将从初始答案文本提取出的初始答案关键词作为对话模型的标签基础,降低了标签中复杂的冗余信息,提高了对话模型的准确性,并通过在标签中加入问答类别信息,提高了对话模型在不同类别问题上的回复性能。
[0058]
步骤s203,将初始问题文本、初始答案文本和初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将扩增问题文本、扩增答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第二样本。
[0059]
其中,在训练对话模型时,使用的数据量越大,对话模型在不同数据上的对话回复效果越好,因此,在本实施例中,为了让对话模型能够更充分地学习到不同数据的分布特点以提升模型回复性能,使用文本回译模型对初始问题文本、初始答案文本和初始答案关键词进行语言转换来实现文本扩增,获得更丰富的文本语料。
[0060]
具体地,将初始问题文本、初始答案文本和初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,并进一步将扩增问题文本、扩增答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第二样本,来解决拼接结果中扩增问题文本和扩增答案文本容易产生混淆的问题,以提高对话模型对输入内容的语义理解程度,并降低标签中复杂的冗余信息,同时在标签中加入问答类别信息,以提高对话模型在不同类别问题上的回复性能,提高对话模型的准确性。
[0061]
可选的是,将初始问题文本、初始答案文本和初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,包括:
[0062]
文本回译模型包括第一语言转换子模型和第二语言转换子模型;
[0063]
将初始问题文本、初始答案文本和初始答案关键词分别输入至第一语言转换子模型,得到第一初始问题文本、第一初始答案文本和第一初始答案关键词;
[0064]
将第一初始问题文本、第一初始答案文本和第一初始答案关键词分别输入至第二语言转换子模型,得到第二初始问题文本、第二初始答案文本和第二初始答案关键词;
[0065]
对初始问题文本、初始答案文本、初始答案关键词、第二初始问题文本、第二初始答案文本和第二初始答案关键词进行去重处理,得到扩增问题文本、扩增答案文本和扩增答案关键词。
[0066]
其中,文本回译模型包括第一语言转换子模型和第二语言转换子模型,第一语言转换子模型用于将初始问题文本、初始答案文本和初始答案关键词由a类语言转换为b类语言,第二语言转换子模型用于将转换为b类语言的初始问题文本、初始答案文本和初始答案关键词再次转换为a类语言,即通过分别对初始问题文本、初始答案文本和初始答案关键词进行两次语言转换以完成回译,得到第二初始问题文本、第二初始答案文本和第二初始答案关键词。
[0067]
由于文本回译模型是对初始问题文本、初始答案文本和初始答案关键词进行语言转换来实现文本扩增的,可能存在语言转换前后文本差异很小的情况,造成第二样本中文本数据的冗余而导致对话模型的训练效率降低。
[0068]
因此,为了提高第二样本的质量,本实施例进一步对初始问题文本、初始答案文本、初始答案关键词、第二初始问题文本、第二初始答案文本和第二初始答案关键词进行去重处理,以降低回译得到的冗余文本数量,得到扩增问题文本、扩增答案文本和扩增答案关键词作为第二文本的构建基础。
[0069]
可选的是,对初始问题文本、初始答案文本、初始答案关键词、第二初始问题文本、第二初始答案文本和第二初始答案关键词进行去重处理,得到扩增问题文本、扩增答案文本和扩增答案关键词,包括:
[0070]
计算初始问题文本和第二初始问题文本的第一相似度,将第一相似度不大于第一预设阈值的第二初始问题文本作为扩增问题文本;
[0071]
计算初始答案文本和第二初始答案文本的第二相似度,将第二相似度不大于第二预设阈值的第二初始答案文本作为扩增答案文本;
[0072]
计算初始答案关键词和第二初始答案关键词的第三相似度,将第三相似度不大于第三预设阈值的第二初始答案关键词作为扩增答案关键词。
[0073]
其中,第二初始问题文本、第二初始答案文本和第二初始答案关键词是在初始问题文本、初始答案文本和初始答案关键词的基础上回译得到的,本实施例通过将与初始问题文本、初始答案文本或初始答案关键词相似度较高的第二初始问题文本、第二初始答案文本和第二初始答案关键词筛除来进行去重处理。
[0074]
具体地,计算初始问题文本和第二初始问题文本的第一相似度,将第一相似度不大于第一预设阈值的第二初始问题文本作为扩增问题文本;计算初始答案文本和第二初始答案文本的第二相似度,将第二相似度不大于第二预设阈值的第二初始答案文本作为扩增答案文本;计算初始答案关键词和第二初始答案关键词的第三相似度,将第三相似度不大于第三预设阈值的第二初始答案关键词作为扩增答案关键词,完成对初始问题文本、初始答案文本、初始答案关键词、第二初始问题文本、第二初始答案文本和第二初始答案关键词的去重处理。
[0075]
其中,第一预设阈值、第二预设阈值和第三预设阈值的具体数值可根据实际情况进行设定。
[0076]
上述将初始问题文本、初始答案文本和初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将扩增问题文本、扩增答案文本和预设类别提示词项拼接为第二样本的步骤,通过回译获得了更丰富的文本语料,并通过对回译得到的文本数据进行去重处理减少了冗余文本,提高了对话模型的训练效率,并将扩增问题文本、扩增答案文本和预设类别提示词项进行拼接得到第二样本,提高了对话模型对输入内容的语义理解程度,进而提高了对话模型的准确性。
[0077]
步骤s204,将扩增答案关键词输入至预训练好的问答分类模型中,得到第二问答类别,将扩增答案关键词和第二问答类别进行拼接,确定拼接结果为第二样本的标签。
[0078]
其中,通过将扩增答案关键词输入至预训练好的问答分类模型中,得到第二问答类别,并将扩增答案关键词和第二问答类别进行拼接,确定拼接结果为第二样本的标签,由于该标签为对话模型的参数训练基础,因此,可以通过在标签中加入问答类别信息来提高对话模型在不同类别问题上的回复性能。其中,第二问答类别可以是地址问答、名称问答、时间问答、职业问答等中的任一种。
[0079]
步骤s205,以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。
[0080]
其中,经过上述步骤的处理,第一样本和第二样本为文本扩增后的包含文本类别提示信息的问题文本和答案文本,预设类别提示词项的拼接有效解决了问题文本和答案文
本在拼接结果中容易产生混淆的问题,提高了对话模型对输入内容的语义理解程度;第一样本的标签和第二样本的标签为通过在标签中加入问答类别信息来提高了对话模型在不同类别问题上的回复性能。
[0081]
因此,本实施例以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签,对预设的对话模型进行训练,大大提高了对话模型的准确性。
[0082]
可选的是,以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型,包括:
[0083]
对话模型包括编码器和解码器,以第一样本和第二样本为训练样本,将训练样本输入至编码器进行特征提取,得到问答特征;
[0084]
将问答特征输入至解码器,得到样本答案;
[0085]
将样本答案输入至预训练好的问答分类模型中,得到样本问答类别;
[0086]
根据样本答案、样本问答类别和对应的训练标签计算第一模型损失,根据梯度下降法反向修正编码器和解码器的参数,直至第一模型损失收敛,得到训练好的对话模型。
[0087]
其中,编码器用于对第一样本和第二样本进行特征提取,得到问答特征,解码器用于对问答特征进行解码以输出样本答案,由于训练标签中包括问答类别信息,因此,将输出的样本答案输入至预训练好的问答分类模型中,得到样本问答类别,则可通过样本答案、样本问答类别和对应的训练标签计算第一模型损失,用来表示对话模型的输出与标签之间的差异程度。
[0088]
则第一模型损失越大,表示对话模型的准确率越小,需要根据梯度下降法反向修正编码器和解码器的参数,直至第一模型损失收敛,以得到训练好的对话模型。
[0089]
可选的是,根据样本答案、样本问答类别和对应的训练标签计算第一模型损失,包括:
[0090]
训练标签包括对应的初始答案关键词和对应的问答类别;
[0091]
计算样本答案和对应的初始答案关键词之间的第一损失,计算样本问答类别和第一问答类别或第二问答类别之间的第二损失;
[0092]
将第一损失和第二损失代入预设的损失关系模型中,计算得到第一模型损失。
[0093]
其中,训练标签包括对应的初始答案关键词和对应的问答类别,则分别计算样本答案和初始答案关键词之间的第一损失,来表征输出的样本答案和初始答案关键词之间的差异,以及样本问答类别和对应的第一问答类别或第二问答类别之间的第二损失,来表征得到的样本问答类别和第一问答类别或第二问答类别之间的差异,然后将第一损失和第二损失代入预设的损失关系模型中,计算得到第一模型损失。
[0094]
举例说明,将样本答案数量、初始答案关键词数量、样本问答类别数量、第一问答类别和第二问答类别总数量均记为n,n为正整数,首先根据词向量技术将第i(i=1,2,

,n)个样本答案转换为样本答案向量,并记为x
1i
,将第i个初始答案关键词转换为初始答案关键词向量,并记为x
2i
,则n个样本答案和n个初始答案关键词之间的第一损失为:
[0095][0096]
式中,l1为第一损失,n为样本答案数量和初始答案关键词数量,x
1i
为第i个样本答案向量,x
2i
为第i个初始答案关键词向量,i=1,2,

,n。
[0097]
当样本问答类别和第一问答类别或第二问答类别一致时,第二损失为l2=0,当样本问答类别和第一问答类别以及第二问答类别均不一致时,第二损失为l2=1。
[0098]
然后,将第一损失和第二损失代入预设的损失关系模型中,计算得到第一模型损失。在本实施例中,预设的损失关系模型为第一损失和预设第一损失权重的乘积,加上第二损失和预设第二损失权重的乘积,则第一模型损失为:
[0099]
l=α1l1+α2l2[0100]
式中,l为第一模型损失,α1为预设第一损失权重,l1为第一损失,α2为预设第二损失权重,l2为第二损失。
[0101]
其中,α1和α2的具体数值可由实际情况进行设定,在本实施例中,根据实际情况设定α1=0.7,α2=0.3。
[0102]
可选的是,问答分类模型包括分类编码器和全连接层,根据样本答案确定样本答案关键词,以样本答案关键词为训练样本,以训练样本的实际问答类别为训练标签;
[0103]
问答分类模型的训练过程包括:
[0104]
将样本答案关键词输入至分类编码器进行特征提取,得到样本类别特征;
[0105]
将样本类别特征输入至全连接层,得到样本问答类别;
[0106]
根据样本问答类别和对应实际问答类别计算第二模型损失,根据梯度下降法反向修正分类编码器和全连接层的参数,直至第二模型损失收敛,得到训练好的问答分类模型。
[0107]
其中,首先根据关键词提取算法提取样本答案中的样本答案关键词,并以样本答案关键词为训练样本,以训练样本的实际问答类别为训练标签对问答分类模型进行训练。
[0108]
具体地,将样本答案关键词输入至分类编码器进行特征提取,得到样本类别特征,将样本类别特征输入至全连接层,得到样本问答类别,并根据样本问答类别和对应实际问答类别计算第二模型损失,且第二模型损失越大,表示问答分类模型的分类准确率越低,则需要根据梯度下降法反向修正分类编码器和全连接层的参数,直至第二模型损失收敛,得到训练好的问答分类模型。
[0109]
本发明实施例通过将初始问题文本、初始答案文本和预设类别提示词项拼接为第一样本,以及通过文本回译模型得到扩增问题文本、扩增答案文本和扩增答案关键词,将扩增问题文本、扩增答案文本和预设类别提示词项拼接为第二样本,不仅扩充了文本数据,还通过设置类别提示词项来区分问题文本和答案文本,解决了拼接结果中问题文本和答案文本容易产生混淆的问题;并且,通过得到初始答案关键词的第一问答类别并拼接为第一样本的标签,以及得到扩增答案关键词的第二问答类别并拼接为第二样本的标签,通过在标签中加入问答类别信息,提高了对话模型在不同类别问题上的回复性能;最后以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签对预设的对话模型进行训练,有效提高了训练好的对话模型的准确性,提高了金融科技领域中客服机器人的对话准确性,进而提高了金融业务的服务效率和质量。
[0110]
对应于上文实施例的对话模型训练方法,图3给出了本发明实施例二提供的基于人工智能的对话模型训练装置的结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。
[0111]
参见图3,该对话模型训练装置包括:
[0112]
第一样本拼接模块31,用于将获取的初始问题文本、初始答案文本和预设类别提
示词项进行拼接,确定对应拼接结果为第一样本;
[0113]
第一标签拼接模块32,用于根据初始答案文本提取初始答案关键词,将初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将初始答案关键词和第一问答类别进行拼接,确定拼接结果为第一样本的标签;
[0114]
第二样本拼接模块33,用于将初始问题文本、初始答案文本和初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将扩增问题文本、扩增答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第二样本;
[0115]
第二标签拼接模块34,用于将扩增答案关键词输入至预训练好的问答分类模型中,得到第二问答类别,将扩增答案关键词和第二问答类别进行拼接,确定拼接结果为第二样本的标签;
[0116]
对话模型训练模块35,用于以第一样本和第二样本为训练样本,以第一样本的标签和第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。
[0117]
可选的是,上述第一样本拼接模块31包括:
[0118]
第一拼接子模块,用于预设类别提示词项包括第一子词项和第二子词项,将获取的初始问题文本和第一子词项进行拼接,得到问题提示文本;
[0119]
第二拼接子模块,用于将获取的初始答案文本和第二子词项进行拼接,得到答案提示文本;
[0120]
第三拼接子模块,用于将问题提示文本和答案提示文本进行拼接,确定对应拼接结果为第一样本。
[0121]
可选的是,上述第二样本拼接模块33包括:
[0122]
文本回译模型确定子模块,用于确定文本回译模型包括第一语言转换子模型和第二语言转换子模型;
[0123]
第一语言转换子模块,用于将初始问题文本、初始答案文本和初始答案关键词分别输入至第一语言转换子模型,得到第一初始问题文本、第一初始答案文本和第一初始答案关键词;
[0124]
第二语言转换子模块,用于将第一初始问题文本、第一初始答案文本和第一初始答案关键词分别输入至第二语言转换子模型,得到第二初始问题文本、第二初始答案文本和第二初始答案关键词;
[0125]
扩增数据确定子模块,用于对初始问题文本、初始答案文本、初始答案关键词、第二初始问题文本、第二初始答案文本和第二初始答案关键词进行去重处理,得到扩增问题文本、扩增答案文本和扩增答案关键词。
[0126]
可选的是,上述扩增数据确定子模块包括:
[0127]
第一扩增数据确定单元,用于计算初始问题文本和第二初始问题文本的第一相似度,将第一相似度不大于第一预设阈值的第二初始问题文本作为扩增问题文本;
[0128]
第二扩增数据确定单元,用于计算初始答案文本和第二初始答案文本的第二相似度,将第二相似度不大于第二预设阈值的第二初始答案文本作为扩增答案文本;
[0129]
第三扩增数据确定单元,用于计算初始答案关键词和第二初始答案关键词的第三相似度,将第三相似度不大于第三预设阈值的第二初始答案关键词作为扩增答案关键词。
circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0148]
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(smart media card,smc)、安全数字(secure digital,sd)卡、闪存卡(flash card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(bootloader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
[0149]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、电载波信号、电信信号以及软件分发介质。例如u盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
[0150]
本发明实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
[0151]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0152]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
[0153]
在本发明所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
[0154]
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0155]
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

技术特征:
1.一种基于人工智能的对话模型训练方法,其特征在于,所述对话模型训练方法包括:将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本;根据所述初始答案文本提取初始答案关键词,将所述初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将所述初始答案关键词和所述第一问答类别进行拼接,确定拼接结果为所述第一样本的标签;将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将所述扩增问题文本、所述扩增答案文本和所述预设类别提示词项进行拼接,确定对应拼接结果为第二样本;将所述扩增答案关键词输入至所述预训练好的问答分类模型中,得到第二问答类别,将所述扩增答案关键词和所述第二问答类别进行拼接,确定拼接结果为所述第二样本的标签;以所述第一样本和所述第二样本为训练样本,以所述第一样本的标签和所述第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。2.根据权利要求1所述的对话模型训练方法,其特征在于,所述将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本,包括:所述预设类别提示词项包括第一子词项和第二子词项,将获取的初始问题文本和所述第一子词项进行拼接,得到问题提示文本;将获取的初始答案文本和所述第二子词项进行拼接,得到答案提示文本;将所述问题提示文本和所述答案提示文本进行拼接,确定对应拼接结果为第一样本。3.根据权利要求1所述的对话模型训练方法,其特征在于,所述将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,包括:所述文本回译模型包括第一语言转换子模型和第二语言转换子模型;将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至所述第一语言转换子模型,得到第一初始问题文本、第一初始答案文本和第一初始答案关键词;将所述第一初始问题文本、所述第一初始答案文本和所述第一初始答案关键词分别输入至所述第二语言转换子模型,得到第二初始问题文本、第二初始答案文本和第二初始答案关键词;对所述初始问题文本、所述初始答案文本、所述初始答案关键词、所述第二初始问题文本、所述第二初始答案文本和所述第二初始答案关键词进行去重处理,得到扩增问题文本、扩增答案文本和扩增答案关键词。4.根据权利要求3所述的对话模型训练方法,其特征在于,所述对所述初始问题文本、所述初始答案文本、所述初始答案关键词、所述第二初始问题文本、所述第二初始答案文本和所述第二初始答案关键词进行去重处理,得到扩增问题文本、扩增答案文本和扩增答案关键词,包括:计算所述初始问题文本和所述第二初始问题文本的第一相似度,将所述第一相似度不大于第一预设阈值的所述第二初始问题文本作为所述扩增问题文本;计算所述初始答案文本和所述第二初始答案文本的第二相似度,将所述第二相似度不
大于第二预设阈值的所述第二初始答案文本作为所述扩增答案文本;计算所述初始答案关键词和所述第二初始答案关键词的第三相似度,将所述第三相似度不大于第三预设阈值的所述第二初始答案关键词作为所述扩增答案关键词。5.根据权利要求1所述的对话模型训练方法,其特征在于,所述以所述第一样本和所述第二样本为训练样本,以所述第一样本的标签和所述第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型,包括:所述对话模型包括编码器和解码器,以所述第一样本和所述第二样本为训练样本,将所述训练样本输入至所述编码器进行特征提取,得到问答特征;将所述问答特征输入至所述解码器,得到样本答案;将所述样本答案输入至预训练好的问答分类模型中,得到样本问答类别;根据所述样本答案、所述样本问答类别和对应的训练标签计算第一模型损失,根据梯度下降法反向修正所述编码器和所述解码器的参数,直至所述第一模型损失收敛,得到训练好的对话模型。6.根据权利要求5所述的对话模型训练方法,其特征在于,所述根据所述样本答案、所述样本问答类别和对应的训练标签计算第一模型损失,包括:所述训练标签包括对应的初始答案关键词和对应的问答类别;计算所述样本答案和对应的所述初始答案关键词之间的第一损失,计算所述样本问答类别和所述第一问答类别或所述第二问答类别之间的第二损失;将所述第一损失和所述第二损失代入预设的损失关系模型中,计算得到所述第一模型损失。7.根据权利要求5所述的对话模型训练方法,其特征在于,所述问答分类模型包括分类编码器和全连接层,根据所述样本答案确定样本答案关键词,以所述样本答案关键词为训练样本,以训练样本的实际问答类别为训练标签;所述问答分类模型的训练过程包括:将所述样本答案关键词输入至所述分类编码器进行特征提取,得到样本类别特征;将所述样本类别特征输入至所述全连接层,得到样本问答类别;根据所述样本问答类别和对应所述实际问答类别计算第二模型损失,根据梯度下降法反向修正所述分类编码器和所述全连接层的参数,直至所述第二模型损失收敛,得到训练好的问答分类模型。8.一种基于人工智能的对话模型训练装置,其特征在于,所述对话模型训练装置包括:第一样本拼接模块,用于将获取的初始问题文本、初始答案文本和预设类别提示词项进行拼接,确定对应拼接结果为第一样本;第一标签拼接模块,用于根据所述初始答案文本提取初始答案关键词,将所述初始答案关键词输入至预训练好的问答分类模型中,得到第一问答类别,将所述初始答案关键词和所述第一问答类别进行拼接,确定拼接结果为所述第一样本的标签;第二样本拼接模块,用于将所述初始问题文本、所述初始答案文本和所述初始答案关键词分别输入至训练好的文本回译模型,得到扩增问题文本、扩增答案文本和扩增答案关键词,将所述扩增问题文本、所述扩增答案文本和所述预设类别提示词项进行拼接,确定对应拼接结果为第二样本;
第二标签拼接模块,用于将所述扩增答案关键词输入至所述预训练好的问答分类模型中,得到第二问答类别,将所述扩增答案关键词和所述第二问答类别进行拼接,确定拼接结果为所述第二样本的标签;对话模型训练模块,用于以所述第一样本和所述第二样本为训练样本,以所述第一样本的标签和所述第二样本的标签为训练标签,对预设的对话模型进行训练,得到训练好的对话模型。9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的对话模型训练方法。10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的对话模型训练方法。

技术总结
本发明适用于金融科技领域,尤其涉及一种基于人工智能的对话模型训练方法、装置、设备及介质。本发明通过将初始问题文本、初始答案文本和预设类别提示词项拼接为第一样本,回译得到扩增问题文本、扩增答案文本和扩增答案关键词并拼接得到第二样本,扩充了文本数据量,并解决了拼接结果中问题文本和答案文本易产生混淆的问题;得到初始答案关键词的第一问答类别并拼接为第一样本的标签,得到扩增答案关键词的第二问答类别并拼接为第二样本的标签,通过在标签中加入问答类别信息提高了对话模型在不同类别问题上的回复性能;并通过训练提高了对话模型的准确性,在金融科技领域中提高了客服机器人的对话准确性以及金融业务的服务效率和质量。务效率和质量。务效率和质量。


技术研发人员:李志韬 王健宗 程宁
受保护的技术使用者:平安科技(深圳)有限公司
技术研发日:2023.05.19
技术公布日:2023/7/26
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐