在没有完整转录本的情况下的端到端口语理解的制作方法
未命名
09-21
阅读:138
评论:0

1.本公开总体上涉及计算机系统,并且更具体地涉及被配置为从口语音频数据提取含义的计算机系统。
背景技术:
2.近年来,口语理解(slu)和自动语音识别(asr)已经在各种应用中变得日益突出,包括但不限于交互式口语会话系统和理解代理-客户对话的呼叫中心分析。asr是计算机科学和计算语言学的跨学科子领域,其提供使得能够通过计算机识别口语的技术和方法。它结合了计算机科学、语言学和计算机工程领域的知识和研究。asr将语音转换成文本(例如,单词)。相反,slu将语音转换成含义(例如,语义注释的文本)。用于语音识别的训练模型通常涉及包括其转录本的语音数据的语料库。
技术实现要素:
3.根据各种实施例,提供了用于训练口语理解(slu)模型的计算设备、非暂时性计算机可读存储媒质和方法。在训练阶段期间,接收针对每个对应语音记录包括(i)一个或多个语音记录以及(ii)一组语义实体和/或总体意图的自然语言训练数据。对于每个语音记录,从对应语义实体和/或总体意图中提取一个或多个实体标签和对应值以及一个或多个意图标签。基于对应语音记录的一个或多个实体标签和对应值以及一个或多个意图标签来训练口语理解(slu)模型,而无需语义实体具有对应音频语音记录的转录本。
4.在一个实施例中,语义实体不按口语顺序。语义实体可以按字母顺序。
5.在一个实施例中,提取和训练是基于基于注意力的编码器-解码器神经网络模型的。
6.在一个实施例中,自然语言训练数据基于不同类型的训练数据的组合。
7.在一个实施例中,执行预处理对齐以将语义实体对齐为口语顺序。
8.在一个实施例中,训练数据基于用户和帮助用户执行任务的管理员之间的交易数据。
9.在一个实施例中,训练数据包括交易数据的记录,该交易数据包括实体包。
10.在一个实施例中,一个或多个实体标签和对应值以及一个或多个意图标签的提取是通过神经网络处理进行的。在各种实施例中,可以使用连接机制时间分类(ctc)、递归神经网络换能器(rnn-t)、以及基于注意力的编码器-解码器神经网络模型。
11.在一个实施例中,训练涉及转移学习,该转移学习包括在asr模型上初始化口语(slu)模型。
12.在一个实施例中,在活动阶段期间,接收包括音频语音记录而没有音频语音记录的转录本的原始口语数据。应用经训练的slu模型来识别原始口语数据的含义,其中该含义包括原始口语的意图和语义实体。应用slu模型来识别口语中的总体意图和语义实体。
13.由于将计算限制到减小的相关数据池中,节省了对执行动作的计算设备上的计算
需求以及存储库中的训练数据量,从而提供了更高效的计算平台。
14.这些和其他特征将从以下对其说明性实施例的详细描述中变得显而易见,其中描述应结合附图阅读。
附图说明
15.附图是说明性实施例。它们没有示出所有实施例。附加地或替代地,可使用其他实施例。可省略可能显而易见或不必要的细节以节省空间或用于更有效说明。一些实施例可用附加的部件或步骤和/或不用示出的所有部件或步骤来实践。当在不同的附图中出现相同的数字时,它指代相同或相似的部件或步骤。
16.图1示出了与说明性实施例一致的用于在没有完整转录本的情况下的端到端口语理解的系统的示例性架构。
17.图2示出了用于确定话语的含义的训练数据的示例。
18.图3a提供了使用连接机制时间分类和基于注意力的模型对语音输入的实体包插槽填充f1分数的评估的汇总表。
19.图3b提供了对具有加性街道噪声的语音输入实体包插槽填充f1分数的汇总表。
20.图3c显示了用于训练asr模型的数据量如何影响最终f1分数的表格,该asr模型用于初始化slu训练。
21.图4示出了使用asr模型的话语的注意力图。
22.图5示出了按口语顺序使用slu的话语的注意力图。
23.图6示出了按字母顺序使用slu的话语的注意力图。
24.图7a和图7b分别呈现了与说明性实施例一致的在训练阶段和活动阶段期间的端到端口语理解系统的说明性过程。
25.图8提供了计算机硬件平台的功能框图图示,计算机硬件平台可以用于实现可以托管语义实体注释引擎的具体配置的计算设备。
26.图9描绘了与说明性实施例一致的云计算环境。
27.图10描绘了与说明性实施例一致的抽象模型层。
具体实施方式
28.综述
29.在以下详细描述中,通过示例的方式阐述了许多具体的细节以提供对相关教导的透彻理解。然而,应当显而易见的是,可以在没有此类细节的情况下进行实践。在其他情况下,已经在没有细节的情况下以相对较高的层级描述了众所周知的方法、程序、部件和/或电路,以避免不必要地模糊本教导的各方面。
30.本公开总体上涉及自动训练模型从而以计算高效的方式理解口语的系统和计算机化方法。口语理解(slu)的显著方面涉及插槽填充的概念,其中通过使用语义实体标签来表示口语话语的含义。本文的教导提供了将语音输入直接转换成语义实体的端到端(e2e)口语理解系统。在一个方面,与传统的方法相比,本文所讨论的e2e slu模型可以在语义实体注释上训练,而无需逐字转录本。训练这样的模型是非常有用的,因为它可以大幅地降低数据收集的计算复杂度。在各种实施例中,通过调整最初用于训练语音识别的模型来提供
两种类型的这种语音至实体模型,即连接机制时间分类(ctc)模型和基于注意力的编码器-解码器模型。鉴于本文所讨论的实验涉及语音输入,这些系统正确地识别语义实体标签和表示语义实体值的单词两者。申请人已经确定,与在完整转录本上训练相比,在仅针对实体进行训练时,存在可忽略的退化。在一个实施例中,实体被重新排序,从而在语音至实体包f1分数中仅实现约2%的退化。
31.本文的教导在端到端(e2e)口语理解(slu)框架提供语音输入,将语音作为输入并返回实体标签(在本文中有时被称为语义实体注释)和值。在一个方面,当前系统的经训练的slu模型用于理解所讲内容的含义是有作用的。与需要逐字准确度的自动语音识别(asr)相比,当前slu对每个单词或者甚至如何说出(例如,实体的顺序、单词选择等)不是非常敏感,只要保留了话语的含义即可。因此,当前slu系统可能不需要逐字转录本形式的训练数据,逐字转录本形式的训练数据对于新的领域的获取和处理是耗时且计算昂贵的。
32.slu系统传统上是将语音转换成文本自动语音识别(asr)系统接着是解释文本的含义的自然语言理解(nlu)系统的级联。相比之下,在一个实施例中,e2e slu系统将语音输入直接处理成含义,而不经过中间文本转录本。在一个实施例中,本文的教导可以使用与话语的口语顺序不匹配的一组(或包)实体来训练e2e slu系统。这种来自实体的特定顺序的自由度可以使得系统能够在来自例如与交易数据配对的客户与管理员的通话的语音数据上进行训练。在各种实施例中,交易数据可以由计算设备自动提供或由人类代理产生。例如,考虑聊天机器人或人类代理帮助客户端进行诸如航班预约的任务,产生包括一组实体的交易记录。该记录可作为用于训练模型的弱监督,该模型用于理解话语的含义。当由人类执行时,语音数据的准确的逐字转录本通常涉及5-10个实时,更不用说用于标记实体的附加成本。相比之下,包括实体包的交易记录是在通过人还是聊天机器人帮助客户的过程期间获取的,并且都没有附加的成本。通过在无需转录本的情况下在训练中使用语音记录和实体包,存在技术改进,即数据收集的计算复杂度和成本大幅地减少,而训练数据量有所改进,从而改进了执行口语的分析的计算设备的准确度。本文所描述的技术可以以多种方式实现。下面参考以下附图提供示例性实现。
33.示例架构
34.图1示出了与说明性实施例一致的用于在没有完整转录本的情况下的端到端口语理解的系统的示例架构100。架构100可以包括一个或多个会话实体101(1)至101(n),其可以通过网络106借助于发送和接收电子数据包105(1)至105(n)的方式来参与彼此的会话。会话实体通常是个人(例如,人类用户),但是也可包括被配置为与人类用户通信的聊天机器人。电子数据包105(1)至105(n)在本文中有时被称为口语数据或简单的语音输入。口语数据包括原始语音数据(例如,语音记录)。在一些实施例中,口语数据还包括一组实体,稍后更详细地讨论。
35.架构100还可包括历史数据存储库112,该历史数据存储库用于提供可用于训练语音识别模型的训练数据113。架构100包括托管slu 103的口语理解(slu)服务器116。存在允许各种用户设备102(1)至101(n)彼此通信并且允许口语数据被获取并存储在历史数据存储库112处的网络。网络106可以是但不限于局域网(“lan”)、虚拟专用网络(“vpn”)、蜂窝网络、因特网、或其组合。例如,网络106可以包括通信地耦合到专用网络(有时被称为内联网)的移动网络,该专用网络提供各种辅助服务,诸如与各种数据库、潜在参与者、互联网和云
120的通信。
36.出于讨论的目的,附图中出现了不同的用户/计算设备,以表示可由用户(例如,101(1)至102(n))使用以通过网络106通信的客户端设备的一些示例。现今,用户设备通常采取便携式手持机、智能电话、平板电脑、个人数字助理(pda)和智能手表的形式,虽然用户设备可以以其他形式因素实现,包括消费、医疗和商业电子设备。
37.历史数据存储库112被配置成存储和维护训练数据113的大集合,其包括与各种用户之间的先前对话有关的数据,slu引擎103可以从中学习。例如,历史数据存储库112可提供与已被成功分割及其含义被识别和标记的会话有关的训练数据。在一个实施例中,训练数据113作为数据的语料库,slu103可以从中学习以创建和/或训练口语理解模型,然后该口语理解模型可以用来评估一个或多个实体102(1)至102(n)之间的会话的含义而无需其转录本。
38.在一个实施例中,在口语理解系统的训练阶段期间,通过网络106从一个或多个用户设备102(1)至102(n)获取口语数据105(1)至105(n)。在各种实施例中,可以由在slu服务器116上运行的slu引擎103或者直接由历史数据存储库112执行获取。在一个实施例中,可以由云120上的分布式计算架构来执行获取。口语数据(例如,105(1)至105(n))包括(i)音频语音记录和(ii)一组语义实体和/或意图。
39.在一个实施例中,口语数据的语义实体和/或意图不包括音频语音记录的转录本。在其他实施例中,转录本可以在被存储在历史数据存储库112中之前或稍后从历史数据存储库112接收数据时被过滤出(例如,由slu引擎103过滤)。换言之,实体标签/值和意图标签是从语义实体提取的,而无需语音记录的逐字转录本。例如,从书面转录本(如果提供的话)中提取实体标签/值和意图标签,并且去除除了实体标签/值和意图标签之外的词语。
40.在预定的间隔或者触发事件时,slu引擎103接收训练数据113,它可以使用该训练数据113来训练slu模型而无需语音记录的逐字转录本,从而大幅地减少历史数据量以及slu服务器116的计算开销。然后经训练的slu模型可以被slu 103引擎在活动阶段期间使用,以促进理解语音记录的含义。下面将更详细地讨论这些特征中的每一个。
41.将会理解的是,由slu 103接收的训练数据113和电子数据包105(1)至105(n)的庞大数量可能为托管slu 103的slu服务器116的计算资源提供技术挑战,包括slu服务器116的处理时间和存储器资源。对此,在一个实施例中,slu 103被配置为过滤超出实体标签和意图标签的范围的话语。例如,诸如无关紧要的短语(例如,不连贯的或无关紧要的,诸如“uhm”、“ahh”、“let me think”、“like”等)之类的话语(在本文中被称为不被交互定义的话语)以及不与实体标签或意图标签直接有关的其他术语由slu引擎103去除。通过这种方式,实现了节省slu服务器116和/或历史数据库112的有价值的计算和存储资源的技术效果。由于将计算限制到减小的相关数据池中,对slu服务器116的计算需求得以节省,从而提供了更高效的计算平台。
42.虽然通过示例的方式说明历史数据存储库112和slu服务器116以及计算设备102(1)至102(n)在不同的平台上,但是将理解的是,在不同的实施例中,这些平台可以被组合。在其他实施例中,这些计算平台中的一个或多个可以由虚拟机或软件容器形式的虚拟计算设备来实现,虚拟机或软件容器托管在云120中,从而提供用于处理和存储的弹性架构。稍后将更详细地讨论云。
43.示例语义实体
44.现在参考图2,图2示出了用于确定话语的含义(即意图和语义实体标签和值)的训练数据200的示例。对于语音识别,训练数据通常是成对的话语(例如,语音记录)和逐字转录本,如在图2的示例中的转录本210中所示。为了训练可以执行意图分类和语义插槽填充的slu模型,这样的句子通常进一步被标记为意图和语义实体,如示例220中所示。换言之,已知的方法通常使用转录本加上意图和语义实体标签220。
45.相比之下,slu引擎103被配置为训练仅与语义实体配对的语音。如本文所使用的,语义实体包括配对的标签-值。例如,“toloc.city_name”是标签,并且“boston”是语义实体的值。对此,示例230显示了以自然口语顺序呈现用于训练的语义实体。更具体地,示例230与示例220的不同之处在于,不是语义实体的一部分的单词被排除了。语义实体可以被认为是更显著的关键词。应注意的是,这并不意味着其他词语(被排除的)不携带任何含义。例如,“from”和“to”用于确定城市是目的地城市还是出发城市。在我们的经训练的slu模型中,这样的单词将不被输出,但是对应于那些单词的语音信号将帮助模型输出正确的语义实体标签。类似地,示例230与示例220的不同之处在于,不存在可能与确定意图相关的某些显著单词(例如,“want a flight”)。slu引擎能够仅用意图标签(“o-int-flight”)进行训练。
46.在一个实施例中,语义实体不需要按口语顺序输出,而可以是任意的或任何预定的顺序。在示例240中,语义实体不是按口语顺序给出的,而是根据实体标签名称按字母顺序排序。这模拟了语义框架或实体包的概念,其中实体的顺序不影响其含义:{{from loc.city name:reno}、{stoploc.city name:las vegas}、{toloc.city name:dallas}}。
47.asr模型到slu系统中的适配示例
48.在各种实施例中,因为存在可以转录slu数据的不同方式,所以本文呈现了不同方法来训练slu系统。从预先经训练的asr模型开始,下面讨论架构以解释当用于对各种slu数据进行建模时两种不同类型的e2e模型如何表现。每个可能的训练过程可以采用以下模块中的一个或多个。
49.在一个实施例中,使用asr模型适配到域数据的(asr-slu适配)模块。鉴于现成的asr模型可能在声学上不同于slu数据的数据上训练,初始步骤是适配asr系统。例如,asr模型的参数适于在asr的任务中(即语音转录成单词)对域数据执行地更好。仅使用逐字转录本的动作使模型适于slu域数据中存在的新的声学条件、单词和语言构造。在模型适配中,可以使用原始通用asr数据(gp-asr)和域数据两者来提供比仅适配域数据更好的asr输出单元的覆盖率。例如,该覆盖率可以与由asr建模的词汇或单元集合(例如,电话、字符、单词等)有关,其中的一些可能不出现在域数据中。通过使用大量的通用数据来改进覆盖率。
50.在一个实施例中,使用联合asr和slu模型训练(例如,联合asr+slu)。实体标签与完整转录本一起被引入训练流水线中。该模块是课程学习的形式,其将现成的asr模型逐渐修改为成熟的slu模型。与传统的方法不同,该模型现在被训练为除了通常的字形或语音输出标志之外还输出非声学实体标志。对于gp-asr数据,目标仅是字形/语音标志,而对于slu域数据,目标还包括实体标签。虽然该模块是训练最终slu模型的自然进展,但是如果足够的slu资源可用,则可以跳过它。
51.在一个实施例中,使用slu模型微调(例如,微调slu)。在该最终模块中,来自上文
所讨论的第一或第二模块的模型仅在slu数据上进行微调以创建最终slu模型。如前所述,最终slu模型所要识别的语义实体可以采取不同的形式:在完整转录本内,实体仅按口语顺序,或者实体仅按字母顺序。
52.示例训练端到端slu模型
53.使用上文所述的训练过程,在各种实施例中,提供了尝试直接识别语音中的实体的端到端slu系统的两个变体,而无需中间的文本生成和基于文本的实体检测。作为示例,可以使用可以是来自联盟的公共可用的语料库的数据库,同时将理解的是也可以使用其他数据。
54.在一个实施例中,slu数据和评估指标方法与标准训练和测试集合一起使用。仅作为说明性示例而非限制性,使用来自一个数据集中的a类(即上下文无关的)训练数据的4978个训练话语以及来自其他数据集的893个测试话语。
55.在本示例中,4976个训练话语包括来自355个说话者的9.64小时的音频。893个测试话语包括来自55个说话者的1.43小时的音频。为了更好地训练所提出的e2e模型,可以使用速度/节奏扰动创建附加的语料库副本。在数据增强之后的最终训练语料库是140小时的音频数据。用f1分数测量插槽填充性能。当使用语音输入而不是文本时,可能出现单词错误。f1分数规定插槽标签和值都是正确的。例如,如果参考是toloc.cityname:newyork,而解码输出是toloc.cityname:york,则slu引擎计数假否定和假肯定两者。在一个实施例中,仅产生正确的插槽标签是不够的:对于正被识别的语义实体值(york)的部分没有给出“部分信用”。该评分可以忽略实体的顺序,并且因此适用于“实体包”情况。
56.在一个实施例中,使用基于连接机制时间分类(ctc)的slu模型。为了允许slu模型独立于外部语言模型来处理实体和对应值,可以在通用asr数据上构造单词ctc模型。仅作为示例而非限制,可使用300小时的预定的类型的数据,诸如开关板(swb-300)数据。如本领域中已知的,swb-300是用于语音识别的现成的公共数据。在各种实施例中,不同的训练方法可以用于训练基于ctc的slu模型。
57.第一实验假定针对slu数据的逐字转录本和实体标签都是可用的。对此,使用上文所述的所有三个训练模块。作为示例而非限制,asr-slu适配步骤可以如下执行。asr模型的估计了18324个单词目标和空白符号的分数的输出层被替换为估计18642个单词/实体目标和空白的分数的随机初始化的输出层。剩余的6个lstm层(每个方向具有640个单元)和具有256个单元的完全连接瓶颈层的权重保持相同。然后该模型在300小时的第一类型数据(诸如swbgp-asr数据)和140小时的第二类型的数据(诸如干净的第二类型的数据)的组合数据集上训练。注意的是,在该步骤中,虽然输出层具有用于实体标签的单元,但是训练目标仅是单词。在联合asr+slu步骤中,实体标签被引入到训练转录本中,并且联合asr-slu模型在swb+slu数据上训练,从来自asr-slu适配步骤的最终权重开始。在第三和最终微调slu步骤中,联合asr-slu模型仅在140小时的slu数据上进行微调。
58.图3a提供了使用ctc和基于注意力的模型的对语音输入的实体包插槽填充f1分数的评估的汇总表。在图3a的表中的实验[1a]中,在干净的测试数据上评估实验[1a]的完整转录本模型。鉴于slu模型是单词ctc模型,在解码时不使用外部语言模型(lm);相反,采用输出的简单贪婪解码。该初始模型对于正确地检测实体标签及其值具有91.7的f1分数。
[0059]
在实验[2a]中,利用完整逐字转录本以及实体标签的开发了类似slu模型,但是
asr-slu适配模块和联合asr+slu适配模块被跳过。该模型用预先经训练的swb asr模型初始化,并且slu模型被直接训练。该模型也实现了91.7f1分数,从而表明可能不总是需要课程学习步骤。
[0060]
在图3a的下一组实验中,针对训练过程分析了逐字转录本的重要性。在实验[1a]的联合asr+slu模块之后,在实验[3a]中,slu模型被训练成仅识别在口语顺序中语义实体标签及其值。观察到,在口语顺序语义实体上训练的模型(没有完整的逐字逐句转录本)学习忽略信号中不是实体值的单词,同时仅保留语义实体值及其标签。该slu模型执行略好于[1a]中的完整转录本模型。
[0061]
该实验在实验[4a]中通过完全去除在训练过程中使用转录本而扩展。该slu模型在用预先经训练的asr模型初始化之后,被直接训练来识别实体标签及其值,而无需任何课程学习步骤或逐字转录本。表300a指示模型在性能上略有下降,但是与基线系统保持一致。
[0062]
最后,slu系统在识别按字母顺序排序的实体标签及其值的更加困难的任务上训练。在实验[1a]的联合asr+slu模块之后,在实验[5a]中,训练仅识别语义实体标签及其值的slu模型,但是现在按字母顺序。
[0063]
在实验[6a]中,训练与[5a]类似的模型,但是没有任何课程学习步骤。例如,课程学习步骤涉及在完整转录本上预先训练asr模型并使用该模型来初始化slu模型。在这一任务上,ctc模型的性能显著下降,因为它不能从不按口语顺序重新排序的目标中有效地学习。通过课程学习步骤,[5a]中的结果更好,但是仍比基线差。评估基于注意力的slu模型
[0064]
在一个实施例中,用于slu的注意力模型是用为标准开关板asr任务开发的asr模型来初始化的。该模型使用编码器-解码器架构,其中编码器是使用批量归一化、剩余连接和线性瓶颈层的8层长短期记忆网络(lstm)堆栈。解码器对在字符上估计的字节对编码(bpe)单元的序列进行建模,并且包括2个单向lstm层。一个是专用的类似语言模型的部件,其仅对嵌入的预测符号序列进行操作,而另一个联合地处理声学和符号信息。在一个示例中,解码器应用附加的、位置感知的注意力,并且每层具有768个单向lstm节点。利用各种正则化技术(包含specaugment、序列-噪声注入、速度-节奏增强和各种随机失活方法)可使用该单头序列到序列模型来引起高级语音识别性能。
[0065]
为了识别实体,遵循上文讨论的模块,asr模型类似于ctc模型被适配。与使用单词单元的ctc模型相比,在一个实施例中,注意力模型使用更小的库存(例如,600个bpe)单元并依赖于解码器lstm来建模更长的序列——基于注意力的模型具有固有的长跨度语言模型。在初始asr模型在开关板上训练之后,随后的适配和转移学习步骤仅使用没有任何开关板数据的数据。因为注意力模型在子单词水平操作,并且出现在转录本中的所有新单词可以使用这些子单词单元来建模,所以在第一asr-slu适配步骤中不需要输出和嵌入层的扩展。为了简单起见,跳过联合asr+slu模块,并且slu引擎可以直接进入到微调slu模块,其中,解码器的输出层和嵌入层用语义实体标签进行扩展。对应于语义实体标签的softmax层和嵌入权重被随机初始化,而对应于softmax层和嵌入层中的先前已知符号的所有其他参数(包括权重)从asr模型中被复制。不具有词汇外的单词,子单词水平模型可能非常适合于用上面讨论的“以自然口语顺序的实体”示例230直接开始适配过程。在本示例中,所有适配步骤使用5个训练时期。
[0066]
在实验[6a]中,图3a的表显示了对于基于注意力的slu模型的插槽填充f1分数。在
实验[1a]中,在开关板300h上训练的基于注意力的asr模型首先在干净的数据上适配以创建特定域的asr模型。在测试集合上,使用基本swb-300模型的单词错误率(wer)是约7.9%,其在适配之后改进为0.6%。然后该asr模型被用作用于转移学习的初始模型以创建slu模型。f1分数与ctc模型的分数是相当的。
[0067]
在图3a中的表的实验[2a]中,asr适配步骤被跳过并且swb-300asr模型被直接用于初始化slu模型训练。在这种情况下,f1分数没有退化。无论模型是用通用swb-300asr模型(wer=7.9%)初始化还是用域适配asr模型(wer=0.6%)初始化,在slu性能上没有差异。
[0068]
在图3a中的表的实验[4a]考虑了训练转录质量或细节的影响。在本示例中,使用仅包括按口语顺序([4a])的实体的转录本,获取基本上类似于使用表3a的实验[1a]的完整转录本的f1分数。当训练转录本包括按字母顺序(即可能与口语顺序不同)的实体时,实验[6a]表明f1分数存在2%的退化,即从92.9至90.9。该结果比ctc模型的结果(73.5)好得多,反映了基于注意力的模型的重新排序功能。如前所述,添加如图3a的实验[3a]和[5a]中提供的具有逐字转录本的asr模型适配的额外步骤几乎不产生差异。
[0069]
现在,参考图4至图6,这些图分别显示了三种不同的注意力模型对于话语“i would like to make a reservation for a flight to denver from philadelphia on this coming sunday”的注意力图。更具体地,图4示出了使用asr模型的话语的注意力图;图5示出了按口语顺序使用slu的话语的注意力图;以及图6示出了按字母顺序使用slu的话语的注意力图。
[0070]
如图5所示,对话语的注意力很大程度上与在与语义实体中的关键词的bpe单元对应的音频信号的连续部分的注意力呈单调性。存在反映跳过非实体单词的间隙。
[0071]
如图6所示,对话语的注意力是分段单调的,其中单调区域覆盖关键词内的bpe单元。由于语义实体以不同于口语顺序的顺序给出,所以该图显示了模型如何将语音信号的正确部分与语义实体相关联起来。此外,在大约2秒处,注意力给给予短语“make a reservation”,该短语预测句子的总体意图“flight”。
[0072]
现在参考图3b,其提供了针对具有加性的街道噪声(5db snr)的语音输入的实体包插槽填充f1分数的汇总表300b。更具体地,将有噪声的语料库用作slu数据集,并且重复在图3a的背景下进行的基于ctc的实验。这组实验用训练和测试中的实际噪声为训练过程引入了附加的可变性。此外,它增加了转移模型和目标域之间的声学失配。在图3a的表300a中观察到的ctc模型的总体趋势也在图3b的表300b中观察到:(a)基于asr转录本的课程训练是有效的;以及(b)能够按口语顺序很好地识别实体标签,但是当语义实体顺序不同时性能可能更差。在如[2b]中的实验中,slu数据与asr数据之间的失配影响仅用失配的预训练模型来初始化并且没有其他适配步骤的模型的性能。与匹配条件下的性能结果相比,噪声失真通常导致这些系统的性能下降。
[0073]
如图3b的表300b的示例中所示,对于更详细地基于注意力的slu模型,当在完整转录本上训练的模型(例如,[1b]f1=92.0)与按字母顺序在实体上训练的模型([6b]f1=87.7%)比较时,f1分数存在4.3%的绝对退化。虽然这是性能的下降,但它大幅度上好于([6b]f1=68.5)的ctc结果。与干净的语音条件相比,可以得出关于asr适配的效用的不同结论。当适配的asr模型而不是基本swb-300模型用于初始化slu模型训练时,f1分数有大约
1%的改进。在有噪声的测试集合上,使用基础swb-300模型导致wer=60%,而在有噪声的数据上适配的asr模型提供wer=5%。显著地,由于使用这两种非常不同的asr模型来初始化slu模型训练,最终模型的f1分数差异仅达到1%。
[0074]
图3c显示了用于训练用于初始化slu训练的asr模型的数据量如何影响最终f1分数的表300c。表300c显示了针对干净(即非噪声)语音按口语顺序在实体上训练的基于注意力的slu模型的结果。在图3c的示例中,对于初始asr模型,使用2000h而不是300h将f1分数改进了大约1%。这可能是由于该模型对于未看见数据增加的鲁棒性:该测试集合上的未适配的wer是3.1%(swb2000h)对7.9%(swb300h)。相比之下,当slu模型直接从头训练(例如,从随机参数训练,而不从预训练的asr模型初始化)时,实验提供了约f1=78.1。当slu数据有限时,这些实验表明在广泛范围的语音数据上的asr预训练的重要性,不一定与最终slu任务相关。
[0075]
因此,本文的教导表明,可以在没有逐字转录本的情况下成功地构造各种e2e slu模型。基于本文的教导,类似的结果可以用基于神经网络的其他e2e slu模型获取,包括其他序列转导模型诸如rnn-t(递归神经网络换能器)和基于变换器的模型。在一个方面,使用预训练的声学模型和课程学习来训练这些系统。使用干净和有噪声的数据版本,解释实体顺序和声学失配对这些系统的性能的影响。本文所讨论的e2e系统是在没有逐字转录本的情况下训练的,并且即使在其中实体不一定按口语顺序给出的转录本上进行训练,也能够可靠地预测实体。本教导提供了用于在实际设置中训练更好的slu系统的有用见解,其中完整转录本通常不可用于训练,并且最终slu系统将部署在噪声的声学环境中。虽然我们已经呈现了在一个类型的训练数据(图2中的210、220、230、240)上训练slu的实施例的细节,但是还可以在不同类型的训练数据(210、220、230、240)的组合上训练slu。
[0076]
示例过程
[0077]
利用示例架构100和图3a至图3c的不同训练方法的前述综述,现在考虑示例过程的高水平讨论可能是有帮助的。为此,图7a和图8a呈现了与说明性实施例得分别在训练阶段和活动阶段期间的端到端口语理解系统的说明性过程700和760一致。过程700和760被示为逻辑流程图中的方框的集合,其表示可在硬件、软件或其组合中实现的操作的序列。在软件环境中,方框表示当由一个或多个处理器执行时执行所述操作的计算机可执行指令。总体来说,计算机可执行指令可以包括执行功能或实现抽象数据类型的例程、程序、对象、部件、数据结构等。在每个过程中,描述操作的顺序不旨在被解释为限制,并且任何数量的所描述的方框可以任何顺序组合和/或并行执行以实现该过程。出于讨论的目的,参考图1的架构100描述过程700和760。
[0078]
图7a的过程700表示口语理解系统的训练阶段。在方框702,通过网络106从一个或多个用户设备102(1)至102(n)中获取口语数据105(1)。口语数据(例如,105(1)至105(n))包括(i)音频语音记录和(ii)每个对应语音记录的一组语义实体和/或总体意图。在一个实施例中,语义实体不包括音频语音记录的转录本。在其他实施例中,在被存储在历史数据存储库112中之前或者稍后在从历史数据存储库112接收到数据时,转录本被过滤出(例如,由slu引擎103)。换言之,从语义实体提取实体标签/值和意图标签而无需语音记录的逐字转录本。例如,从书面转录本(如果提供的话)中提取实体标签/值和意图标签,并且去除除了实体标签/值和意图标签之外的术语。
[0079]
在方框706,口语数据被存储在存储库中,该存储库可以是slu服务器的存储器和/或历史数据存储库112。
[0080]
在方框708,slu引擎103从存储库112接收历史数据113作为训练数据。训练数据的每个语义实体不需要包括对应音频语音记录的转录本。在各种实施例中,训练数据的接收可以在预定的间隔或在触发事件(诸如在数据存储库112中可用的新口语数据的阈值数量)时进行。
[0081]
在方框710,基于历史数据的实体标签/值和意图标签来训练slu模型。显著地,训练不需要包括对应口语的逐字转录本。
[0082]
在活动阶段期间,经训练的slu模型可以用于确定口语的含义,如以下通过示例的方式所讨论的。
[0083]
在方框762,slu引擎103通过网络106从用户设备(例如,102(1))接收原始口语数据。
[0084]
在方框764,经训练的slu模型用于识别原始口语数据的一个或多个语义实体和/或意图,而无需音频语音记录的转录本。在一个实施例中,音频语音记录和原始口语数据的语义实体和/或意图集合存储在历史数据存储库中,而没有其转录本。以此方式,训练集合可以被连续地改进,同时避免存储对话的对slu模型的训练来说不足够显著的参数。
[0085]
示例计算机平台
[0086]
如以上所讨论的,如图1中所示,并且根据图7a和7b的过程700和760,与训练slu模型和确定话语的含义有关的功能可以使用经由无线或有线通信连接用于数据通信的一个或多个计算设备来执行。图8提供了可以用于实现可以托管slu引擎840的特定配置的计算设备的计算机硬件平台800的功能方框图说明。具体地,图8示出了可以用于实现适当配置的服务器(诸如图1的slu服务器116)的网络或托管计算机平台800。
[0087]
计算机平台800可以包括连接到系统总线802的中央处理单元(cpu)804、硬盘驱动器(hdd)806、随机存取存储器(ram)和/或只读存储器(rom)808、键盘810、鼠标812、显示器814和通信接口816。
[0088]
在一个实施例中,hdd 806具有包括存储能够以本文所描述的方式执行各种处理的程序(诸如slu引擎840)的功能。slu引擎840可以具有配置为执行不同功能的各种模块,诸如在图1和其他背景下论述的那些模块。例如,可存在用于获取在用户与管理员和/或聊天机器人之间的会话的会话模块842。可存在用于将语音内容转换成文本的文本处理模块844。可存在过滤模块,该过滤模块用于提取书面转录本(如果提供的话)中的实体标签和意图标签并且去除所有其他术语。可存在意图适配模块848,其用于将按随机或字母顺序的语义实体转换成口语顺序,以用于进一步处理。可存在asr-slu适配模块850和/或asr+slu适配模块852以执行本文所描述的功能。可以存在微调模块854,其用于与asr-slu适配模块850和/或asr+slu适配模块852协作,以对模型进行微调以创建最终slu模型。可存在意图模块856,其用于在活动阶段期间确定话语的意图,而不需要话语的转录本。
[0089]
虽然模块842至856在图8中被示为hdd 806的一部分,但是在一些实施例中,这些模块中的一个或多个可以在计算设备800的硬件中实现。例如,本文所讨论的模块可以以部分硬件和部分软件的形式来实现。即图8中所示的slu引擎840的部件中的一个或多个部件可以以具有晶体管、二极管、电容器、电阻器、电感器、变容二极管和/或忆阻器的电子电路
的形式来实现。换言之,slu引擎840可以用执行本文所描述的特定任务和功能的一个或多个专门设计的电子电路来实现。
[0090]
在一个实施例中,可以存储用于将系统作为web服务器进行操作的程序。在一个实施例中,hdd806可以存储包括一个或多个库软件模块的执行的应用,该库软件模块在有或没有虚拟机的辅助的情况下、用脚本语言或以另一方式执行。
[0091]
示例云平台
[0092]
如以上所讨论的,与管理一个或多个客户端域的合规性有关的功能可以包括云200(参见图1)。应当理解的是,虽然本公开包括关于云计算的详细描述,但是本文所述的教导的实现不限于云计算环境。相反,本公开的实施例能够结合现在已知的或稍后开发的任何其他类型的计算环境来实现。
[0093]
云计算是服务传递的模型,用于使得能够方便地、按需地网络访问可配置计算资源(例如,网络、网络带宽、服务器、处理、存储器、存储、应用、虚拟机和服务)的共享池,可配置计算资源可以以最小的管理精力或与该服务的提供者的交互来快速提供和释放。该云模型可以包括至少五个特性、至少三个服务模型和至少四个部署模型。
[0094]
特性如下:
[0095]
按需自助服务:云消费者可以根据需要自动单方面地提供计算功能,诸如服务器时间和网络存储,而不需要与服务的提供者进行人类交互。
[0096]
广泛的网络访问:功能可通过网络获得并且通过标准机制访问,该标准机制促进异构薄客户端平台或厚客户端平台(例如,移动电话、笔记本电脑和pda)的使用。
[0097]
资源池:提供者的计算资源被池化以使用多租户模型来服务于多个消费者,其中不同的物理和虚拟资源根据需求被动态地指派和重新指派。存在位置独立性的感觉,因为消费者总体上不具有对所提供的资源的确切位置的控制或了解,但可能能够以较高抽象水平(例如,国家、州或数据中心)指定位置。
[0098]
快速弹性:可以快速和弹性地提供功能,在一些情况下自动地快速缩小和快速释放以快速放大。对于消费者而言,可用于提供的功能通常貌似是无限的,并且可以在任何时间以任何数量购买。
[0099]
测量的服务:云系统通过在适当服务类型(例如,存储、处理、带宽和活动用户账户)的某个抽象水平处利用计量功能来自动控制和优化资源使用。可以监视、控制和报告资源使用,为所使用的服务的提供者和消费者提供透明度。
[0100]
服务模型如下:
[0101]
软件即服务(saas):提供给消费者的功能是使用在云基础设施上运行的提供者的应用。可通过诸如web浏览器(例如,基于web的电子邮件)之类的薄客户端接口从各种客户端设备访问应用。消费者不管理或控制包括网络、服务器、操作系统、存储或甚至单独的应用功能的底层云基础设施,可能的例外是有限的用户特定应用配置设置。
[0102]
平台即服务(paas):提供给消费者的功能是将消费者创建的或获取的应用部署到云基础设施上,该应用是使用由提供者支持的编程语言和工具创建的。消费者不管理或控制包括网络、服务器、操作系统或存储的底层云基础设施,但是具有对所部署的应用和可能的应用托管环境配置的控制。
[0103]
基础设施即服务(iaas):提供给消费者的功能是提供处理、存储、网络和消费者能
够部署和运行任意软件的其他基本计算资源,该软件可以包括操作系统和应用。消费者不管理或控制底层云基础设施,而是具有对操作系统、存储、所部署的应用的控制以及对所选网络部件(例如,主机防火墙)的可能有限的控制。
[0104]
部署模型如下:
[0105]
私有云:云基础设施仅为组织操作。它可以由组织或第三方管理,并且可以存在于内部或外部。
[0106]
社区云:云基础设施被若干组织共享并支持具有共享的关注点(例如,任务、安全要求、策略、和合规性考虑)的特定社区。它可以由组织或第三方管理,并且可以存在于内部或外部。
[0107]
公共云:使云基础设施可用于公众或大型工业组,并且由出售云服务的组织拥有。
[0108]
混合云:云基础设施是两个或更多个云(私有、社区或公共)的组合,这些云保持独特的实体但通过标准化或使数据和应用能够移植的专有技术(例如,用于云之间的负载平衡的云突发)绑定在一起。
[0109]
云计算环境是面向服务的,集中于无状态、低耦合、模块化和语义互操作性。云计算的核心是包括互连节点的网络的基础设施。
[0110]
现在参考图9,描绘了说明性云计算环境900。如图所示,云计算环境900包括由云消费者使用的本地计算设备可以与其通信的一个或多个云计算节点910,本地计算设备例如个人数字助理(pda)或蜂窝电话954a、台式计算机954b、笔记本电脑954c和/或汽车计算机系统954n。节点910可以彼此通信。它们可以在一个或多个网络中,诸如如上文所述的私有云、社区云、公共云或混合云、或其组合中进行物理或虚拟分组(未显示)。这允许云计算环境950提供基础设施、平台和/或软件作为云消费者不需要为其维护本地计算设备上的资源的服务。应当理解的是,图9中所示的计算设备954a-n的类型旨在仅是说明性的,并且计算节点910和云计算环境950可通过任何类型的网络和/或网络可寻址连接(例如,使用web浏览器)与任何类型的计算机化设备通信。
[0111]
现在参考图10,示出了由云计算环境950(图9)提供的一组功能抽象层。应提前理解的是,图10中所示的部件、层和功能仅旨在是说明性的,并且本公开的实施例不局限于此。如所描绘的,提供了以下层和对应功能:
[0112]
硬件和软件层1060包括硬件和软件部件。硬件部件的示例包括:大型机1061;基于risc(精简指令集计算机)架构的服务器1062;服务器1063;刀片式服务器1064;存储设备1065;以及网络和网络部件1066。在一些实施例中,软件部件包括网络应用服务器软件1067和数据库软件1068。
[0113]
虚拟化层1070提供抽象层,从该抽象层可以提供虚拟实体的以下示例:虚拟服务器1071;虚拟存储1072;虚拟网络1073,包括虚拟私有网络;虚拟应用和操作系统1074;以及虚拟客户端1075。
[0114]
在一个示例中,管理层1080可以提供以下描述的功能。资源提供1081提供计算资源和用于在云计算环境内执行任务的其他资源的动态采购。计量和定价1082在云计算环境内利用资源时提供成本跟踪,并为这些资源的消耗开账单或发票。在一个示例中,这些资源可以包括应用软件许可证。安全性为云消费者和任务提供身份验证,以及为数据和其他资源提供保护。用户门户1083为消费者和系统管理员提供对云计算环境的访问。服务水平管
理1084提供云计算资源分配和管理,使得满足所需的服务水平。服务水平协议(sla)规划和履行1085提供云计算资源的预安排和采购,根据sla预期云计算资源的未来要求。
[0115]
工作负载层1090提供可以利用云计算环境的功能的示例。可以从该层提供的工作负载和功能的示例包括:地图和导航1091;软件开发和生命周期管理1092;虚拟教室教育传递1093;数据分析处理1094;交易处理1095和slu引擎1096,如本文所讨论的。
[0116]
结论
[0117]
已经出于说明的目的呈现了本教导的各种实施例的描述,但并不旨在详尽或限于所公开的实施例。在不脱离所描述的实施例的范围的情况下,许多修改和变体对于本领域普通技术人员来说将是显而易见的。本文使用的术语被选择来最好地解释实施例的原理、实际应用或对在市场中找到的技术的技术改进,或者使得本领域普通技术人员能够理解本文公开的实施例。
[0118]
虽然上文已描述了被视为最佳状态和/或其他示例的内容,但应理解的是,可在其中进行各种修改,且本文所公开的主题可在不同形式和示例中实现,且教导可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求旨在要求落入本教导的真实范围内的任何和所有应用、修改和变体。
[0119]
本文已经讨论的部件、步骤、特征、对象、益处和优点仅是说明性的。它们以及与其有关的讨论都不旨在限制保护范围。虽然本文已经讨论了各种优点,但是将理解的是,并非所有实施例都必须包括所有优点。除非另外说明,否则在本说明书(包括在所附权利要求书中)中阐述的所有测量、值、评分、位置、幅值、大小、以及其他规范都是近似的、不确切的。它们旨在具有与它们有关的功能以及与它们所属领域惯用的功能相一致的合理范围。
[0120]
还构想了许多其他实施例。这些实施例包括具有更少的、附加的和/或不同的部件、步骤、特征、对象、益处和优点的实施例。这些实施例还包括部件和/或步骤被不同地安排和/或排序的实施例。
[0121]
本文中参考根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图图示和/或框图来描述本公开的各方面。应当理解的是,流程图图示和/或框图的每个方框以及流程图图示和/或框图中各方框的组合,可以由计算机可读程序指令实现。
[0122]
这些计算机可读程序指令可被提供给适当配置的计算机、专用计算机或其他可编程数据处理装置的处理器以产生机器,使得经由计算机或其他可编程数据处理装置的处理器执行的指令创建用于实现在流程图和/或框图的一个或多个方框中指定的功能/动作的装置。这些计算机可读程序指令也可以存储在计算机可读存储媒质中,这些指令可以指导计算机、可编程数据处理装置、和/或其他设备以某种方式工作,从而其中存储有指令的计算机可读存储媒质包括制造品,该制造品包括实现流程图和/或框图中的一个或多个方框中指定的功能/动作的各方面的指令。
[0123]
计算机可读程序指令也可以加载到计算机、其他可编程数据处理装置、或其他设备上,以使得在计算机、其他可编程装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,使得在计算机、其他可编程装置或其他设备上执行的指令实现流程图和/或框图中的一个或多个方框中指定的功能/动作。
[0124]
本文图中的调用流程、流程图和框图示出了根据本公开的各种实施例的系统、方法和计算机程序产品的可能实现的架构、功能和操作。对此,流程图或框图中的每个方框可
表示指令的模块、分段或部分,其包括用于实现指定的逻辑功能的一个或多个可执行指令。在一些替代的实现中,方框中标注的功能可以不按图中标注的顺序发生。例如,取决于所涉及的功能,连续示出的两个方框实际上可以基本上同时执行,或者这些方框有时可以按相反的顺序执行。也要注意的是,框图和/或流程图图示中的每个方框、以及框图和/或流程图图示中的方框的组合,可以用执行指定的功能或动作或执行专用硬件与计算机指令的组合的专用的基于硬件的系统来实现。
[0125]
虽然已经结合示例性实施例描述了上文,但是应当理解的是,术语“示例性的”仅意味着作为示例,而非最佳或者最优。除了以上直接说明的之外,已经说明或示出的任何内容都不旨在或不应该被解释为导致向公众奉献任何部件、步骤、特征、对象、益处、优点或等效物,无论它是否在权利要求中陈述。
[0126]
应当理解的是,本文所使用的术语和表达具有对应的相应查询和研究领域所赋予的这些术语和表达的普通含义,除非本文另外阐述了具体含义。诸如第一和第二等之类的关系术语可仅用来将一个实体或动作与另一实体或动作区分开来,而不必要求或暗示这些实体或动作之间的任何实际关系或顺序。术语“包括(comprises)”、“包括(comprising)”或其任何其他变体旨在覆盖非排他性的包括,从而包括一系列元件的过程、方法、物品或装置不仅仅包括那些元件,而且还可以包括未明确列出的或对此类过程、方法、物品或装置固有的其他元件。在没有进一步限制的情况下,由“一个(a)”或“一个(an)”开始的元件不排除在包括该元件的过程、方法、物品或装置中存在附加的相同元件。
[0127]
提供本公开的摘要以允许读者快速确定本技术公开的本质。在理解其不用于解释或限制权利要求的范围或含义的情况下提交。此外,在以上详细描述中,可以看出,出于精简本公开的目的,各种特征在各种实施例中被组合在一起。本公开的方法不应被解释为反映所要求保护的实施例具有比每个权利要求中明确叙述的更多的特征的意图。相反,如以下权利要求所反映的,发明主题在于少于单个公开的实施例的所有特征。因此,以下权利要求由此纳入详细描述中,其中每个权利要求作为单独的权利要求主题而独立存在。
技术特征:
1.一种计算设备,包括:处理器;网络接口,其耦合到所述处理器以能够通过网络进行通信;引擎,其被配置为执行动作,所述动作包括,在训练阶段期间:通过所述网络接收自然语言训练数据,所述自然语言训练数据包括(i)一个或多个语音记录,以及(ii)每个对应语音记录的一组语义实体和/或总体意图;对于每个语音记录,从所述对应语义实体和/或总体意图中提取(i)一个或多个实体标签和对应值,以及(ii)一个或多个意图标签;和基于所述对应语音记录的所述一个或多个实体标签和对应值以及一个或多个意图标签来训练口语理解(slu)模型,而无需所述对应语音记录的转录本。2.根据权利要求1所述的计算设备,其中所述语义实体不按口语顺序。3.根据权利要求2所述的计算设备,其中所述语义实体按字母顺序。4.根据权利要求2所述的计算设备,其中所述自然语言训练数据基于不同类型的训练数据的组合。5.根据权利要求2所述的计算设备,其中所述引擎还被配置为执行动作,所述动作包括执行预处理对齐以将所述语义实体对齐为口语顺序。6.根据权利要求1所述的计算设备,其中所述训练数据基于用户和帮助所述用户执行任务的管理员之间的交易数据。7.根据权利要求1所述的计算设备,其中所述训练数据包括交易数据的记录,所述交易数据包括实体包。8.根据权利要求1所述的计算设备,其中所述一个或多个实体标签和对应值、以及所述一个或多个意图标签的提取是通过神经网络处理进行的,所述神经网络包括连接机制时间分类(ctc)、递归神经网络换能器(rnn-t)、或基于注意力的编码器-解码器神经网络中的至少一个。9.根据权利要求1所述的计算设备,其中所述训练涉及转移学习,所述转移学习包括用自动语音识别(asr)模型来初始化所述slu模型。10.根据权利要求1所述的计算设备,其中所述slu引擎还被配置为执行动作,所述动作包括,在活动阶段期间:接收包括音频语音记录而没有所述音频语音记录的转录本的原始口语数据;和使用经训练的slu模型来识别所述原始口语数据的含义,其中所述含义包括所述原始口语的意图和语义实体。11.一种有形地体现计算机可读程序代码的非暂时性计算机可读存储媒质,所述计算机可读程序代码具有计算机可读指令,所述计算机可读指令在被执行时使计算机设备执行训练口语理解(slu)模型的方法,所述方法包括:接收自然语言训练数据,所述自然语言训练数据包括(i)一个或多个语音记录,以及(ii)每个对应语音记录的一组语义实体和/或总体意图;对于每个语音记录,从所述对应语义实体和/或总体意图中提取(i)一个或多个实体标签和对应值,以及(ii)一个或多个意图标签;和基于所述对应语音记录的所述一个或多个实体标签和对应值以及所述一个或多个意
图标签来训练口语理解(slu)模型,而无需所述对应语音记录的转录本。12.根据权利要求11所述的非暂时性计算机可读存储媒质,其中所述语义实体不按口语顺序。13.根据权利要求12所述的非暂时性计算机可读存储媒质,其中所述自然语言训练数据基于不同类型的训练数据的组合。14.根据权利要求13所述的非暂时性计算机可读存储媒质,所述方法还包括执行预处理对齐以将所述语义实体对齐为口语顺序。15.根据权利要求11所述的非暂时性计算机可读存储媒质,其中所述训练数据基于用户与帮助所述用户执行任务的管理员之间的交易数据。16.根据权利要求11所述的非暂时性计算机可读存储媒质,其中所述训练数据包括交易数据的记录,所述交易数据包括实体包。17.根据权利要求11所述的非暂时性计算机可读存储媒质,其中所述一个或多个实体标签和对应值、以及所述一个或多个意图标签的提取是通过神经网络处理进行的,所述神经网络包括连接机制时间分类(ctc)、递归神经网络换能器(rnn-t)或基于注意力的编码器-解码器神经网络中的至少一个。18.根据权利要求11的非暂时性计算机可读存储媒质,其中所述训练涉及转移学习,所述转移学习包括用自动语音识别(asr)模型来初始化所述slu模型。19.根据权利要求11所述的非暂时性计算机可读存储媒质,所述方法还包括,在活动阶段期间:接收包括音频语音记录而没有所述音频语音记录的转录本的原始口语数据;和使用经训练的slu模型来识别所述原始口语数据的含义,其中所述含义包括所述原始口语的意图和语义实体。20.一种计算机实现的方法,包括:接收自然语言训练数据,所述自然语言训练数据包括(i)一个或多个语音记录,以及(ii)每个对应语音记录的一组语义实体和/或总体意图;对于每个语音记录,从所述对应语义实体和/或总体意图中提取(i)一个或多个实体标签和对应值,以及(ii)一个或多个意图标签;和基于所述对应语音记录的所述一个或多个实体标签和对应值以及一个或多个意图标签来训练口语理解(slu)模型,而无需所述对应语音记录的转录本。
技术总结
一种训练口语理解(SLU)模型的方法和系统,包括接收自然语言训练数据,该自然语言训练数据包括(i)一个或多个语音记录,以及(ii)每个对应语音记录的一组语义实体和/或意图。对于每个语音记录,从对应语义实体和/或总体意图中提取一个或多个实体标签和对应值以及一个或多个意图标签。基于对应语音记录的一个或多个实体标签和对应值以及一个或多个意图标签来训练口语理解(SLU)模型,而无需对应语音记录的转录本。音记录的转录本。音记录的转录本。
技术研发人员:郭宏光 Z
受保护的技术使用者:国际商业机器公司
技术研发日:2021.07.28
技术公布日:2023/9/7
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/
上一篇:一种显示组件及饮水装置的制作方法 下一篇:一种轨距尺的防护机构的制作方法