知识交互图指导的事件因果关系识别系统及方法

未命名 08-22 阅读:136 评论:0


1.本发明涉及人工智能技术领域,尤其涉及一种知识交互图指导的事件因果关系识别系统及方法。


背景技术:

2.因果关系识别(event causality identification,eci)是自然语言理解中一项极富挑战性的任务,其目标是识别文本中两个事件是否存在因果关系,这一技术在机器阅读理解、问答推理和事件预测等方面都有着广泛的应用。如图1中给定的两个句子s1、s2,eci模型需要识别出句子中提及的事件对之间的因果关系,

s1中这种是由因果关系词because等连接的显式因果关系,模型较容易识别出来。

s2中这种没有明显的因果关系词连接的是隐式因果关系,需要在理解上下文深层语义的基础上进行推理才能得出,所以相对来说不容易识别。
3.eci任务早期采用基于特征的方法,最近使用深度学习的方法取得了state-of-the-art,尽管性能有了不少提升,但现有的方法主要采用“预训练+微调”的方法,如图2所示,预训练语言模型(pre-training language models,plms)是完形填空形式,而eci作为分类问题,使用微调方法需要在plms后面接上分类层,由于下游任务与plms之间存在一定的差异,导致模型不能充分激发plms的潜力。提示学习通过任务相关模板提示的方式调整下游任务,使其与语言模型具有相同的预训练方式,从而充分利用plms学习到的先验知识帮助完成eci任务。
4.虽然提示学习使eci任务去迁就plms,但仍面临着两个挑战:(1)隐式因果关系不易识别。plms主要从海量未标注、无结构化数据中学习,蕴含丰富的通用高频实体、常识等知识,然而更多的长尾实体、多元关联关系和复杂逻辑知识,如事件知识、因果关系等很难从plms中获得。所以,对于eci任务,由于plms缺乏事件知识,即使使用基本的提示学习也很难识别因果关系,尤其是隐式因果关系。(2)事件与知识交互不够。最近,一些工作研究利用外部知识增强文本理解的方法,然而这些知识却缺乏与原文本之间的交互。


技术实现要素:

5.因果关系识别任是识别文本中事件提及对之间是否存在因果关系,现有的模型通常将其作为有监督的分类任务,采用预训练语言模型来解决,然而隐式因果关系不易识别、事件与知识交互不够使因果关系识别面临着很大的挑战,本发明提出了一种知识交互图指导的事件因果关系识别(knowledge interaction graph guided prompt tuning for event causality identification,kigp)系统及方法。(1)引入外部事件知识增强plms。从文本语义和prompt提示两个层面增强。事件知识描述使得上下文对事件的理解从概念上更加清晰、深刻;另外,帮助提示模板激活plms对事件与事件关系的认知,促进更加准确地识别隐式因果关系。(2)利用交互图捕获上下文、上下文中的事件提及、提示模板中的事件提及与外部知识之间的潜在语义交互,架起外部知识与因果关系之间的桥梁。
6.为了实现上述目的,本发明采用以下技术方案:
7.本发明一方面提出一种知识交互图指导的事件因果关系识别系统,包括:文档编码器,交互构造器及预测器;
8.所述文档编码器用于获得原始文本、事件知识和prompt模板(提示模板)中的词向量表示;
9.所述交互构造器用于通过事件知识交互图利用gcn获取事件节点的向量表示,将其与prompt模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;
10.所述预测器用于将融合后的向量表示送入roberta,通过roberta预测因果关系分类结果。
11.进一步地,所述文档编码器采用预训练语言模型roberta。
12.进一步地,按照以下方式获得事件知识:
13.在conceptnet中检索到原始文本中提及事件对《es,e
t
》的节点,对其进行词形还原;
14.匹配与事件提及相关的语义关系及关联节点的子图;
15.从conceptnet中获取到关于事件的相关知识;
16.将每个事件提及与关联的每一解释项分别存入一个列表;
17.最后将这些三元组线性化为文本形式,将语义关系词修改为自然语言描述,并将线性化为文本形式的三元组作为事件知识以拼接方式植入输入序列。
18.进一步地,按照以下方式构建事件知识交互图:
19.将文档映射为三种类型的节点,节点的类型包括:单词节点,事件节点,知识节点;
20.依据指导机制在节点之间构建边以构建事件知识交互图,边的类型包括:事件-事件边,事件-知识边;所述事件-事件边指事件节点与事件节点之间构成的边,所述事件-知识边指事件节点与知识节点之间构成的边。
21.本发明另一方面提出一种知识交互图指导的事件因果关系识别方法,包括:
22.获得原始文本、事件知识和prompt模板中的词向量表示;
23.通过事件知识交互图利用gcn获取事件节点的向量表示,将其与prompt模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;
24.将融合后的向量表示送入roberta,通过roberta预测因果关系分类结果。
25.进一步地,采用预训练语言模型roberta获得原始文本、事件知识和prompt模板中的词向量表示。
26.进一步地,按照以下方式获得事件知识:
27.在conceptnet中检索到原始文本中提及事件对《es,e
t
》的节点,对其进行词形还原;
28.匹配与事件提及相关的语义关系及关联节点的子图;
29.从conceptnet中获取到关于事件的相关知识;
30.将每个事件提及与关联的每一解释项分别存入一个列表;
31.最后将这些三元组线性化为文本形式,将语义关系词修改为自然语言描述,并将线性化为文本形式的三元组作为事件知识以拼接方式植入输入序列。
32.进一步地,按照以下方式构建事件知识交互图:
33.将文档映射为三种类型的节点,节点的类型包括:单词节点,事件节点,知识节点;
34.依据指导机制在节点之间构建边以构建事件知识交互图,边的类型包括:事件-事件边,事件-知识边;所述事件-事件边指事件节点与事件节点之间构成的边,所述事件-知识边指事件节点与知识节点之间构成的边。
35.与现有技术相比,本发明具有的有益效果:
36.(1)提出了一种知识交互图指导的事件因果关系识别系统及方法,通过引入外部知识,充分利用事件知识和提示学习激活plms潜力完成eci,本发明是第一个采用gcn与提示学习结合进行eci任务的工作。
37.(2)设计了指导机制,并构建了知识交互图,通过文本、事件与知识的深度交互,有效指导外部知识精准增强事件的向量表示,帮助更好地捕获隐式因果关系。这使模型有较好的解决eci任务的能力。
38.实验结果表明,本发明在两个基准数据集eventstoryline和causal-timebank上,性能优于最近的state-of-the-art方法,f1值分别提升了6.3%和2.9%。
附图说明
39.图1为句子中事件对之间的显示因果关系与隐式因果关系示例;
40.图2为因果关系识别的微调和提示学习方法示例;其中,(a)为微调方法,(b)为提示学习方法;
41.图3为本发明实施例一种知识交互图指导的事件因果关系识别系统整体框架示意图;
42.图4为本发明实施例从外部知识图谱conceptnet获取的关于事件提及的知识;
43.图5为本发明实施例交互图指导机制;
44.图6为本发明实施例事件知识交互图邻接矩阵示例;
45.图7为eventstoryline和causal-timebank数据集中不同数量范围对应的模型性能对比;
46.图8为三种形式的知识位置实验对比;其中(a)为知识位置的三种形式,xi表示原文本中的单词(蓝色),ei表示事件提及(橘色),ki表示事件知识(紫色),(b)表示不同知识位置的模型准确率(%)对比;
47.图9为交互图gcn不同的层数对应模型f1值的变化;
48.图10为本发明实施例一种知识交互图指导的事件因果关系识别方法流程示意图。
具体实施方式
49.下面结合附图和具体的实施例对本发明做进一步的解释说明:
50.1系统
51.图3展示了一种知识交互图指导的事件因果关系识别(knowledge interaction graph guided prompt tuning for event causality identification,kigp)系统的整体框架。模型包含三个组件:文档编码器document encoder——交互构造器interaction constructor——预测器prediction。
52.文档编码器:获得原始文本、事件知识和prompt for eci的词向量表示。
53.交互构造器:目的是通过图结构获取聚合知识的事件向量,用以增强prompt中事件的表示。通过事件知识交互图利用知识编码器gcn获取事件节点的向量表示,这些表示聚合了图结构中邻居知识节点的特征。将其与prompt中的事件向量融合,得到包含了事件语义和关系知识的新的向量表示。
54.预测器:将融合后的向量表示送入roberta,结合prompt,根据robertalm head获得mask-feature对应的词汇概率分布,预测因果关系分类结果。
55.1.1问题定义
56.我们将eci任务转化为掩码语言模型(mask language modeling,mlm)的预测任务问题,使用mlm head进行预测。与之前大多数二分类问题(causality,nocausality)不同的是,我们采用三分类,将causality进一步细化为“cause”和“causedby”。给定一个句子s={x1,x2,...,x
l
}和句子中的事件对《es,e
t
》,其中l表示token的数量,设定标签表示事件对《es,e
t
》是否存在因果关系,其中={cause,causedby,null},cause代表es是原因,e
t
是结果;causedby代表es是结果,e
t
是原因;null代表事件对《es,e
t
》没有因果关系。eci模型的目的就是去预测《es,e
t
》的因果关系标签
57.根据设计的eci模板t
eci
(x),使用mlm编码输入数据并诱导模型生成一个与给定标签相关的文本输出。将[cls]和[sep]分别拼接到x的开头和结束位置,同时在t
eci
(x)后面加上[sep],x'表示为:
[0058]
x'=[cls]x[sep]t
eci
(x)[sep]
ꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
[0059]
将x'喂入mlm,模型会得到候选类别的概率分布p([mask]|x'),因此:
[0060]
p(y|x')=p([mask]=m|x')
ꢀꢀꢀꢀ
(2)
[0061]
其中,m表示类别y的第m个标签的token。
[0062]
1.2文档编码器
[0063]
选择使用动态掩码、具有更优预测性能的预训练语言模型roberta作为文档编码器,将输入序列(原文本original text、事件知识eventtext和prompt template)中的每个单词编码为向量表示,结果序列h=[h
x
;h
prompt
],其中h
x
={h
cls
,h1,h2,...,hn,h
sep
},h
prompt
={hes,h
mask
,he
t
,...,h
sep
}。这一模块涉及事件知识获取和prompt模板设计。
[0064]
1.2.1事件知识获取与线性化
[0065]
包含大量的常识、实体知识和语义关系的知识图谱无疑是外部知识的最好选择。conceptnet是一个有着丰富概念和语义关系的知识图谱,包含2100万个边、800万个以上的节点和34种核心关系。对于eci任务来说,需要详细的事件描述知识去补充或激活plms的潜能,同时给予提示学习更好地提示作用,因此,我们在conceptnet中检索原文本s中包含的事件的定义和我们认为与eci相关的16种语义关系:capableof,causes,causedesire,usedfor,hasa,partof,entails,desires,hascontext,hassubevent,hasprerequisite,receivesaction,isa,hasproperty,mannerof and createdby。
[0066]
具体来说,首先在知识图谱(conceptnet)中检索到原文本中事件提及es、e
t
的节点,注意到事件提及单词大多涉及单词的复数、过去式或分词等形式,因此对其进行了词形还原。然后匹配与事件提及相关的16种语义关系及关联节点的子图sub-graph。如图4所示,从conceptnet中获取到关于事件“shot”和“kill”的相关知识,
等,一个事件提及对应多种关系知识,每一种关系中可能还对应着多种解释项(事件提及“kill”对应的hassubevent关系除了有hassubevent shoot这一解释项外,还有hassubevent someone or something dies等解释项),将每个事件提及与关联的每一解释项分别存入一个列表,这些知识是对事件的较为完整、详细的描述,能够丰富事件表示。最后将这些三元组线性化为文本形式eventtext。为使知识描述更加自然、流畅,将语义关系词isa、hassubevent等修改为自然语言描述is a,has subevent等,eventtext以拼接方式植入输入序列。
[0067]
1.2.2eci提示模板的设计
[0068]
提示学习通过引入任务相关的模板将下游任务转换成和预训练目标一致的形式,设计的eci提示模板t
eci
(x)为:
[0069]
t
eci
(x):in this sentence,'es'《t》[mask]《/t》'e
t
'.
[0070]
采用向模板中添加一些可学习的tokens(如《t》,《/t》等)以动态适应plms的训练,模板中的[mask]token需要填充标签词。
[0071]
在eci任务中,标签词v是plm词汇表中的词,但由于plm词汇表空间庞大,可能一些词语不能很好地表示因果关系,因此,采用与先前的工作也一样的设置虚拟词的方法。标签词v使用设置的三个虚拟词:{cause,causedby,null},这些虚拟词也是可学习的tokens,cause和causeby有利于模型学习因果关系的直接特征,标签映射则直接使用这三个label words对应因果关系labels。mlm的[mask]位置使用v中标签词的概率分布作为因果关系labels的概率分布。
[0072]
1.3交互构造器
[0073]
从文档编码器得到每个单词的向量表示,经过模型训练可以直接得到分类结果,但考虑到文本、事件、知识之间存在紧密的关联,这些关联能够聚焦事件语义和概念知识,为因果关系识别提供了更加丰富的语义特征。因此,提出了交互指导机制并设计了交互构造器,依据指导机制有效指导外部知识增强相关节点的向量表示,通过构造文档、事件、知识之间的交互图以产生各个节点的隐藏交互向量表示。
[0074]
1.3.1指导机制
[0075]
指导机制(如图5所示)分为两类:指导原文本(guide original text,got)和指导prompt事件(guide events in prompt template,get)。其中got机制目的是利用外部事件描述知识增强原文本的语义理解能力,因此桥接外部知识与文本事件提及;get机制是为了增强提示模板中的事件关系的推理能力,因此桥接外部知识与提示模板中的中事件提及。
[0076]
1.3.2构建交互图
[0077]
如何形成文档的交互图来学习eci有效的表示向量呢?核心是依据指导机制构建图中的节点和边。
[0078]
(1)节点
[0079]
图中的节点应该能够捕获文档d中与事件es、e
t
相关的内容,以便预测因果关系。我们考虑了三种节点类型:
[0080]

原文本节点(word node),也称单词节点,即文档的上下文单词;
[0081]

事件节点(event node),文档或提示模板中的事件提及,e={e1,e2,...,e
l
};
[0082]

知识节点(knowledge node),即与事件相关的外部知识,k={k1,k2,...,km}。
[0083]
因此,节点集合n={d∪e∪k}={x1,x2,...,xn},n为节点个数(n=i+l+m),如图3,蓝色圆圈为单词节点,橘色为事件节点,紫色为知识节点。
[0084]
(2)边edge
[0085]
将文档映射为三种类型的节点之后,哪些顶点之间有边呢?依据指导机制在节点之间构建以下两种类型的边以建模交互图:
[0086]

事件-事件边(event-event edge,e-e),文档中事件对会分散在不同的句子中,主要目的是为了识别两个事件之间的因果关系,因此事件-事件是非常有价值的信息,为一个文档中的事件es、e
t
之间添加边。
[0087]

事件-知识边(event-knowledge edge,e-k),为了增强事件表示,补充文档中事件的概念知识和语义知识,构建事件节点与外部知识之间的边。
[0088]
(3)交互图特征提取
[0089]
使用邻接矩阵(adjacency matrix)a表示已构造的事件知识交互图g,节点数为n,则a为n
×
n的矩阵。
[0090][0091]aij
=1表示节点i和节点j之间有边相连。使用gcn进行特征提取,生成交互图中节点的向量表示,具体地gcn模型使用经过文档编码器得到的token特征向量表示h
(0)
=[h
cls
,hks,hk
t
,h1,hes,h3,...,he
t
,...,h
sep
,hes,h
mask
,he
t
,h
sep
]作为初始向量,经过l层聚合后,第(l+1)层的特征向量h
(l+1)
表示为:
[0092]h(l+1)
=relu(ah
(l)w(l)
)
[0093]
其中,h
(l)
和h
(l+1)
分别表示节点在第l、(l+1)层的特征向量,w
(l)
表示第l层的权重矩阵,relu为激活函数,经过g层gcn,为了方便,将h
(g)
记为h
(g)
=gcn(a,h
(0)
,g)。gcn模型输出事件节点es,e
t
的特征向量为kes,ke
t
,此时的kes,ke
t
从结构上聚合了相邻知识节点的特征,将其与提示模板中的hes,he
t
通过拼接形式进行融合,得到新的特征向量hkes,hke
t
用以增强事件的语义表示。最终融合后的特征向量表示h
(g)
=[h'
cls
,hk
′s,hk

t
,h
′1,he's,h'3,...,he'
t
,...,h'
sep
,hkes,h'
mask
,hke
t
,h'
sep
],蕴含了事件节点与其相邻知识节点之间的关系,实现了事件、知识的交互,为因果关系预测提供了更加丰富、抽象的深层特征。
[0094]
假设输入文档是图4中的s2,则输入格式为:
[0095]
[cls]《ks》shooting is a homicide,causes death...《/ks》.《kt》kill causes death,has subevent shoot...《kt》.[sep]a disgruntled woman shot at a kraft factory,two workers were killed.[sep]in this sentence,shot[mask]killed.[sep]
[0096]
其中[cls]、[sep]和[mask]是roberta中的标记符号,在roberta的输入文本中起到特殊的作用。[cls]是“classification”的缩写,放在句子的首位,表示句子的开始,[sep]是“seperation”缩写,用于分开两个输入句子,[mask]用于遮盖句子中的一些单词。
[0097]
分别用es,e
t
表示上述文本中的两个事件shot和killed,用ks,k
t
表示两个事件对应的知识“shooting causes death...”和“kill has subevent shoot...”,则在训练过程中构建的事件知识交互图的邻接矩阵如图6所示,单词自身用对角线上的1表示,ks,k
t
分别与原文本、提示模板中的es,e
t
交互。
[0098]
1.4预测器
[0099]
经过交互构造器的gcn模块获取到的向量表示h
(g)
具有了交互特征,增强了提示模板中事件的表示。将h
(g)
继续喂入robertalm head得到mask-feature([mask]的特征),预测器会根据mask-feature得到候选类别的概率分布p([mask]|h
(g)
),进而预测出《es,e
t
》的因果关系标签y∈{cause,causedby,null}。
[0100]
综上,本发明借助提示学习,并使用gcn处理交互图,但与这些不同的是,

为避免错误累积,同时考虑到句法结构可以直接通过plms获得,构图的过程没有使用现成的nlp工具,而是依据指导机制设计完成的;

没有直接使用gcn进行节点分类或关系预测,而是利用gcn在图数据中强大的特征提取优势,获得节点在知识交互图中的隐藏层特征;

使用蕴含着更加丰富交互知识的特征表示,精准指导提示模板,有效激发plms的潜力。
[0101]
为验证本发明效果,进行如下实验:
[0102]
2实验
[0103]
实验目的是为了证明(1)外部事件知识是否能有效提升plms对隐式因果关系识别的能力,(2)事件知识交互图是否能够精准指导模型增强eci。
[0104]
2.1数据集和评价指标
[0105]
在两个广泛使用的数据集eventstoryline(version 0.9)和causal-timebank上评估kigp模型。eventstoryline包含258个文档,5334个事件,1770个因果事件对,与gao et al.的做法相同,按照主题对文档分组,并按照主题ids排序,使用最后2个主题的文档作为开发集,剩余20个主题的文档采用5折交叉验证;causal-timebank包含184个文档,1813个事件,318个因果事件对,仿照liu etal.和zuo et al.的做法,与他们使用相同的数据划分,采用10折交叉验证。对于评估,采用precision(p),recall(r)和f1-score(f1)作为评价指标。
[0106]
2.2实验设置
[0107]
使用预训练语言模型roberta-base作为文档编码器产生词向量,隐藏层是768维,在robert-base中添加的新token的embedding也是768维,设置adam优化器学习率为1e-4。
[0108]
由于eci数据集正例样本的稀疏性,模型训练过程中采用负采样,负采样率为0.5,batch size为16。基于开发集性能使用梯度搜索微调超参数并执行早停。交互图构造部分使用单层gcn模型,gcn隐藏层使用2000维,外部知识图谱选用conceptnet5.5。
[0109]
2.3基准方法
[0110]
与三种不同类型的eci基准方法进行比较。
[0111]
之前的sota方法:基于依存树的序列模型;lstm、seq最初用于时序关系预测;lr+、lip,文档结构模型;rb,基于规则的系统;ml,基于特征的模型。
[0112]
使用预训练语言模型和引入外部知识的方法:learnda,一种通过引入外部知识库增强训练数据的方法;causerl,一种通过外部因果语句学习上下文因果模式的自监督方法;mm,基于bert的方法。
[0113]
使用gcn的方法:richgcn使用gcn捕获文档结构图中的相互关联;ergo构建了事件关系图,使用gcn做节点分类。
[0114]
2.4结果
[0115]
表1和表2分别展示了在eventstoryline和causal-timebank数据集上本文方法和所有基准模型的性能,其中*表示0.05水平的显著测试。
[0116]
表1在eventstoryline数据集上的结果(%)
[0117][0118]
表2在causal-timebank数据集上的结果(%)
[0119][0120]
(1)从总体性能看,提出的模型kigp在eventstoryline和causal-timebank两个数据集上性能均优于现有的baseline。与现有的sota方法ergo模型性能相比,分别获得了6.3%和2.9%的提升,说明所提方法对于eci任务是十分有效的。
[0121]
(2)从外部知识和预训练角度看,learnda、causerl表明了外部知识会影响因果关系的预测结果,但外部知识和因果关系之间存在着语义鸿沟;预训练模型mm致力于通过激发plms本身的知识,其性能没有添加外部知识的方法好,原因可能是plms本身并没有足够的事件知识和因果关系知识可供学习。kept充分利用背景知识和关系信息,使用transe联合优化事件和因果关系的表示进而捕捉隐式关系,性能较好于learnda和causerl。
[0122]
(3)kigp模型采用“plms+事件知识+prompting”模式,为plms补充事件知识的同时,使用prompting探索plms潜在语义,性能较causerl和kept在两个数据集上提升大约8%,说明外部事件知识能有效提升plms对隐式因果关系识别的能力。
[0123]
(4)从交互图结构角度看,与使用图结构的richgcn、ergo模型相比,kigp模型在两个数据集上f1值均有提升,原因可能是,构建事件知识交互图的过程,避免了借助现有的nlp工具引入噪声并造成错误累积,另外直接使用gcn强大的特征提取能力增强节点的隐藏层表示,精准指导模型理解语义帮助因果关系预测。
[0124]
2.5消融实验
[0125]
为了分析我们提出的kigp模型中每个模块是否对性能提升有所贡献,设置了消融实验,每次去掉一个模块,如表3和表4所示,其中δ表示低于kigp的百分点。
[0126]
表3在eventstoryline数据集上的消融结果(%)
[0127][0128]
表4在causal-timebank数据集上的结果(%)
[0129][0130][0131]
(1)交互图模块的有效性。w/o intergcn,为了验证交互图模块的有效性,移除了交互图,仅使用roberta编码产生隐藏层向量表示h,而不是再经过gcn层增强prompt中事件向量表示。没有了文本、事件与知识之间的交互作用进行引导,模型的性能在两个数据集上分别下降了2.1%和1.8%。这表明了事件知识交互的重要性,交互后的特征对因果关系推理起着一定的引导作用。
[0132]
(2)外部事件知识的有效性。w/o eventkg,从文档编码器的输入部分移除从外部知识图谱获取到的事件知识文本eventtext,同时,交互图模块也失去作用。结果,f1值在两个数据集上分别下降了2.9%和2.4%。这表明外部事件知识能够促进plms对文本关于事件关系的语义理解能力。
[0133]
(3)提示模板的作用。w/o prmeci,为了证明提示模板模块的必要性,删除了prompt,只用原文本和事件知识作为输入,不给模型任何提示的情况下进行eci,导致了性能的大幅下滑(3.6%和3.2%)。这说明了提示模板能够激发plms的学习能力,且精准的提示促使模型更准确的理解和预测。
[0134]
2.6知识数量和位置的影响
[0135]
知识数量。观察到从conceptnet获取到的每个事件知识三元组的数量各不相同,其范围在[0,20],对eventstoryline和causal-timebank数据集中相关的事件知识数量统计如图7。大多数事件知识在5条以内,分别使用不同数量(2,5,10,不限数量)的事件知识进行实验,从结果可以发现,模型性能并没有随着知识数量的增加不断提升,而是将知识数量限制在5条以内的性能最佳,6条以上或者不加限制的知识可能会产生知识噪声,混淆语义,影响plms对原文本的理解。
[0136]
知识位置。知识增强的事件文本作为文档编码器的输入有三种形式:前置、后置与内插。前置是将线性化后的知识放置在原文本前面,即x=[eventtext,original text];后置是将线性化后的知识放置在原文本后面,即x=[original text,eventtext]。内插是指将线性化后的知识直接插入原文本中事件提及的位置,将文本中事件提及e1,e2的相关知识k1,k2直接插入到e1,e2后面。对三种形式的知识位置进行实验对比,如图8所示,结果发现,知识前置的准确率高于知识后置,知识内插的效果最差。直观上,内插形式虽然能够模型帮助对事件本身的理解,但会使文本中两个事件提及距离增大,降低原文本的流畅度,使模型不易寻找到事件之间的关系。
[0137]
2.7交互图gcn层数的影响
[0138]
交互图模块使用gcn进行特征提取,在文本分类任务中,通常使用两层gcn聚合邻居节点特征就可以达到很好地效果,在eci任务中,针对gcn层数的选择(g=1,2,3)进行了实验,实验结果如图9所示,结果显示模型在两个数据集上的f1值均呈现出1层》2层》3层。分析其原因,交互图中明确了文本节点、事件节点和知识节点,目的是为了利用知识增强对事件的理解,其中知识与事件提及一一对应,且知识节点直接作为事件节点的邻居,因此通过单层就可以直接聚合知识特征。
[0139]
2.8案例分析
[0140]
为了直观地展示知识交互指导因果关系识别方法每个部分的有效性,我们做了案例分析,对比了kigp和richgcn两种方法的识别结果,如表5所示,其中《es,e
t
》表示事件对,gt表示真实的事件对关系(ground truth),rich表示使用richgcn方法,粗体加下划线的单词表示事件,表示模型识别的结果为事件对之间存在因果关系,表示模型识别的结果为事件对之间不存在因果关系。
[0141]
表5案例分析
[0142][0143]
案例1中,richgcn识别出《war,bombs》是因果关系对,而事实上,war和bombs之间并不存在因果关系,模型可能对词语理解有误,将war与其位置接近的warns混淆了;因为文本中没有显式线索词,richgcn未能识别“bombs”和“death”之间的因果关系,这种隐式因果关系往往需要依赖常识知识才能正确推测。而kigp中补充了这类事件知识,如协助模型正确识别出两者之间的因果关系。案例2中,richgcn和kigp都能正确判断出earthquake cause injured,earthquake cause killed,但对于《earthquake,destroyed》这一因果事件对,richgcn未能识别,说明仅仅使用文档结构图从结构特征捕获事件之间的关联,可能会缺乏对文本语义的理解,而kigp在利用结构特征的
同时强调语义特征,准确识别出earthquake cause destroyed。kigp能够正确识别出两个案例中所有的因果关系对,说明我们提出的方法能够通过融入外部知识与文本、事件交互促进隐式因果关系的识别,从而增强eci模型效果。
[0144]
最后,实验证明(1)外部事件知识的融入能够增强plms对文本中事件及事件关系的语义理解,通过提示学习进一步提升对隐式因果关系识别的效果,(2)通过事件知识交互图提取的交互结构特征能够更加精准指导模型识别因果关系,增强eci能力。
[0145]
3方法
[0146]
在上述实施例的基础上,如图10所示,本发明还提出一种知识交互图指导的事件因果关系识别方法,包括:
[0147]
获得原始文本、事件知识和prompt模板中的词向量表示;
[0148]
通过事件知识交互图利用gcn获取事件节点的向量表示,将其与prompt模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;
[0149]
将融合后的向量表示送入roberta,通过roberta预测因果关系分类结果。
[0150]
具体来说,方法的实现有三个主要步骤:(1)从外部知识图谱conceptnet中获取文本中事件提及的三元组,线性化为知识文本。(2)通过设计基于事件对的提示模板和答案映射,利用提示学习诱发plms的学习能力,提升隐式因果关系识别效果。(3)为了增强文本、事件与知识的交互,提出交互图指导机制,通过构建交互图,利用gcn从全局视角增强各类节点的特征表示,有效指导模型进行因果关系识别。
[0151]
进一步地,采用预训练语言模型roberta获得原始文本、事件知识和prompt模板中的词向量表示。
[0152]
进一步地,按照以下方式获得事件知识:
[0153]
在conceptnet中检索到原始文本中提及事件对《es,e
t
》的节点,对其进行词形还原;
[0154]
匹配与事件提及相关的语义关系及关联节点的子图;
[0155]
从conceptnet中获取到关于事件的相关知识;
[0156]
将每个事件提及与关联的每一解释项分别存入一个列表;
[0157]
最后将这些三元组线性化为文本形式,将语义关系词修改为自然语言描述,并将线性化为文本形式的三元组作为事件知识以拼接方式植入输入序列。
[0158]
进一步地,按照以下方式构建事件知识交互图:
[0159]
将文档映射为三种类型的节点,节点的类型包括:单词节点,事件节点,知识节点;
[0160]
依据指导机制在节点之间构建边以构建事件知识交互图,边的类型包括:事件-事件边,事件-知识边;所述事件-事件边指事件节点与事件节点之间构成的边,所述事件-知识边指事件节点与知识节点之间构成的边。
[0161]
综上,本发明提出了一种新颖的基于知识交互图指导的提示学习方法进行eci。为了增强eci模型识别隐式因果关系的能力,融入了外部事件知识并设计了包含事件抽取的提示模板,充分激活plms强大的学习能力;为了对模型进行精准指导,增强事件与知识之间的交互,引入了指导机制来构造交互图提取深层隐藏特征。在两个广泛使用的eci数据集上的实验结果表明,我们的方法超过了现有的sota方法,一定程度上解决了隐式因果关系识别和事件知识交互的挑战。未来的工作中,将考虑如何自动生成eci模型的提示模板,进一
步提升性能。
[0162]
以上所示仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

技术特征:
1.一种知识交互图指导的事件因果关系识别系统,其特征在于,包括:文档编码器,交互构造器及预测器;所述文档编码器用于获得原始文本、事件知识和提示模板中的词向量表示;所述交互构造器用于通过事件知识交互图利用gcn获取事件节点的向量表示,将其与提示模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;所述预测器用于将融合后的向量表示送入roberta,通过roberta预测因果关系分类结果。2.根据权利要求1所述的知识交互图指导的事件因果关系识别系统,其特征在于,所述文档编码器采用预训练语言模型roberta。3.根据权利要求1所述的知识交互图指导的事件因果关系识别系统,其特征在于,按照以下方式获得事件知识:在conceptnet中检索到原始文本中提及事件对<e
s
,e
t
>的节点,对其进行词形还原;匹配与事件提及相关的语义关系及关联节点的子图;从conceptnet中获取到关于事件的相关知识;将每个事件提及与关联的每一解释项分别存入一个列表;最后将这些三元组线性化为文本形式,将语义关系词修改为自然语言描述,并将线性化为文本形式的三元组作为事件知识以拼接方式植入输入序列。4.根据权利要求1所述的知识交互图指导的事件因果关系识别系统,其特征在于,按照以下方式构建事件知识交互图:将文档映射为三种类型的节点,节点的类型包括:单词节点,事件节点,知识节点;依据指导机制在节点之间构建边以构建事件知识交互图,边的类型包括:事件-事件边,事件-知识边;所述事件-事件边指事件节点与事件节点之间构成的边,所述事件-知识边指事件节点与知识节点之间构成的边。5.一种知识交互图指导的事件因果关系识别方法,其特征在于,包括:获得原始文本、事件知识和提示模板中的词向量表示;通过事件知识交互图利用gcn获取事件节点的向量表示,将其与提示模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;将融合后的向量表示送入roberta,通过roberta预测因果关系分类结果。6.根据权利要求5所述的知识交互图指导的事件因果关系识别方法,其特征在于,采用预训练语言模型roberta获得原始文本、事件知识和提示模板中的词向量表示。7.根据权利要求5所述的知识交互图指导的事件因果关系识别方法,其特征在于,按照以下方式获得事件知识:在conceptnet中检索到原始文本中提及事件对<e
s
,e
t
>的节点,对其进行词形还原;匹配与事件提及相关的语义关系及关联节点的子图;从conceptnet中获取到关于事件的相关知识;将每个事件提及与关联的每一解释项分别存入一个列表;最后将这些三元组线性化为文本形式,将语义关系词修改为自然语言描述,并将线性化为文本形式的三元组作为事件知识以拼接方式植入输入序列。8.根据权利要求5所述的知识交互图指导的事件因果关系识别方法,其特征在于,按照
以下方式构建事件知识交互图:将文档映射为三种类型的节点,节点的类型包括:单词节点,事件节点,知识节点;依据指导机制在节点之间构建边以构建事件知识交互图,边的类型包括:事件-事件边,事件-知识边;所述事件-事件边指事件节点与事件节点之间构成的边,所述事件-知识边指事件节点与知识节点之间构成的边。

技术总结
本发明公开一种知识交互图指导的事件因果关系识别系统及方法,该系统包括文档编码器,用于获得原始文本、事件知识和提示模板中的词向量表示;交互构造器,用于通过事件知识交互图利用GCN获取事件节点的向量表示,将其与提示模板中的事件向量融合,得到包含事件语义和关系知识的新的向量表示;预测器,用于将融合后的向量表示送入Roberta,通过Roberta预测因果关系分类结果。本发明通过融入外部知识,充分利用事件知识和提示学习激活预训练模型潜力完成因果关系识别;设计了指导机制,并构建了知识交互图,通过文本、事件与知识的深度交互,有效指导外部知识精准增强事件的向量表示,帮助更好地捕获隐式因果关系。帮助更好地捕获隐式因果关系。帮助更好地捕获隐式因果关系。


技术研发人员:胡瑞娟 漆桂林 李健 张裕欣 申时荣 刘海砚 葛磊 周会娟
受保护的技术使用者:中国人民解放军战略支援部队信息工程大学
技术研发日:2023.04.23
技术公布日:2023/8/21
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐