基于BERT预训练模型的端到端事件抽取方法及系统与流程

未命名 08-22 阅读:107 评论:0

基于bert预训练模型的端到端事件抽取方法及系统
技术领域
1.本发明涉及数据挖掘技术领域,具体的,涉及基于bert预训练模型的端到端事件抽取方法及系统。


背景技术:

2.自动内容抽取(automatic content extraction,ace)国际评测会议将事件定义为:发生在某个特定时间点或时间段,某个特定地域范围内,由一个或者多个角色参与的一个或者多个动作组成的事情或者状态的改变。ace将事件抽取任务定义为从非结构化的文本中识别并抽取事件信息并结构化表示,包括事件触发词、事件论元、论元角色。触发词是整个事件的核心词,其大多数以动词的形式存在;事件论元是与触发词之间具备语义联系的词,包含事件的参与者,即主体和客体,事件发生的时间、地点,事件发生的程度等;论元角色是论元与触发词之间具体的语义关系角色。
3.该问题传统上被视为两个独立的子任务,即(i)触发词识别和(ii)论元及论元角色识别。早期的研究主要采用基于模式匹配的方法,但是此类方法准确率大大依赖于模式提取的好坏,制作模板和人工抽取特征需要耗费大量的时间和人力。


技术实现要素:

4.本发明提出基于bert预训练模型的端到端事件抽取方法及系统,解决了相关技术中事件抽取准确率低的问题。
5.本发明的技术方案如下:
6.第一方面,基于bert预训练模型的端到端事件抽取方法,包括:
7.获得输入语料;
8.将输入语料输入bert预训练模型,提取每个词的bert词向量;
9.对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量,将初始词性向量输入词性特征向量模块,得到对应的词性特征向量;
10.将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;
11.将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取;
12.其中,所述词性特征向量模块的训练过程包括:
13.对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;
14.采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;
15.采用解码器拟合编码器的输出;
16.修改训练参数,重复执行训练过程,直到编码器的输入和解码器的输出误差在设定范围内。
17.第二方面,基于bert预训练模型的端到端事件抽取系统,包括:
18.输入模块,用于获得输入语料;
19.词向量模块,用于根据bert预训练模型提取每个词的bert词向量;
20.词性特征向量模块,用于根据初始词性向量计算词性特征向量;所述初始词性向量具体为:对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量;
21.触发词抽取模块,用于将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;
22.论元抽取模块,用于将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取;
23.其中,所述词性特征向量模块的训练过程包括:
24.对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;
25.采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;
26.采用解码器拟合编码器的输出;
27.修改训练参数,重复执行训练过程,直到编码器的输入和解码器的输出误差在设定范围内。
28.第三方面,基于bert预训练模型的端到端事件抽取系统,包括储存器和处理器,所述储存器上存储有计算机程序或指令,所述处理器执行所述程序或指令时实现所述的基于bert预训练模型的端到端事件抽取方法。
29.本发明的工作原理及有益效果为:
30.本发明中通过训练词性特征向量模块,和bert预训练模型一起,用于触发词的判定,有利于触发词的准确提取。比如出现多动词情况时,对于触发词的判定会变的模糊,此时需要通过各个动词所服务的对象来判断触发词,而动词周围的词性组合可以帮助更好的判别。进一步,通过将触发词向量和实体词向量作为参数,输入条件随机场算法,综合判断事件论元和论元角色,提高事件抽取准确度。
附图说明
31.下面结合附图和具体实施方式对本发明作进一步详细的说明。
32.图1为本发明基于bert预训练模型的端到端事件抽取方法流程图;
33.图2为本发明的一个实施例原理框图;
34.图3为本发明基于bert预训练模型的端到端事件抽取系统结构图。
具体实施方式
35.下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都涉及本发明保护的范围。
36.实施例1
37.如图1所示,本实施例提出了基于bert预训练模型的端到端事件抽取方法,包括:
38.s100:获得输入语料;
39.s200:将输入语料输入bert预训练模型,提取每个词的bert词向量;
40.本实施例中,使用bert预训练模型提取出每个词的词向量,得到的词表示具备强大的语义表征能力。
41.s300:对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量,将初始词性向量输入词性特征向量模块,得到对应的词性特征向量;
42.其中,所述词性特征向量模块的训练过程包括:
43.对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;
44.采用encoding-decoding结构,提取词性依赖特征。首先采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;然后采用解码器拟合编码器的输出;解码器由多层mlp组成,用于拟合编码器的输出。模型训练的目的则是让编码器的输入和解码器的输出尽可能的一致。最后用于进行触发词判别的词性特征即为编码器的输出。
45.s400:将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;
46.如图2所示,为本实施例原理框图。本实施例中通过训练词性特征向量模块,和bert预训练模型一起,用于触发词的判定,有利于触发词的准确提取。比如出现多动词情况时,对于触发词的判定会变的模糊,此时需要通过各个动词所服务的对象来判断触发词,而动词周围的词性组合可以帮助更好的判别。
47.s500:将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取。
48.当前的联合抽取大多数没有识别出论元角色,仅仅识别是否是论元。考虑到论元都是实体,且触发词类型对于论元角色具有较大影响,因此本实施例使用实体识别结合触发词识别模块进行论元提取,值得注意的是,这里直接提取论元角色(null和35类论元角色)。
49.本实施例目的不只是检测包含事件的语句,而是需要同时抽取出对应事件元素的实体。具体的,我们利用实体识别技术将论元抽取及论元角色识别问题转化为一个多分类问题,采用softmax进行相关事件元素的多分类,因为是事件抽取的多分类问题,使用条件随机场(crf)算法,根据触发词向量和实体词向量综合判断事件论元和触发词的边界,得到事件论元和论元角色,以实现精确的事件抽取。
50.进一步,所述将输入语料输入bert预训练模型,提取每个词的词向量,具体包括:
51.通过随机初始化生成初始化词向量{e1,e2,

,en};其中,n为语料长度;
52.根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,

,pn};
53.根据初始化词向量{e1,e2,

,en}和位置嵌入向量{p1,p2,

,pn}计算传入矩阵d={m1,m2,

,mn},其中mi=pi+ei,1≤i≤n;
54.基于注意力机制,将传入矩阵d进行映射,具体为:
55.k=wk(m1,m2,...,mn)=(k1,k2,...,kn)
56.q=wq(m1,m2,...,mn)=(q1,q2,...,qn)
57.v=wv(m1,m2,...,mn)=(v1,v2,...,vn)
58.其中,wk、wq、wv为bert预训练模型中的参数,k为关键字矩阵,q为询问矩阵,v为值矩阵;
59.对于每一个输入字,根据映射后的传入矩阵d计算当前位置和其他位置的相关性特征,将相关性特征输入bert预训练模型,得到每个词的词向量;
60.其中,任一位置i的向量表示为(ki,qi,vi),任一位置j的向量表示为(kj,qj,vj),将向量(ki,qi,vi)和向量(kj,qj,vj)点乘结果作为任一位置i和任一位置j的相关性特征。
61.字的相关性程度对上下文语义相关性特征表示非常重要,本实施例选择使用自注意力机制来学习每个位置的字相关性程度,从而得到较好的相关性特征。再利用bert预训练模型将语料中的每个字与上下文信息进行结合得到准确的触发词向量。
62.进一步,所述根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,

,pn},具体包括:
63.对任一位置i,其对应的位置嵌入向量为
[0064][0065]
首先根据位置i计算随机化向量,然后映射成正弦曲线,其中,d
model
是向量维度,w表示所在维度。
[0066]
进一步,所述将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色之后,还包括:
[0067]
根据事件论元和论元角色再次计算触发词向量的概率。
[0068]
本实施例中,根据事件论元和论元角色再次计算触发词向量的概率,用于对触发词概率进行二次校验,最终得到触发词及论元角色(null和35类论元角色)。
[0069]
实验验证
[0070]
通过对比现有取得先进结果的四个方法,tier方法、dmcnn方法、text2event方法和jrnn方法,可以确定本实施例的基于预训练模型的端到端事件抽取方法在少样本的中文事件抽取上具有优势。为了后面引述的方便,本实施例的模型称为e2ebert。
[0071]
我们使用一个公开数据集ace2005,验证本实施例方法的有效性,该数据集包含8种事件类型:“life”、“conflict”、“movement”、“contact”、“justice”、“transaction”、“business”、“personnel”。表1所列为数据集的统计信息。
[0072]
表1数据集统计信息
[0073]
数据集句子数lifeconflictmovementcontactjusticetransactionbusinesspersonnelace20053241488593741291545173168242
[0074]
在我们的实验中,使用一种基于循环神经网络,设计了一种流水线式的事件抽取方法作为基线:
[0075]
pipeline:一种流水线的事件抽取方法,先识别触发词再识别论元。
[0076]
同时,设置了两种消融实验验证提出模块的有效性:
[0077]
e2ebert*:为了评估我们提出的词性特征模块有效性,我们引入了e2ebert*,在过
程中不考虑触发词上下文词性特征。
[0078]
e2ebert#:为了评估实体识别对论元角色识别有效性,我们引入了e2ebert#,将词向量直接作为特征加入模型中,不用实体识别对词向量进行选择。
[0079]
我们将精确度(p)、召回率(r)和f1分数作为性能指标,精确率、召回率、f1通过如表2所示的混淆矩阵进行定义:
[0080]
表2混淆矩阵表
[0081] positivenegativetruetrue positive(tp)true negative(tn)falsefalse positive(fp)false negative(fn)
[0082]
其中,true positive(真正,tp)为将实际上的正类预测为正类的总数;true negative(真负,tn)为将实际上的负类预测为负类的总数;false positive(假正,fp)为将实际上的负类预测为正类的总数;false negative(假负,fn)为将实际上的正类预测为负类的总数。据此,精确率的定义为:
[0083][0084]
表示所有被判断为正类的样例中,实际为正类的比例。召回率被定义为:
[0085][0086]
表示所有实际的正例中,被预测出来的比例。理想的状况下希望精确率和召回率都很高,但是实际上两者是矛盾的。通常情况下,可以找到两者之间的平衡点,因此定义一个新的指标f1分数,同时考虑精确率和召回率:
[0087][0088]
我们选择使用adam优化器,其中学习率(learning rate)是重要的超参数,主要用于控制训练模型的权重更新速度。我们用表3列出了端到端事件抽取模型e2ebert的参数设置情况。
[0089]
表3参数设置
[0090]
模型参数参数值learning rate2e-04batch size16word embedding dimension50entity embedding dimension50hidden layer dimension240dropout rate0.25
[0091]
下面通过对比分析所发明方法e2ebert和现有取得先进结果的方法的precision、recall和f1实验结果,来说明所发明方法的效果和性能,所发明的e2ebert方法在端到端事件抽取上的实验结果分别如下表4所示:
[0092]
表4事件抽取实验结果
[0093]
模型precisionrecallf1pipeline51.354.752.9dmcnn62.246.953.5jrnn54.456.555.4text2event52.555.253.8tier50.861.555.6e2ebert*51.158.354.4e2ebert#55.657.356.4e2ebert53.262.157.3
[0094]
从上表可以看出:
[0095]
(1)pipeline表现比较差,是因为这一个是基于流水线的事件抽取模型,会造成参数错误转播问题,本发明e2ebert在一定程度上缓解了这一问题,所发明的方法是一个端到端事件抽取方法,提高了事件元素抽取的准确性;
[0096]
(2)e2ebert的f1分数高于目前主流的事件抽取方法,这表明本发明提出的基于预训练的端到端事件抽取模型的有效性,提高了抽取事件元素的准确性。
[0097]
(3)e2ebert比e2ebert*获得了更好的f1分数,主要是因为e2ebert精度分数和召回率都要高得多,这表明本发明提出的触发词上下文词向量模块可以有效提高事件抽取的准确率;
[0098]
(4)e2ebert比e2ebert#取得了更好的f1分数,主要是因为e2ebert召回率要高得多。这表明本发明提出的基于实体识别的论元角色提取模块能够有效提高端到端抽取的效果。
[0099]
实施例2
[0100]
如图2所示,基于与上述实施例1相同的构思,本实施例还提出了基于bert预训练模型的端到端事件抽取系统,包括:
[0101]
输入模块,用于获得输入语料;
[0102]
词向量模块,用于根据bert预训练模型提取每个词的bert词向量;
[0103]
词性特征向量模块,用于根据初始词性向量计算词性特征向量;所述初始词性向量具体为:对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量;
[0104]
触发词抽取模块,用于将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;
[0105]
论元抽取模块,用于将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取;
[0106]
其中,所述词性特征向量模块的训练过程包括:
[0107]
对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;
[0108]
采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;
[0109]
采用解码器拟合编码器的输出;
[0110]
修改训练参数,重复执行训练过程,直到编码器的输入和解码器的输出误差在设定范围内。
[0111]
进一步,所述词向量模块具体包括:
[0112]
第一计算单元,用于通过随机初始化生成初始化词向量{e1,e2,

,en};其中,n为语料长度;
[0113]
第二计算单元,用于根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,

,pn};
[0114]
第三计算单元,用于初始化词向量{e1,e2,

,en}和位置嵌入向量{p1,p2,

,pn}计算传入矩阵d={m1,m2,

,mn},其中mi=pi+ei,1≤i≤n;
[0115]
基于注意力机制,将传入矩阵d进行映射,具体为:
[0116]
k=wk(m1,m2,...,mn)=(k1,k2,...,kn)
[0117]
q=wq(m1,m2,...,mn)=(q1,q2,...,qn)
[0118]
v=wv(m1,m2,...,mn)=(v1,v2,...,vn)
[0119]
其中,wk、wq、wv为bert预训练模型中的参数,k为关键字矩阵,q为询问矩阵,v为值矩阵;
[0120]
第四计算单元,用于对于每一个输入字,根据映射后的传入矩阵d计算当前位置和其他位置的相关性特征,将相关性特征输入bert预训练模型,得到每个词的词向量;
[0121]
其中,任一位置i的向量表示为(ki,qi,vi),任一位置j的向量表示为(kj,qj,vj),将向量(ki,qi,vi)和向量(kj,qj,vj)点乘结果作为任一位置i和任一位置j的相关性特征。
[0122]
进一步,对任一位置i,所述第二计算单元具体用于计算其对应的位置嵌入向量为:
[0123][0124]
其中,d
model
是向量维度,w表示所在维度。
[0125]
进一步,所述第四计算单元还用于:
[0126]
根据事件论元和论元角色再次计算触发词向量的概率。
[0127]
本实施例系统的工作原理在方法实施例中已有详尽的描述,为了说明书的简洁,这里不作赘述。
[0128]
实施例3
[0129]
本实施例还提出了基于bert预训练模型的端到端事件抽取系统,包括储存器和处理器,所述储存器上存储有计算机程序或指令,所述处理器执行所述程序或指令时实现所述的基于bert预训练模型的端到端事件抽取方法。
[0130]
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

技术特征:
1.基于bert预训练模型的端到端事件抽取方法,其特征在于,包括:获得输入语料;将输入语料输入bert预训练模型,提取每个词的bert词向量;对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量,将初始词性向量输入词性特征向量模块,得到对应的词性特征向量;将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取;其中,所述词性特征向量模块的训练过程包括:对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;采用解码器拟合编码器的输出;修改训练参数,重复执行训练过程,直到编码器的输入和解码器的输出误差在设定范围内。2.根据权利要求1所述的基于bert预训练模型的端到端事件抽取方法,其特征在于,所述将输入语料输入bert预训练模型,提取每个词的词向量,具体包括:通过随机初始化生成初始化词向量{e1,e2,,e
n
};其中,n为语料长度根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,,p
n
};根据初始化词向量{e1,e2,,e
n
}和位置嵌入向量{p1,p2,,p
n
}计算传入矩阵d={m1,m2,,m
n
},其中m
i
=p
i
+e
i
,1≤i≤n;基于注意力机制,将传入矩阵d进行映射,具体为:k=w
k
(m1,m2,...,m
n
)=(k1,k2,...,k
n
)q=w
q
(m1,m2,...,m
n
)=(q1,q2,...,q
n
)v=wv(m1,m2,...,m
n
)=(v1,v2,...,v
n
)其中,w
k
、w
q
、wv为bert预训练模型中的参数,k为关键字矩阵,q为询问矩阵,v为值矩阵;对于每一个输入字,根据映射后的传入矩阵d计算当前位置和其他位置的相关性特征,将相关性特征输入bert预训练模型,得到每个词的词向量;其中,任一位置i的向量表示为(k
i
,q
i
,v
i
),任一位置j的向量表示为(k
j
,q
j
,v
j
),将向量(k
i
,q
i
,v
i
)和向量(k
j
,q
j
,v
j
)点乘结果作为任一位置i和任一位置j的相关性特征。3.根据权利要求2所述的基于bert预训练模型的端到端事件抽取方法,其特征在于,所述根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,,p
n
},具体包括:对任一位置i,其对应的位置嵌入向量为:其中,d
model
是向量维度,w表示所在维度。
4.根据权利要求1所述的基于bert预训练模型的端到端事件抽取方法,其特征在于,所述将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色之后,还包括:根据事件论元和论元角色再次计算触发词向量的概率。5.基于bert预训练模型的端到端事件抽取系统,其特征在于,包括:输入模块,用于获得输入语料;词向量模块,用于根据bert预训练模型提取每个词的bert词向量;词性特征向量模块,用于根据初始词性向量计算词性特征向量;所述初始词性向量具体为:对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量;触发词抽取模块,用于将所述bert词向量和所述词性特征向量输入多层感知机,得到触发词向量;论元抽取模块,用于将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取;其中,所述词性特征向量模块的训练过程包括:对触发词以及触发词上下文各r个词的词性进行标注,每一词性对应不同的赋值,不同的赋值构成初始词性向量;采用基于cnn的编码器从多个维度提取初始词性向量中不同的依赖信息;采用解码器拟合编码器的输出;修改训练参数,重复执行训练过程,直到编码器的输入和解码器的输出误差在设定范围内。6.根据权利要求5所述的基于bert预训练模型的端到端事件抽取系统,其特征在于,所述词向量模块具体包括:第一计算单元,用于通过随机初始化生成初始化词向量{e1,e2,,e
n
};其中,n为语料长度;第二计算单元,用于根据输入语料中每个字的位置计算位置嵌入向量{p1,p2,,p
n
};第三计算单元,用于初始化词向量{e1,e2,,e
n
}和位置嵌入向量{p1,p2,,p
n
}计算传入矩阵d={m1,m2,,m
n
},其中m
i
=p
i
+e
i
,1≤i≤n;基于注意力机制,将传入矩阵d进行映射,具体为:k=w
k
(m1,m2,,m
n
)=(k1,k2,,k
n
)q=w
q
(m1,m2,...,m
n
)=(q1,q2,...,q
n
)v=wv(m1,m2,...,m
n
)=(v1,v2,...,v
n
)其中,w
k
、w
q
、wv为bert预训练模型中的参数,k为关键字矩阵,q为询问矩阵,v为值矩阵;第四计算单元,用于对于每一个输入字,根据映射后的传入矩阵d计算当前位置和其他位置的相关性特征,将相关性特征输入bert预训练模型,得到每个词的词向量;其中,任一位置i的向量表示为(k
i
,q
i
,v
i
),任一位置j的向量表示为(k
j
,q
j
,v
j
),将向量(k
i
,q
i
,v
i
)和向量(k
j
,q
j
,v
j
)点乘结果作为任一位置i和任一位置j的相关性特征。7.根据权利要求6所述的基于bert预训练模型的端到端事件抽取系统,其特征在于,对
任一位置i,所述第二计算单元具体用于计算其对应的位置嵌入向量为:其中,d
model
是向量维度,w表示所在维度。8.根据权利要求5所述的基于bert预训练模型的端到端事件抽取系统,其特征在于,所述论元抽取模块还用于:根据事件论元和论元角色再次计算触发词向量的概率。9.基于bert预训练模型的端到端事件抽取系统,其特征在于,包括储存器和处理器,所述储存器上存储有计算机程序或指令,所述处理器执行所述程序或指令时实现如权利要求1-4中任一项所述的基于bert预训练模型的端到端事件抽取方法。

技术总结
本发明涉及数据挖掘技术领域,提出了基于BERT预训练模型的端到端事件抽取方法及系统,包括获得输入语料;将输入语料输入BERT预训练模型,提取每个词的BERT词向量;对输入语料的每一行进行词性标注,根据标注结果进行词性赋值,作为该行的初始词性向量,将初始词性向量输入词性特征向量模块,得到对应的词性特征向量;将所述BERT词向量和所述词性特征向量输入多层感知机,得到触发词向量;将触发词向量和实体词向量作为参数,输入条件随机场算法,得到事件论元和论元角色;所述实体词向量根据词性标注结果得到;所述触发词、所述论元和所述论元角色用于事件抽取。通过上述技术方案,解决了现有技术中事件抽取准确率低的问题。决了现有技术中事件抽取准确率低的问题。决了现有技术中事件抽取准确率低的问题。


技术研发人员:程祥 宋志立 何召锋 匡明 杨文林
受保护的技术使用者:杭州康晟健康管理咨询有限公司
技术研发日:2023.06.03
技术公布日:2023/8/21
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐