一种基于因果强化学习的图节点遍历问题求解方法
未命名
09-17
阅读:151
评论:0

1.本发明涉及数据处理技术领域,尤其涉及一种基于因果强化学习的图节点遍历问题求解方法。
背景技术:
2.图节点遍历问题是一类np困难问题(其为2018年全国科学技术名词审定委员会公布的计算机科学技术名词,定义为:给定一个问题a,如果任何np问题均在多项式时间多一归约、对数空间多一归约或多项式时间图灵归约下归约于a,那么称a是一个np困难问题),这意味着无法在多项式时间内求得最优解。因此,在实际应用中,通常采取近似方法或启发式算法来尝试求得次优解或可行解。
3.传统运筹优化方法需要对问题进行数学建模,导致模型复杂度和计算量增加,同时也会忽略一些实际的约束条件和特殊情况。此外,传统运筹优化问题很难适应动态变化的环境和需求,缺乏泛化能力和迁移能力。
4.同时可知,强化学习作为一种无模型的动态规划方法,不必预先了解环境的状态转移概率和奖励函数,而是通过与环境的不断互动,在试错中学习最佳策略,进而实现在决策过程中对长期累积奖励的关注。在长期累积奖励的决策过程中,能够在复杂性和不确定性高的环境中作出选择,不仅仅能够追求短期利益,还能避免陷入局部最优解。
5.但是强化学习也存在一个主要缺陷,即缺乏因果推断的能力。形象地说,即智能体与环境的互动过程是盲目的,缺乏引导的,主要依赖于大量重复所形成的经验。故在面对图节点遍历问题(节点关系复杂等需要因果推理的复杂情况)时,难以对问题给出合适的求解。
技术实现要素:
6.为解决上述问题,本发明提供一种基于因果强化学习的图节点遍历问题求解方法,在结合因果推断与强化学习,以实现对复杂图节点遍历问题的高效解决的基础上,不仅能提高模型的可解释性,理解模型的决策过程,还能够显著提高模型在处理大规模和复杂图节点遍历问题上的性能,节省计算资源,提高计算效率。
7.为实现上述目的,本发明提供了一种基于因果强化学习的图节点遍历问题求解方法,包括以下步骤:s1、将图节点遍历问题抽象为因果强化学习的目标空间;s2、定义图节点遍历问题的优化目标、状态空间、动作空间、策略、奖励函数和奖励期望;s3、智能体从已完成建模的因果强化学习环境中学习图节点遍历问题求解方法。
8.优选的,步骤s1具体包括以下步骤:s11、以待求解图作为环境变量,构建基于环境变量的因果图,其中因果图定义为有向无环图:图中的每条边均为有向边,且所有边相连后不成环;
s12、构建基于因果图的强化学习目标空间。
9.优选的,在步骤s11中将因果图中的每个节点和边都转化为环境变量,在此基础上,使用已知的关系或通过数据驱动方法来确定上述环境变量之间的因果关系:其具体包括以下步骤:s111、将待求解图记为,其中表示点集,表示边集,则此图作为环境变量集合,记为,其中;s112、将使用随机变量来表示一个节点或一条边,其中,则每个随机变量都等价对应一个环境变量,因此,样本空间中所有的合并记为;s113、定义函数表示随机变量之间的因果关系,其中,表示节点或边到的因果关系,表示任意两个随机变量;s114、对于任意两个随机变量和,使用条件概率定量表征之间的因果关系,若对有直接的因果影响,则条件概率不为0,否则为0;s115、定义隐含变量,并定义一个新的函数表示包含隐含变量之间的因果关系;s116、得到由图构建的因果图模型:,表示存在直接的因果关系;,表示存在隐含变量的间接的因果关系。
10.优选的,在步骤s12中利用步骤s1以待求解图作为环境变量获得的因果关系,构建基于因果图的强化学习目标空间,其中目标空间为待建立的图节点遍历路径;其具体包括以下步骤:s121、定义两个动作函数:前进动作函数和后退动作函数:(1) (2)式中,表示状态下的取值;表示状态下的取值;s122、对于随机变量集合及其所对应的动作函数集合,定义目标空间:(3)。
11.优选的,步骤s2具体包括以下步骤:s21、定义图节点遍历问题的优化目标:用表示图中n个点的拓扑位置坐标,优化目标记作:
(4)式中,对任意节点或边,定义,且为各个点坐标组成的矩阵;为集合空间上所有可能的排列组合;为第个点的在集合空间c上的排列组合;为第个点的在集合空间c上的排列组合;s22、定义图节点遍历问题的状态空间:用每个状态定义已经遍历过的点集合;s23、定义图节点遍历问题的动作空间:用每个动作定义下一个将要遍历的点;s24、定义图节点遍历问题的策略:基于已经遍历过的点集合,返回在下一步未被选择的所有备选点的概率分布;s25、定义图节点遍历问题的奖励函数:当状态为时采取动作的成本的负值;s26、定义图节点遍历问题的奖励期望:
ꢀꢀ
(5)式中,表示点集合空间,是集合空间上所有可能的排列组合形成的子空间,是的概率分布函数;表示在状态下执行动作后形成的在策略下的马尔可夫一步转移期望;表示单个点在状态执行动作的奖励;表示由神经网络预测得到的的分布;表示各排列组合在分布及各点c在点集合c下的马尔可夫一步转移期望;表示优化目标。
12.优选的,步骤s3具体包括以下步骤:s31、智能体在因果强化学习不断试错的这一状态转换过程中学习并收集相邻时间步之间的因果关系:根据马尔可夫状态转移方程,状态仅由动作和动作决定,即第时间步变量的变量值仅受第时间步变量的变量值决定,由步骤s1中所述因果关系方程,定义如下:(6)式中,表示将时间步变量加上一些随机扰动使之随机地转换到下一时间步变量,表示点或边在当前状态对应时间步变量时的遍历完成与否标志;表示环境中引入的随机噪声,使得函数可以更好地拟合;
s32、在学习过程中不断修正环境变量:利用智能体状态转换过程中产生的干预数据,表示步骤s1中隐含变量的存在性标志及隐含变量存在时的取值,用于对环境变量加以修正。
13.优选的,在步骤s32中,首先利用参数描述步骤s1所建立的因果图,再通过一个两阶段的连续迭代进行修正;其具体包括以下步骤:第一阶段:从伯努利分布中对参数进行图采样,提取特征;第二阶段:估计参数的梯度,对于从s31所述状态和之间的因果关系的梯度,由下式从干预数据集中估计:(7)式中,表示对于参数的第次采样;表示对于参数的第次采样;表示在干预数据下的第次采样的极大似然估计;表示在干预数据下的第次采样的极大似然估计;;将输入前式得到的值;表示节点或边到中和的父子关系,例如表示第次采样中节点或边是节点或边的父节点;循环第一阶段和第二阶段,直至算法收敛。
14.本发明具有以下有益效果:1、引入因果推断技术,其能够识别变量之间的因果关系,从而提供深入理解和预测系统行为的能力。在因果强化学习中,引入因果推断技术可以大大提高模型的可解释性。
15.(一)从全局视角来看,因果推断可以帮助理解因果强化学习的决策过程。通过分析状态、动作和奖励之间的因果关系(可以理解为什么智能体会选择特定的行动,以及这些行动如何影响未来的状态和奖励)。
16.(二) 从局部视角来看,因果推断可以帮助理解个别决策的影响。例如,在图节点遍历问题中,可以通过因果推断来理解为什么选择访问特定节点会导致总遍历路径长度的变化。这种因果关系的理解可以提供关于如何改进策略的有用见解。
17.2、解决了引入因果推断技术时存在的大量的节点、边和可能的状态进行因果推断,浪费时间的问题。
18.下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
19.图1为本发明的一种基于因果强化学习的图节点遍历问题求解方法的流程图图2为本发明的一种基于因果强化学习的图节点遍历问题求解方法的智能体因果强化学习过程图;图3为本发明的一种基于因果强化学习的图节点遍历问题求解方法的因果关系模
型图;图4为本发明的实施例所述的利用本发明的求解效果图;图5为本发明的实施例所述的利用传统因果强化学习方法的求解效果图;图6为本发明的实施例所述的因果强化学习过程的奖励函数曲线图;图7为本发明的实施例所述的验证结果曲线图。
具体实施方式
20.为了使本发明实施例公开的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明实施例进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本发明实施例,并不用于限定本发明实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。
21.需要说明的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
22.相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
23.在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
24.在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
25.首先需要体现说明的是,本实施例中的图节点之间的连通关系是由边定义的,即图节点遍历求解过程,实际上是选取图中的若干边的过程,这些选取的边构成有向环状图。
26.如图1-图3所示,一种基于因果强化学习的图节点遍历问题求解方法,包括以下步骤:s1、将图节点遍历问题抽象为因果强化学习的目标空间;优选的,步骤s1具体包括以下步骤:s11、以待求解图作为环境变量,构建基于环境变量的因果图,其中因果图定义为有向无环图:图中的每条边均为有向边,且所有边相连后不成环;优选的,在步骤s11中将因果图中的每个节点和边都转化为环境变量,在此基础上,使用已知的关系或通过数据驱动方法来确定上述环境变量之间的因果关系:其具体包括以下步骤:
s111、将待求解图记为,其中表示点集,表示边集,则此图作为环境变量集合,记为,其中;s112、将使用随机变量来表示一个节点或一条边,其中,则每个随机变量都等价对应一个环境变量,因此,样本空间中所有的合并记为;即随机变量特指在由图环境变量集合所构成样本空间中,对于每一个均满足,由于为实值单值函数,表示对于唯一确定的图,经过不同的变换能得到对应的唯一确定的,但由于变换不可穷举,故不可穷举,有无限多个,因此是随机变量;s113、定义函数表示随机变量之间的因果关系,其中,表示节点或边到的因果关系,表示任意两个随机变量;s114、对于任意两个随机变量和,使用条件概率定量表征之间的因果关系,若对有直接的因果影响,则条件概率不为0,否则为0;s115、定义隐含变量,并定义一个新的函数表示包含隐含变量之间的因果关系;s116、得到由图构建的因果图模型:,表示存在直接的因果关系;,表示存在隐含变量的间接的因果关系。
27.s12、构建基于因果图的强化学习目标空间。
28.优选的,在步骤s12中利用步骤s1以待求解图作为环境变量获得的因果关系,构建基于因果图的强化学习目标空间,其中目标空间为待建立的图节点遍历路径,其形象表示如图5所示效果;在本实施例中,点集示例为表1所示,边集在实施例中假设为任意两点间连线形成的边的集合,需要说明的是在实际应用场景中,实际可用边集为上述实施例所选用集合的子集,缩小了范围,但不降低有效性。
29.其具体包括以下步骤:s121、定义两个动作函数:前进动作函数和后退动作函数,此处的“前进”和“后退”是相对于s31所述由状态转移过程构成的时间轴上,智能体的“前进”和“后退”,即状态向下一时间步转换或向前一时间步转换:(1)(2)式中,表示状态下的取值;表示状态
下的取值;s122、对于随机变量集合及其所对应的动作函数集合,定义目标空间:(3)。
30.s2、定义图节点遍历问题的优化目标、状态空间、动作空间、策略、奖励函数和奖励期望;优选的,步骤s2具体包括以下步骤:s21、定义图节点遍历问题的优化目标:用表示图中n个点的拓扑位置坐标(此处拓扑位置的含义为:如表1所示点集求解后得到的图5,并以坐标值在坐标系内绘制点,且为了观察清晰、直观,坐标轴可以进行放缩,即坐标轴上的坐标值可以不是均匀分布的,其目的仅为体现点的相对位置关系和边关系),优化目标记作:(4)式中,对任意节点或边,定义,且为各个点坐标组成的矩阵;为集合空间上所有可能的排列组合;为第个点的在集合空间c上的排列组合;为第个点的在集合空间c上的排列组合;s22、定义图节点遍历问题的状态空间:用每个状态定义已经遍历过的点集合;s23、定义图节点遍历问题的动作空间:用每个动作定义下一个将要遍历的点;s24、定义图节点遍历问题的策略:基于已经遍历过的点集合,返回在下一步未被选择的所有备选点的概率分布;s25、定义图节点遍历问题的奖励函数:当状态为时采取动作的成本的负值;s26、定义图节点遍历问题的奖励期望:(5)式中,表示点集合空间,是集合空间上所有可能的排列组合形成的子空间,是的概率分布函数;表示在状态下执行动作后形成的在策略下的马尔可夫一步转移期望;表示单个点在状态执行动作的
奖励;表示由神经网络预测得到的的分布;表示各排列组合在分布及各点c在点集合c下的马尔可夫一步转移期望;表示优化目标。
31.s3、智能体从已完成建模的因果强化学习环境中学习图节点遍历问题求解方法。
32.优选的,步骤s3具体包括以下步骤:s31、智能体在因果强化学习不断试错的这一状态转换过程中学习并收集相邻时间步之间的因果关系:根据马尔可夫状态转移方程,状态仅由动作和动作决定,即第时间步变量的变量值仅受第时间步变量的变量值决定,由步骤s1中所述因果关系方程,定义如下:(6)式中,表示将时间步变量加上一些随机扰动使之随机地转换到下一时间步变量,表示点或边在当前状态对应时间步变量时的遍历完成与否标志;表示环境中引入的随机噪声,使得函数可以更好地拟合;需要说明的是,上述时间步指的是智能体状态转换过程中的时间步,即若将智能体的整个状态转换过程视为时间轴,则在这一时间轴的每一个时间步上都有唯一确定的状态,智能体在时间轴上(状态转换过程中),学习并收集的因果关系为这些状态之间的因果关系。
33.s32、在学习过程中不断修正环境变量:利用智能体状态转换过程中产生的干预数据,表示步骤s1中隐含变量的存在性标志及隐含变量存在时的取值,用于对环境变量加以修正。
34.优选的,在步骤s32中,首先利用参数描述步骤s1所建立的因果图,再通过一个两阶段的连续迭代进行修正;其具体包括以下步骤:第一阶段:从伯努利分布中对参数进行图采样,提取特征;第二阶段:估计参数的梯度,对于从s31所述状态和之间的因果关系的梯度,由下式从干预数据集中估计:(7)式中,表示对于参数的第次采样;表示对于参数的第次采样;表示在干预数据下的第次采样的极大似然估计;表示在干预数据下的第次采样的极大似然估计;;将输入前式得到的值;表示节点或边到中和的父子关系,例如表示第次采样中节点或边是节点或
边的父节点;上述所述的“父子关系”,“父节点”的意义是步骤s31所述状态转移过程的上一状态智能体在试错求解过程中所处图节点相对于当前状态智能体在试错求解过程中所处图节点为父节点,它们之间的关系为父子关系。
35.循环第一阶段和第二阶段,直至算法收敛。
36.实施例表1 图节点选取样本示例点编号横坐标纵坐标0*-87.7241.891-87.5741.782-87.741.863-87.7741.874-87.741.715-87.6241.796-87.7241.967-87.7241.788-87.6141.829-87.6541.7610-87.5641.7111-87.741.7812-87.7241.8513-87.7641.9214-87.6841.715-87.6241.8216-87.641.7417-87.6141.7518-87.7241.9719-87.5641.77表1中的*表示智能体因果强化学习过程的求解起始点(其在每一次独立重复试验中随机选取)。
37.实验条件:智能体训练用服务器所用cpu为amd7763,gpu为 geforce 3090,智能体训练迭代10000次需要约1小时。
38.实验过程:如图6所示:因果强化学习过程的奖励函数值随迭代次数逐步降低,其是由设计的学习率衰减导致,这是为了使智能体在初期更积极地探索环境,而在后期则更加关注利用已经学习到的知识。随着学习率的降低,智能体对新奖励的反应会变得更加保守,导致总奖励下降。
39.实验结果:如图7所示:因果强化学习过程的验证结果(遍历长度)随迭代次数逐步降低,这说
明对于旅行商问题的求解是有效的,下降至一定程度后即趋于稳定,可以认为已经取得最优解。
40.本实施例以本发明所述方法和传统强化学习方法进行对比,结合图4和图5(图4和图5效果图是在同一问题、同一数据下使用不同求解方式求解的区别)可知,图4为基于本发明所述因果强化学习的求解,与图5相比,图4生成的求解路径考虑了图节点间的因果关系。从求解结果也可以直观地看出,求解得到的遍历路径相较于图5更有层次,逻辑也更清楚。
41.因此,因果推断技术可以帮助理解和解释因果强化学习模型的决策过程,特别是在求解复杂问题,如图节点遍历问题时。这不仅有助于提高模型的透明度,也有利于更好地理解和改进模型的性能。
42.因此,本发明采用上述基于因果强化学习的图节点遍历问题求解方法,在结合因果推断与强化学习,以实现对复杂图节点遍历问题的高效解决的基础上,不仅能提高模型的可解释性,理解模型的决策过程,还能够显著提高模型在处理大规模和复杂图节点遍历问题上的性能,节省计算资源,提高计算效率。
43.最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。
技术特征:
1.一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:包括以下步骤:s1、将图节点遍历问题抽象为因果强化学习的目标空间;s2、定义图节点遍历问题的优化目标、状态空间、动作空间、策略、奖励函数和奖励期望;s3、智能体从已完成建模的因果强化学习环境中学习图节点遍历问题求解方法。2.根据权利要求1所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:步骤s1具体包括以下步骤:s11、以待求解图作为环境变量,构建基于环境变量的因果图,其中因果图定义为有向无环图:图中的每条边均为有向边,且所有边相连后不成环;s12、构建基于因果图的强化学习目标空间。3.根据权利要求2所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:在步骤s11中将因果图中的每个节点和边都转化为环境变量,在此基础上,使用已知的关系或通过数据驱动方法来确定上述环境变量之间的因果关系:其具体包括以下步骤:s111、将待求解图记为 ,其中表示点集,表示边集,则此图作为环境变量集合,记为,其中;s112、将使用随机变量来表示一个节点或一条边,其中,则每个随机变量都等价对应一个环境变量,因此,样本空间中所有的合并记为;s113、定义函数表示随机变量之间的因果关系,其中,表示节点或边到的因果关系,表示任意两个随机变量;s114、对于任意两个随机变量和,使用条件概率定量表征之间的因果关系,若对有直接的因果影响,则条件概率不为0,否则为0;s115、定义隐含变量,并定义一个新的函数表示包含隐含变量之间的因果关系;s116、得到由图构建的因果图模型:,表示存在直接的因果关系;,表示存在隐含变量的间接的因果关系。4.根据权利要求3所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:在步骤s12中利用步骤s1以待求解图作为环境变量获得的因果关系,构建基于因果图的强化学习目标空间,其中目标空间为待建立的图节点遍历路径;其具体包括以下步骤:s121、定义两个动作函数:前进动作函数和后退动作函数: (1) (2)
式中,表示状态下的取值;表示状态下的取值;s122、对于随机变量集合及其所对应的动作函数集合,定义目标空间:(3)。5.根据权利要求4所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:步骤s2具体包括以下步骤:s21、定义图节点遍历问题的优化目标:用 表示图中n个点的拓扑位置坐标,优化目标记作:
ꢀꢀ
(4)式中,对任意节点或边,定义,且为各个点坐标组成的矩阵;为集合空间上所有可能的排列组合;为第个点的在集合空间 c 上的排列组合;为第个点的在集合空间c上的排列组合;s22、定义图节点遍历问题的状态空间:用每个状态定义已经遍历过的点集合;s23、定义图节点遍历问题的动作空间:用每个动作定义下一个将要遍历的点;s24、定义图节点遍历问题的策略:基于已经遍历过的点集合,返回在下一步未被选择的所有备选点的概率分布;s25、定义图节点遍历问题的奖励函数:当状态为时采取动作的成本的负值;s26、定义图节点遍历问题的奖励期望:(5)式中,表示点集合空间,是集合空间上所有可能的排列组合形成的子空间,是的概率分布函数;表示在状态下执行动作后形成的在策略下的马尔可夫一步转移期望;表示单个点在状态执行动作的奖励;表示由神经网络预测得到的的分布;表示各排列组合在分布及各点c在点集合c下的马尔可夫一步转移期望;表示优化目标。
6.根据权利要求5所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:步骤s3具体包括以下步骤:s31、智能体在因果强化学习不断试错的这一状态转换过程中学习并收集相邻时间步之间的因果关系:根据马尔可夫状态转移方程,状态仅由动作和动作决定,即第时间步变量的变量值仅受第时间步变量的变量值决定,由步骤s1中所述因果关系方程,定义如下:(6)式中,表示将时间步变量加上一些随机扰动使之随机地转换到下一时间步变量,表示点或边在当前状态对应时间步变量时的遍历完成与否标志;表示环境中引入的随机噪声,使得函数可以更好地拟合;s32、在学习过程中不断修正环境变量:利用智能体状态转换过程中产生的干预数据,表示步骤s1中隐含变量的存在性标志及隐含变量存在时的取值,用于对环境变量加以修正。7.根据权利要求6所述的一种基于因果强化学习的图节点遍历问题求解方法,其特征在于:在步骤s32中,首先利用参数描述步骤s1所建立的因果图,再通过一个两阶段的连续迭代进行修正;其具体包括以下步骤:第一阶段:从伯努利分布中对参数进行图采样,提取特征;第二阶段:估计参数的梯度,对于从s31所述状态和之间的因果关系的梯度,由下式从干预数据集中估计:(7)式中,表示对于参数的第次采样;表示对于参数表示的第次采样;表示在干预数据下的第次采样的极大似然估计;表示在干预数据下的第次采样的极大似然估计;;将输入前式得到的值;表示节点或边到中和的父子关系,例如表示第k次采样中节点或边是节点或边的父节点;循环第一阶段和第二阶段,直至算法收敛。
技术总结
本发明公开了一种基于因果强化学习的图节点遍历问题求解方法,属于数据处理领域,包括以下步骤:S1、将图节点遍历问题抽象为因果强化学习的目标空间;S2、定义图节点遍历问题的优化目标、状态空间、动作空间、策略、奖励函数和奖励期望;S3、智能体从已完成建模的因果强化学习环境中学习图节点遍历问题求解方法。本发明采用上述基于因果强化学习的图节点遍历问题求解方法,在结合因果推断与强化学习,以实现对复杂图节点遍历问题的高效解决的基础上,不仅能提高模型的可解释性,理解模型的决策过程,还能够显著提高模型在处理大规模和复杂图节点遍历问题上的性能,节省计算资源,提高计算效率。提高计算效率。提高计算效率。
技术研发人员:胡天宇 王康晟 马惠敏 刘书言
受保护的技术使用者:北京科技大学
技术研发日:2023.08.10
技术公布日:2023/9/14
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/