以多语义物体为主特征的语义地图重定位方法及系统
未命名
09-13
阅读:69
评论:0

1.本发明属于机器人建图定位导航领域,具体涉及以多语义物体为主特征的语义地图重定位方法及系统。
背景技术:
2.经典的定位算法大多是基于amcl算法进行定位。但在相似环境或环境发生剧烈变化时会发生粒子发散,造成机器人无法准确定位。机器人由于先验信息的不足,往往需要较多的运动才能较为准确地定位到全局初始位置,这个过程需要不断给机器人发布运动指令使其保持运动直至粒子集收拢汇聚。
3.另外,单一的距离定位使机器人对周围环境的理解仍是远近感知,而单一的视觉定位虽然能够提供环境感知的额外维度信息,但存在误识别影响定位精度。
技术实现要素:
4.本发明提出以多语义物体为主特征的语义地图重定位方法及系统,结合激光雷达传感器和深度相机,在定位过程中统计出现类别次数最多的语义物体为主语义物体,将其作为定位的主要特征,有效降低误识别对定位的影响,辅助次语义物体信息,将获取到的视觉检测物体类别及距离信息与构建好的语义地图进行匹配,辅助激光定位方法以实现更好地定位效果。
5.为了解决上述技术问题,本发明采用的技术方案为:
6.采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图;
7.初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;
8.对粒子群中各粒子位姿预测;
9.根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;
10.根据对比结果进行权重值二次更新后获取机器人精确位姿值。
11.进一步地,将次数出现最多的同一类型的语义物体作为主语义物体,其余识别的语义物体作为次语义物体。
12.进一步地,语义地图包括语义信息,语义信息为主语义物体和次语义物体的类别、每一主语义物体和其附近的次语义物体的相对位置关系。
13.进一步地,获取设定时间的机器人的运动量,将机器人坐标系下的运动量转换到世界坐标系下,利用上一时刻粒子状态估计值以及转换后的运动量,实现粒子群中各粒子位姿预测,计算公式为:
[0014][0015]
其中,x
t
,y
t
,θ
t
为t时刻粒子位姿,x
t-1
,y
t-1
,θ
t-1
为t-1时刻粒子位姿,v为此时机器人的移动速度,δt为间隔时间,δθ
t
为机器人旋转角度。
[0016]
进一步地,重定位时映射的方法为:对主语义物体检测框中心部分点云进行映射,对次语义物体以检测框的中心为基准取原有的检测长度的1/2部分进行点云处理,将点云滤波和坐标变换后距离机器人最近的一簇点云映射到二维平面,得到映射结果。
[0017]
进一步地,对比结果若存在重合部分,则粒子权重值向重合部分区域进行聚集,将其他区域的粒子权重值降低,最后直至粒子收敛,得到精确位姿值;
[0018]
若不存在重合部分,依据主次语义物体信息之间的相对距离信息判断机器人自身的可能位姿,推断出机器人的精确位姿值。
[0019]
进一步地,不存在重合部分推断机器人精确位姿值的方法为:根据检测到的物体类别与含有语义信息的环境栅格地图中的物体类别进行对比,在定位过程中以主语义物体作为主要定位基准点,再结合激光雷达传感器的扫描距离确定机器人相对主语义物体的距离,得到多个可能解,进而根据主语义物体附近的次语义物体信息排除部分可能解,得到机器人的精确位姿值。
[0020]
以多语义物体为主特征的语义地图重定位装置,包括:
[0021]
地图获取模块,用于采集信息建立环境栅格地图并将与主语义物体和其附近的次语义物体映射后生成语义地图;
[0022]
粒子群建立模块,用于初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;
[0023]
粒子位姿预测模块,用于对粒子群中各粒子位姿预测;
[0024]
重定位模块,用于根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;
[0025]
机器人精确位姿值获取模块,用于根据对比结果进行权重值二次更新后获取机器人精确位姿值。
[0026]
以多语义物体为主特征的语义地图重定位设备,包括处理器和用于存储能够在处理器上运行计算机程序的存储器,处理器用于运行计算机程序时,执行上述任一项以多语义物体为主特征的语义地图重定位方法的步骤。
[0027]
一种计算机存储介质,存储介质中存储有计算机程序,其特征在于,计算机程序被处理器执行时,实现上述任一项以多语义物体为主特征的语义地图重定位方法的步骤。
[0028]
与现有技术相比,本发明具有以下优点和有益效果:
[0029]
本发明提供的以多语义物体为主特征的语义地图重定位方法及系统,采取两级定位步骤,前提是在建图过程中划分主语义物体和次语义物体,并记录主次语义物体的相对位置关系,以激光雷达距离信息提供主、次语义物体相对机器人的参考位置,进而实现精确定位。若没有划分主语义物体和次语义物体,机器人在定位过程中需要进行全局搜索,逐个区域对比语义物体信息,耗费时间较长,而本发明提供的以多语义物体为主特征的语义地图重定位方法,由于提前确定主语义物体信息的位置点,能有效排除部分区域解,直接根据
周围的次语义物体信息和激光雷达传感器距离信息进行局部对比得到确定解,能够减少定位过程中的耗时。
附图说明
[0030]
此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分。本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
[0031]
图1为本发明方法流程图。
[0032]
图2为本发明的环境栅格地图。
[0033]
图3为本发明的语义地图。
[0034]
图4为本发明优化之后的语义地图。
[0035]
图5为本发明grabcut算法分割图。
[0036]
图6为本发明语义物体检测结果图。
[0037]
图7为本发明语义映射结果图。
[0038]
图8为本发明主次语义物体信息图。
[0039]
图9为本发明方法粒子收敛过程图。
[0040]
图10为本发明粒子均权重对比图。
具体实施方式
[0041]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
[0042]
第一实施例
[0043]
如图1所示,为本发明方法流程图。本发明提供以多语义物体为主特征的语义地图重定位方法,包括以下步骤:
[0044]
步骤s1、采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图;
[0045]
步骤s2、初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;
[0046]
步骤s3、对粒子群中各粒子位姿预测;
[0047]
步骤s4、根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;
[0048]
步骤s5、根据对比结果进行权重值二次更新后获取机器人精确位姿值。
[0049]
相比于目前的语义物体识别定位,本发明提供的以多语义物体为主特征的语义地图重定位方法,采取两级定位步骤,前提是在建图过程中划分主语义物体和次语义物体,并记录主次语义物体的相对位置关系,以激光雷达距离信息提供主、次语义物体相对机器人的参考位置,进而实现精确定位。若没有划分主语义物体和次语义物体,机器人在定位过程中需要进行全局搜索,逐个区域对比语义物体信息,耗费时间较长,而本发明提供的以多语义物体为主特征的语义地图重定位方法,由于提前确定主语义物体信息的位置点,能有效排除部分区域解,直接根据周围的次语义物体信息和激光雷达传感器距离信息进行局部对比得到确定解,能够减少定位过程中的耗时。
[0050]
本发明步骤s1中,如图2所示,为本发明的环境栅格地图,通过主控机控制机器人平台在室内运动,激光雷达传感器实时采集物体与机器人平台的距离、物体与机器人平台的方向角,并传输至主控机,主控机将得到的物体与机器人平台的距离、物体与机器人平台的方向角通过gmapping算法处理得到环境栅格地图。
[0051]
不同于amcl方法的是,如图3所示,为本发明的语义地图,本发明通过深度相机检测物体并与激光雷达传感器得到的环境栅格地图进行映射,能够生成语义地图,并将物体分类为主语义物体和次语义物体,并记录主语义物体和次语义物体的相对位置关系。
[0052]
步骤s1所述加载利用gmapping算法建立的环境栅格地图用于定位,根据似然域观测模型的原理对加载的环境栅格地图进行临近的主语义物体或次语义物体距离值dist计算,选取机器人位姿与分布粒子最近的距离作为后续应用的dist值。
[0053]
其中当前帧激光似然地图中各点的概率值p(x)计算公式为:
[0054][0055]
其中,σ为指定的测量噪声的标准方差。
[0056]
语义地图能够提供主语义物体和次语义物体的类别以及主语义物体和其附近的次语义物体的相对位置关系,在后续的定位过程中,可以根据检测到的物体类别与语义地图中的已知物体类别进行对比,在定位过程中以主语义物体作为主要定位基准点,再结合激光雷达传感器的扫描距离确定机器人相对主语义物体的距离,得到多个可能解,最后根据主语义物体旁的次语义物体信息排除定位可能解,得到机器人的精确位姿值。
[0057]
本发明中,如下表1所示,为语义物体数量统计及分类表,在某一室内,语义物体包括柜子、椅子、垃圾桶和门,柜子数量为7,椅子数量为2,垃圾桶数量为2,门数量为1,将柜子分类为主语义物体,椅子、垃圾桶和门分类为次语义物体。
[0058]
表1主次语义物体信息表
[0059]
语义物体柜子椅子垃圾桶门数量7221主次分类主次次次
[0060]
如下表2所示,为主次语义物体信息表,具体地,主语义物体
①
附近有次语义物体椅子和垃圾桶,椅子与主语义物体
①
距离为1.10m,垃圾桶与主语义物体
①
距离为0.75m;主语义物体
②
附近有次语义物体椅子和垃圾桶,垃圾桶与主语义物体
②
距离为0.85m,门与主语义物体
②
距离为1.90m。
[0061]
表2主次语义物体信息表
[0062][0063]
在步骤s1中,为了能够在环境发生变化时,以主语义物体为基准点进行定位的原理仍然有效,本发明将次数出现最多的同一类型的物体归纳为主语义物体,其余识别的物
体归纳为次语义物体,当周围环境发生变化时,主语义物体由于其数量远多于次语义物体,以主语义物体为基准点进行定位的原理仍然有效,可以获得机器人的大致位姿,然后只需根据周围环境识别到的非主语义物体信息进行进一步推理机器人的精确位姿,实现机器人的精确定位,若不进行主次语义物体划分,机器人只是将识别到的物体信息与语义地图进行比较,则会产生定位失效,无法找到与机器人实际位姿重合的位置点。
[0064]
如图4所示,为本发明优化之后的语义地图,对主语义物体和次语义物体的映射形状进行简化,采取与主语义物体或次语义物体类似的形状表示主语义物体和次语义物体,用最小包围矩形和最小包围圆表示主语义物体或次语义物体,例如垃圾桶的形状为圆柱形,则用垃圾桶的最小包围圆表示垃圾桶,桌子的形状为长方体,则用桌子的最小包围矩形表示桌子。提取环境栅格地图中主次语义物体在环境栅格地图中的中心点位置,将物体信息与环境栅格地图位置信息进行对应,生成含有语义信息的环境栅格地图,形成物体语义映射点集。
[0065]
在机器人运动过程中,进行坐标变换和位姿估计:
[0066]
根据主次语义物体在机器人坐标系和对应语义物体在栅格坐标系下的坐标推算出机器人在世界坐标系下的位姿。根据深度相机检测到的主次语义物体进行关键帧选取,提取到相机坐标系下的语义物体点云,将获得的点云信息经过点云滤波和坐标变换后得到主次语义物体的中心位于机器人坐标系下的坐标,进行坐标变换。
[0067][0068]
其中,a为栅格精度,本发明实施例中,a=0.05,(xg,yg)为语义物体在栅格坐标系下的坐标,(xw,yw)为语义物体在世界坐标系下的坐标。将相机坐标系转换到世界坐标系下,得到世界坐标系下公式:
[0069][0070]
其中,(xr,yr)为语义物体的中心位于机器人坐标系下的坐标。化简后,得到机器人随时间变化的t时刻机器人可能位姿点t
w,r
为机器人到世界坐标系的相对变换矩阵,
[0071]
本发明步骤s2中,主控机上初始化粒子集,在地图中的初始位姿未知,在环境栅格地图中随机散布m个粒子,每个粒子的权重设置相同值,在激光地图中初始化粒子集χ0,权重为1/m。
[0072]
步骤2初始化粒子群,t时刻的粒子群为:
[0073][0074]
其中,粒子群大小为m,当t=0时,表示0时刻初始粒子集,表示t时刻的第j个粒子。
[0075]
本发明步骤s3中,所述主控机利用机器人自身获取的相关运动量的传感器数据(如里程计),结合机器人运动模型对粒子集进行更新,通过得到的传感器数据计算出一定时间的机器人运动量,在对其进行坐标变换,将机器人坐标系下的运动量转换到世界坐标系下,利用上一时刻粒子状态估计值以及运动量结合运动模型,实现粒子集中各粒子位姿预测,得到预测粒子集χ
t
对粒子群中各粒子位姿预测。
[0076]
根据里程计模型预测粒子集χ
t
公式为:
[0077][0078]
其中,x
t
,y
t
,θ
t
为t时刻粒子位姿,x
t-1
,y
t-1
,θ
t-1
为t-1时刻粒子位姿,v为此时机器人的移动速度,δt为间隔时间,δθ
t
为机器人旋转角度。
[0079]
本发明步骤s4中,重定位时,结合似然域观测模型和波束模型进行激光匹配,深度相机获取到当前视角下的彩色图和深度图,利用提前训练好的ssd目标检测模型对彩色图进行检测识别,得到检测结果。如图5所示,使用grabcut分割算法对其进行背景去除。如图6所示,利用目标检测模型得到的检测框代替用户绘制目标框。得到视角下彩色图的目标分割图后,结合其对应的深度图信息,结合深度相机标定参数将目标在图像坐标系中的像素坐标转换到相机坐标系,再进行语义映射,为了减少点云处理计算量,对主语义物体检测框中心部分点云进行映射;对次语义物体,以检测框的中心为基准取原有的检测长度的1/2部分进行点云处理,也就是图6中检测框中的一半边长为检测框重新提取语义点云,将点云滤波和坐标变换后距离机器人最近的一簇点云映射到二维平面,得到映射结果。
[0080]
对于识别到的语义物体而言是将检测框中心部分的点云进行二维映射,得到反映映射结果的语义映射图,如图7所示,为本发明的语义映射图。
[0081]
若当前视角下识别到主语义物体时,计算出语义映射图中主语义物体的中心坐标,并计算主语义物体附近的其它次语义物体中心到该主语义物体中心的距离。
[0082]
检测结果中,以检测最多的同一类别的语义物体作为主语义物体,根据当前语义映射图以及之前由语义地图获取语义信息,即主次语义物体信息表,首先筛选出同时含有语义映射图中主语义物体的点,在大场景下,主次语义物体分布不均、杂散,可能存在一些物体距离很近,一些物体间距过远的情况,因此以主语义物体的中心为圆心,一定半径画圆(根据实际环境大小选择半径),本发明第一实施例中,选择半径为2.0米,如果次语义物体的中心点坐标位于圆内,则将主语义物体及附近的次语义物体看作一个集合,如图8所示,为本发明主次语义物体信息图。以主语义物体为基准,分别搜索临近的次语义物体,将主次语义物体间的距离进行计算,放入语义信息,即主次语义物体信息表中。主语义物体涵盖近距离的其他非主语义物体增加了主语义物体的可见性,便于长距离大环境下的物体识别定位,建立主次语义物体信息表为定位过程提供参照,在定位过程中若识别到主语义物体或次语义物体可根据建立的主次语义物体信息表进行匹配,判断所在位置是否与环境栅格地图相符,若相符则可根据主次语义物体信息表和环境栅格地图进行精确定位,若是不相符则判断环境发生变化,需要根据检测到的主语义物体信息进一步判断,若主语义物体之间的距离和信息表记录的主语义物体间的距离信息相差不大,则可根据位置差推算出机器人的位置。
[0083]
当机器人通过目标检测模型识别到主语义物体和次语义物体时,通过机器人相对主语义物体的距离和主次语义物体之间的距离与步骤1中得到的语义信息进行对比,可以推断出主语义物体和当前机器人所处的位置。
[0084]
作为优选,步骤5所述在地图中均匀撒播粒子,当机器人识别到主语义物体及周围次语义物体时,根据深度相机获取的语义信息与语义地图的匹配概率更新粒子权重。首先通过深度相机对室内环境进行语义信息提取,结合视觉定位方法对粒子权重进行更新。当机器人识别到主语义物体和次语义物体时,结合目标检测模型及主语义物体与周围次语义物体信息表的全局预定位方法,可以推断出主语义物体和当前机器人所处的位置,在机器人位姿估计处对粒子进行高斯分布,距离机器人位姿估计处越近的粒子权重越大,在粒子重采样之后,去除权重较小的粒子,并复制权重大的粒子,利用kld采样对粒子数量进行动态调整,提高粒子利用率,减少粒子冗余,根据权重的比例重新分布粒子,如图9所示,为本发明方法粒子收敛过程图,经过反复迭代,获得机器人精确位姿值,实现机器人的定位。
[0085]
在本发明的一个实施例中,根据本发明提出的以多语义物体为主特征的语义地图重定位方法,在某室内进行实验,实验器材包括机器人平台、主控机、激光雷达传感器、深度相机;在机器人平台上装载主控机、激光雷达传感器和深度相机;处理器分别与的机器人平台底盘、激光雷达传感器、深度相机通过有线方式依次连接。
[0086]
其中,主控机选用的是酷睿i9迷你主机;小巧、方便,适合搭载至机器人平台上,实时处理检测到的物体信息。
[0087]
机器人平台底盘选用的是scout mini智能移动底盘,稳定性强,进行转弯或加减速时能保持较高的稳定性。
[0088]
激光雷达传感器选用sick公司的lms111型号单线激光雷达,激光雷达距离信息准确,分辨率0.5
°
,最大检测距离可达到20米。
[0089]
深度相机选用的是微软的kinectv2深度相机,可检测到物体的深度信息,在建立地图时可提供参考。
[0090]
在该具体实施例中,如图10所示,为本发明与传统的amcl定位方法的粒子均权重对比图,通过本发明提供以多语义物体为主特征的语义地图重定位方法,与传统的amcl定位方法相比,本发明提供的方法定位提升68.75%,在环境发生改变时,定位速度提升65.96%。
[0091]
第二实施例
[0092]
本发明还提供以多语义物体为主特征的语义地图重定位装置,包括:
[0093]
地图获取模块,用于采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图;
[0094]
粒子群建立模块,用于初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;
[0095]
粒子位姿预测模块,用于对粒子群中各粒子位姿预测;
[0096]
重定位模块,用于根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;
[0097]
机器人精确位姿值获取模块,用于根据对比结果进行权重值二次更新后获取机器人精确位姿值。
memory)、同步连接动态随机存取存储器(sldram,synclink dynamic random access memory)、直接内存总线随机存取存储器(drram,direct rambus random access memory)。本发明实施例描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
[0104]
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
技术特征:
1.以多语义物体为主特征的语义地图重定位方法,其特征在于,包括以下步骤:采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图;初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;对粒子群中各粒子位姿预测;根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;根据对比结果进行权重值二次更新后获取机器人精确位姿值。2.根据权利要求1所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:将次数出现最多的同一类型的语义物体作为主语义物体,其余识别的语义物体作为次语义物体。3.根据权利要求1所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:语义地图包括语义信息,语义信息为主语义物体和次语义物体的类别、每一主语义物体和其附近的次语义物体的相对位置关系。4.根据权利要求1所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:获取设定时间的机器人的运动量,将机器人坐标系下的运动量转换到世界坐标系下,利用上一时刻粒子状态估计值以及转换后的运动量,实现粒子群中各粒子位姿预测,计算公式为:其中,x
t
,y
t
,θ
t
为t时刻粒子位姿,x
t-1
,y
t-1
,θ
t-1
为t-1时刻粒子位姿,v为此时机器人的移动速度,δt为间隔时间,δθ
t
为机器人旋转角度。5.根据权利要求1所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:重定位时映射的方法为:对主语义物体检测框中心部分点云进行映射,对次语义物体以检测框的中心为基准取原有的检测长度的1/2部分进行点云处理,将点云滤波和坐标变换后距离机器人最近的一簇点云映射到二维平面,得到映射结果。6.根据权利要求1所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:对比结果若存在重合部分,则粒子权重值向重合部分区域进行聚集,将其他区域的粒子权重值降低,最后直至粒子收敛,得到精确位姿值;若不存在重合部分,依据主次语义物体信息之间的相对距离信息判断机器人自身的可能位姿,推断出机器人的精确位姿值。7.根据权利要求6所述的以多语义物体为主特征的语义地图重定位方法,其特征在于:不存在重合部分获取机器人精确位姿值的方法为:根据检测到的物体类别与含有语义信息的环境栅格地图中的物体类别进行对比,在定位过程中以主语义物体作为主要定位基准点,再结合激光雷达传感器的扫描距离确定机器人相对主语义物体的距离,得到多个可能解,进而根据主语义物体附近的次语义物体信息排除部分可能解,得到机器人的精确位姿值。
8.以多语义物体为主特征的语义地图重定位装置,其特征在于,包括:地图获取模块,用于采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图;粒子群建立模块,用于初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值;粒子位姿预测模块,用于对粒子群中各粒子位姿预测;重定位模块,用于根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比;机器人精确位姿值获取模块,用于根据对比结果进行权重值二次更新后获取机器人精确位姿值。9.以多语义物体为主特征的语义地图重定位设备,其特征在于:包括处理器和用于存储能够在处理器上运行计算机程序的存储器,处理器用于运行计算机程序时,执行上述权利要求1-7任一项以多语义物体为主特征的语义地图重定位方法的步骤。10.一种计算机存储介质,存储介质中存储有计算机程序,其特征在于,计算机程序被处理器执行时,实现上述权利要求1-7任一项以多语义物体为主特征的语义地图重定位方法的步骤。
技术总结
本发明提供以多语义物体为主特征的语义地图重定位方法及系统,包括采集信息建立环境栅格地图并将其与主语义物体和其附近的次语义物体映射后生成语义地图,初始化粒子群,在语义地图中随机散布多个粒子并为每个粒子设置相同权重设置值,对粒子群中各粒子位姿预测,根据预测结果进行重定位,具体是计算粒子集中各粒子权重值,提取环境语义并重新进行映射,并与语义地图进行对比,根据对比结果进行权重值二次更新后获取机器人精确位姿值。本发明通过语义物体与构建好的语义地图进行匹配,能够实现更好地重定位效果。能够实现更好地重定位效果。能够实现更好地重定位效果。
技术研发人员:蒋林 徐苑 明祥宇 唐振宇 杨婉振
受保护的技术使用者:武汉科技大学
技术研发日:2023.05.25
技术公布日:2023/9/12
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/