一种抓拍目标视频加框方法与流程

未命名 10-18 阅读:121 评论:0


1.本发明涉及目标跟踪技术领域,尤其涉及一种抓拍目标视频加框方法。


背景技术:

2.目前在许多视频分析应用场景,如需要对感兴趣目标进行目标跟踪操作,目标跟踪作为其中重要的一个步骤对于下游的轨迹渲染等任务具有重要的意义。
3.但是在一些特定场景下,如能够获取的感兴趣目标的相关信息只有抓拍图和只有包含感兴趣目标的视频片段。在上述信息受限的前提下,对感兴趣目标进行跟踪具有一定难度。


技术实现要素:

4.本发明的目的是针对背景技术中存在的“在一些特定场景下,如前端交通违法抓拍机违法目标轨迹跟踪等,能够获取的感兴趣目标的相关信息只有抓拍图和只有包含感兴趣目标的视频片段。在上述信息受限的前提下,对感兴趣目标进行跟踪具有一定难度”的技术问题,提出一种抓拍目标视频加框方法。
5.本发明的一种抓拍目标视频加框方法,包括如下步骤:
6.获取当前抓拍目标以及抓拍目标视频;
7.定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”;
8.以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理;
9.根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频。
10.进一步地,所述“获取当前抓拍目标以及抓拍目标视频“包括:
11.输入抓拍目标图像;
12.输入抓拍目标于抓拍目标图像中的位置信息;
13.输入抓拍目标视频。
14.进一步地,所述“定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
包括:
15.通过特征对比模型,结合抓拍目标图像以及抓拍目标于抓拍目标图像中的位置信息,定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”。
16.进一步地,所述特征对比模型为轻量化mobilenetv3模型,所述“通过特征对比模型,结合抓拍目标图像以及抓拍目标于抓拍目标图像中的位置信息,定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
包括:
17.根据当前抓拍目标于抓拍目标图像中的位置信息,确定当前抓拍目标的裁剪范围;
18.根据裁剪范围,遍历抓拍目标视频的所有视频帧,并生成抓拍目标视频的裁剪图序列;
19.通过轻量化mobilenetv3模型,获取裁剪图序列中包含抓拍目标的若干目标图;
20.计算各个目标图与当前抓拍目标的余弦相似度,记录当前目标图的视频帧序号以及余弦相似度;
21.输出余弦相似度最大值的目标图的视频帧序号,以作为当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”。
22.进一步地,所述“以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”包括:
23.以基准视频帧的上一帧或下一帧作为目标跟踪帧;
24.通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2;
25.将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型,以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪。
26.进一步地,所述特征提取模型包括第一mobilenetv3模型以及第二mobilenetv3模型,所述“通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2”包括:
27.设定基准框;
28.根据基准框于基准视频帧中裁剪出抓拍目标,以生成基准目标图;
29.将基准目标图输入第一mobilenetv3模型以生成基准特征向量feat1;
30.设定基准框的放大框,作为目标跟踪框;
31.根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;
32.将目标跟踪图输入第二mobilenetv3模型以生成跟踪特征向量feat2。
33.进一步地,所述孪生网络跟踪模型包括第一输入端input1、第二输入端input2、第一输出端output1以及第二输出端output2;
34.所述“将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪”包括:
35.将基准特征向量feat1以及跟踪特征向量feat2分别通过第一输入端input1以及第二输入端input2输入至孪生网络跟踪模型;
36.孪生网络跟踪模型分别于第一输出端output1以及第二输出端output2,输出抓拍目标的跟踪信息,其中第一输出端output1表示基准目标图中的抓拍目标,处于目标跟踪图中的位置信息,第二输出端output2表示基准目标图中的抓拍目标,落入上述目标跟踪图中位置信息的置信度。
37.进一步地,所述“以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”还包括:
38.更新跟踪特征向量feat2;
39.将基准特征向量feat1以及更新后的跟踪特征向量feat2输入至孪生网络跟踪模型;
40.重复上述步骤,直至实现对整个抓拍目标视频的跟踪。
41.进一步地,所述“更新踪特征向量feat2”包括:
42.以当前目标跟踪帧的上一帧或下一帧,代替目标跟踪帧;
43.根据第一输出端output1设定放大框,以替换当前目标跟踪框;
44.根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;
45.将目标跟踪图输入第二mobilenetv3模型,并生成跟踪特征向量feat2,以代替当前的跟踪特征向量feat2。
46.进一步地,所述“根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频”包括:
47.根据孪生网络跟踪模型,对各个视频帧中的第一输出端output1的位置信息做加框处理;
48.生成加框渲染视频,并输出。
49.与现有技术相比,本发明具有如下有益的技术效果:当需要对视频中截取的某一抓拍目标进行跟踪时,可通过当前截取的抓拍目标,定位其于抓拍视频中的帧序号“frameid”,并以此为基准帧,以该基准帧的帧序号“frameid”,按时间序列向前以及向后对该抓拍目标进行单目标跟踪操作,直至遍历完整个视频,在对抓拍目标进行跟踪操作的过程中,可同步对抓拍目标渲染跟踪框,以生成抓拍目标加设跟踪框的跟踪视频,综上,本发明可通过视频中截取的某一抓拍目标,实现于整个视频中对该抓拍目标的跟踪以及加框操作,特别是在抓拍目标信息受限的情况下,本发明亦能通过上述步骤,实现对抓拍目标的精准定位及跟踪,以适应不同复杂多变的应用环境。
附图说明
50.图1为本发明的步骤流程图;
51.图2为s1的步骤流程图;
52.图3为s2的步骤流程图;
53.图4为s3的步骤流程图;
54.图5为s32的步骤流程图;
55.图6为s33的步骤流程图;
56.图7为s4的步骤流程图。
具体实施方式
57.需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
58.在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或组件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
59.在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相
连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一具体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个组件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
60.下面结合附图对本发明的具体实施例做详细说明。
61.如图1-图7所示,本发明提出的一种抓拍目标视频加框方法,包括如下步骤:
62.s1:获取当前抓拍目标以及抓拍目标视频;
63.s2:定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”;
64.s3:以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理;
65.s4:根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频。
66.可以理解,当需要对视频中截取的某一抓拍目标进行跟踪时,可通过当前截取的抓拍目标,定位其于抓拍视频中的帧序号“frameid”,并以此为基准帧,以该基准帧的帧序号“frameid”,按时间序列向前以及向后对该抓拍目标进行单目标跟踪操作,直至遍历完整个视频,在对抓拍目标进行跟踪操作的过程中,可同步对抓拍目标渲染跟踪框,以生成抓拍目标加设跟踪框的跟踪视频,综上,本发明可通过视频中截取的某一抓拍目标,实现于整个视频中对该抓拍目标的跟踪以及加框操作,特别是在抓拍目标信息受限的情况下,本发明亦能通过上述步骤,实现对抓拍目标的精准定位及跟踪,以适应不同复杂多变的应用环境。
67.进一步地,在本实施中,步骤“s1:获取当前抓拍目标以及抓拍目标视频”还包括:
68.s11:输入抓拍目标图像;
69.s12:输入抓拍目标于抓拍目标图像中的位置信息;
70.s13:输入抓拍目标视频。
71.可以理解,在对抓拍目标进行定位前,需要先获取抓拍目标图像:“obj.jpg”,以及抓拍目标于该抓拍图像“obj.jpg”中的位置信息:“obj.location”,以及抓拍目标视频:“input.mp4”,并通过“obj.jpg”以及“obj.location”实现于“input.mp4”中对“obj.jpg”的定位,以获取准视频帧号“frameid”。
72.进一步地,在本实施例中,步骤“s2:定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
是通过特征对比模型,如轻量化mobilenetv3模型,结合抓拍目标图像“obj.jpg”以及抓拍目标于抓拍目标图像中的位置信息“obj.location”,以定位抓拍目标于抓拍目标视频“input.mp4”中的基准视频帧号“frameid”。
73.具体地,步骤“s2:定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
还包括:
74.s21;根据当前抓拍目标于抓拍目标图像中的位置信息,确定当前抓拍目标的裁剪范围;
75.s22;根据裁剪范围,遍历抓拍目标视频的所有视频帧,并生成抓拍目标视频的裁剪图序列;
76.s23;通过轻量化mobilenetv3模型,获取裁剪图序列中包含抓拍目标的若干目标图;
77.s24;计算各个目标图与当前抓拍目标的余弦相似度,记录当前目标图的视频帧序
号以及余弦相似度;
78.s25;输出余弦相似度最大值的目标图的视频帧序号,以作为当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”。
79.通过上述步骤,在定位基准视频帧号“frameid”时,需预先根据“obj.location”于“obj.jpg”中裁剪出基准小图,以该基准小图作为比对基准,并以“obj.location”作为对抓拍视频进行裁剪的“裁剪范围”,对抓拍视频中的每一帧,以该“裁剪范围”进行裁剪,以生成可能含有抓拍目标的小图序列,针对该小图序列,使用轻量化mobilenetv3模型于该小图序列中,获取若干包含抓拍目标的目标小图,计算并记录上述各目标小图分别与基准小图的余弦相似度以及帧序号,输出其中余弦相似度值最大的帧序号,即为“obj.jpg”于抓拍视频中的基准视频帧号“frameid”。
80.进一步地,步骤“s3:以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”还包括:
81.s31:以基准视频帧的上一帧或下一帧作为目标跟踪帧;
82.s32:通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2;
83.s33:将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型,以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪。
84.需要理解的是,步骤“s31”中,当对抓拍目标,于抓拍视频中按时间序列向后追踪时,基准视频帧的的下一帧作为目标跟踪帧,当对抓拍目标,于抓拍视频中按时间序列向前追踪时,基准视频帧的的上一帧作为目标跟踪帧,进一步地,步骤“s32”中的特征提取模型包括第一mobilenetv3模型以及第二mobilenetv3模型,第一mobilenetv3模型用于对基准视频帧进行特征提取,以生成基准特征向量feat1,第二mobilenetv3模型用于对目标跟踪帧进行特征提取,以生成踪特征向量feat2,将上述基准特征向量feat1以及跟踪特征向量feat2分别输入至孪生网络跟踪模型,孪生网络跟踪模型将根据比对分析上述基准特征向量feat1以及跟踪特征向量feat2,以实现抓拍目标于目标跟踪帧中的追踪。
85.进一步地,步骤“s32:通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2”包括:
86.s321:设定基准框;
87.s322:根据基准框于基准视频帧中裁剪出抓拍目标,以生成基准目标图;
88.s323:将基准目标图输入第一mobilenetv3模型以生成基准特征向量feat1;
89.s324:设定基准框的放大框,作为目标跟踪框;
90.s325:根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;
91.s326:将目标跟踪图输入第二mobilenetv3模型以生成跟踪特征向量feat2。
92.可以理解,因为抓拍目标于抓拍视频中是移动的,故在目标跟踪帧中,相比基准帧,抓拍目标的位置会产生变化,在生成目标跟踪图时,为了避免因抓拍目标的位置变化导致抓拍目标丢失,需要将基准框的范围扩大,以形成目标跟踪框,并以目标跟踪框,对目标跟踪帧进行裁剪,以生成目标跟踪图,具体地,在本实施例中,基准框以及标跟踪框大小分别为1*3*225*225、1*3*127*127,其中的225*225和127*127代表输入图像的大小,3代表图像通道数目(3通道为彩色图像、1通道为灰度图),1为对图像进行的维度扩充,为了适配
mobilenetv3模型的输入。
93.进一步地,本实施例的孪生网络跟踪模型包括第一输入端input1、第二输入端input2、第一输出端output1以及第二输出端output2。
94.步骤“s33:将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪”包括:
95.s331:将基准特征向量feat1以及跟踪特征向量feat2分别通过第一输入端input1以及第二输入端input2输入至孪生网络跟踪模型;
96.s332:孪生网络跟踪模型分别于第一输出端output1以及第二输出端output2,输出抓拍目标的跟踪信息,其中第一输出端output1表示基准目标图中的抓拍目标,处于目标跟踪图中的位置信息,第二输出端output2表示基准目标图中的抓拍目标,落入上述目标跟踪图中位置信息的置信度。
97.通过上述步骤,孪生网络跟踪模型可通过基准特征向量feat1以及跟踪特征向量feat2,的出基准特征向量feat1于跟踪特征向量feat2中的位置信息,即抓拍目标于目标跟踪帧中的位置信息,以及基准特征向量feat1落入该位置信息的置信度,即抓拍目标落入该位置信息的置信度。
98.进一步地,步骤“s3:以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”还包括;
99.s34:更新跟踪特征向量feat2;
100.s35:将基准特征向量feat1以及更新后的跟踪特征向量feat2输入至孪生网络跟踪模型;
101.s36:重复上述步骤“s34”、“s35”,直至实现对整个抓拍目标视频的跟踪。
102.具体地,步骤“s34:更新跟踪特征向量feat2”包括:
103.s341:以当前目标跟踪帧的上一帧或下一帧,代替目标跟踪帧;
104.s342:根据第一输出端output1设定放大框,以替换当前目标跟踪框;
105.s343:根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;
106.s344:将目标跟踪图输入第二mobilenetv3模型,并生成跟踪特征向量feat2,以代替当前的跟踪特征向量feat2。
107.可以理解,当向后遍历抓拍视频时,以当前踪特征向量feat2下一帧的踪特征向量feat2,替换当前的踪特征向量feat2,同理,当向前遍历抓拍视频时,以当前踪特征向量feat2上一帧的踪特征向量feat2,替换当前的踪特征向量feat2,以实现对跟踪特征向量feat2的更新。
108.进一步地,步骤“s4:根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频”包括:
109.s41:根据孪生网络跟踪模型,对各个视频帧中的第一输出端output1的位置信息做加框处理;
110.s42:生成加框渲染视频,并输出。
111.通过上述步骤,孪生网络跟踪模型对抓拍视频的各个视频帧进行目标跟踪操作,并对各个视频帧中的抓拍目标进行加框渲染,以实现对抓拍目标视频的加框处理。
112.如上是结合具体内容提供的一种或多种实施方式,并不认定本发明的具体实施只
局限于这些说明。凡与本发明的方法、结构等近似、雷同,或是对于本发明构思前提下做出若干技术推演或替换,都应当视为本发明的保护范围。

技术特征:
1.一种抓拍目标视频加框方法,其特征在于,包括如下步骤:获取当前抓拍目标以及抓拍目标视频;定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”;以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理;根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频。2.根据权利要求1所述的一种抓拍目标视频加框方法,其特征在于,所述“获取当前抓拍目标以及抓拍目标视频“包括:输入抓拍目标图像;输入抓拍目标于抓拍目标图像中的位置信息;输入抓拍目标视频。3.根据权利要求2所述的一种抓拍目标视频加框方法,其特征在于,所述“定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
包括:通过特征对比模型,结合抓拍目标图像以及抓拍目标于抓拍目标图像中的位置信息,定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”。4.根据权利要求3所述的一种抓拍目标视频加框方法,其特征在于,所述特征对比模型为轻量化mobilenetv3模型,所述“通过特征对比模型,结合抓拍目标图像以及抓拍目标于抓拍目标图像中的位置信息,定位当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid
””
包括:根据当前抓拍目标于抓拍目标图像中的位置信息,确定当前抓拍目标的裁剪范围;根据裁剪范围,遍历抓拍目标视频的所有视频帧,并生成抓拍目标视频的裁剪图序列;通过轻量化mobilenetv3模型,获取裁剪图序列中包含抓拍目标的若干目标图;计算各个目标图与当前抓拍目标的余弦相似度,记录当前目标图的视频帧序号以及余弦相似度;输出余弦相似度最大值的目标图的视频帧序号,以作为当前抓拍目标于抓拍目标视频中的基准视频帧号“frameid”。5.根据权利要求2所述的一种抓拍目标视频加框方法,其特征在于,所述“以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”包括:以基准视频帧的上一帧或下一帧作为目标跟踪帧;通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2;将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型,以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪。6.根据权利要求5所述的一种抓拍目标视频加框方法,其特征在于,所述特征提取模型包括第一mobilenetv3模型以及第二mobilenetv3模型,所述“通过特征提取模型分别对基准视频帧以及目标跟踪帧进行特征提取,以生成基准特征向量feat1以及跟踪特征向量feat2”包括:设定基准框;
根据基准框于基准视频帧中裁剪出抓拍目标,以生成基准目标图;将基准目标图输入第一mobilenetv3模型以生成基准特征向量feat1;设定基准框的放大框,作为目标跟踪框;根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;将目标跟踪图输入第二mobilenetv3模型以生成跟踪特征向量feat2。7.根据权利要求6所述的一种抓拍目标视频加框方法,其特征在于,所述孪生网络跟踪模型包括第一输入端input1、第二输入端input2、第一输出端output1以及第二输出端output2;所述“将基准特征向量feat1以及跟踪特征向量feat2输入至孪生网络跟踪模型以实现于跟踪特征向量feat2中对基准特征向量feat1的跟踪”包括:将基准特征向量feat1以及跟踪特征向量feat2分别通过第一输入端input1以及第二输入端input2输入至孪生网络跟踪模型;孪生网络跟踪模型分别于第一输出端output1以及第二输出端output2,输出抓拍目标的跟踪信息,其中第一输出端output1表示基准目标图中的抓拍目标,处于目标跟踪图中的位置信息,第二输出端output2表示基准目标图中的抓拍目标,落入上述目标跟踪图中位置信息的置信度。8.根据权利要求7所述的一种抓拍目标视频加框方法,其特征在于,所述“以基准视频帧号“frameid”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理”还包括:更新跟踪特征向量feat2;将基准特征向量feat1以及更新后的跟踪特征向量feat2输入至孪生网络跟踪模型;重复上述步骤,直至实现对整个抓拍目标视频的跟踪。9.根据权利要求8所述的一种抓拍目标视频加框方法,其特征在于,所述“更新踪特征向量feat2”包括:以当前目标跟踪帧的上一帧或下一帧,代替目标跟踪帧;根据第一输出端output1设定放大框,以替换当前目标跟踪框;根据目标跟踪框对目标跟踪帧进行裁剪,以形成目标跟踪图;将目标跟踪图输入第二mobilenetv3模型,并生成跟踪特征向量feat2,以代替当前的跟踪特征向量feat2。10.根据权利要求9所述的一种抓拍目标视频加框方法,其特征在于,所述“根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频”包括:根据孪生网络跟踪模型,对各个视频帧中的第一输出端output1的位置信息做加框处理;生成加框渲染视频,并输出。

技术总结
本发明公开一种抓拍目标视频加框方法,包括如下步骤:获取当前抓拍目标以及抓拍目标视频;定位当前抓拍目标于抓拍目标视频中的基准视频帧号“FrameID”;以基准视频帧号“FrameID”为起始地址,于抓拍目标视频中向前、向后对抓拍目标进行目标跟踪处理;根据跟踪结果,对抓拍目标渲染跟踪框,以得到抓拍目标的加框渲染视频,本发明可通过视频中截取的某一抓拍目标,实现于整个视频中对该抓拍目标的跟踪以及加框操作,特别是在抓拍目标信息受限的情况下,本发明亦能通过上述步骤,实现对抓拍目标的精准定位及跟踪,以适应不同复杂多变的应用环境。环境。环境。


技术研发人员:刘健 刘毅 柴涛涛 汤园生 陈志祥
受保护的技术使用者:深圳市瑞驰信息技术有限公司
技术研发日:2023.07.10
技术公布日:2023/10/15
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐