光传送网性能预测方法、系统、电子设备及存储介质与流程
未命名
09-21
阅读:79
评论:0

1.本技术实施例涉及通信领域,特别涉及一种光传送网性能预测方法、系统、电子设备及存储介质。
背景技术:
2.随着通信技术的发展,全球通信产业正在从互联时代、云时代迈向智能时代,新机遇与新挑战驱动网络加速全面转型升级。为实现运营商网络数字化转型,为垂直行业和消费者用户提供零等待、零接触、零故障的服务和用户体验,自智网络技术被提出,为运营商网络营运全生命周期打造自配置、自修复、自优化的网络能力。为实现网络的数字化转型,需要建立网络内外部环境的数字镜像,融合仿真与预防预测等能力,如何建立这样一个仿真网络,是一个亟待解决的问题。
技术实现要素:
3.本技术实施例的主要目的在于提出一种光传送网性能预测、系统、电子设备及存储介质,可以实现建立光传送网的仿真网络建立。
4.为实现上述目的,本技术实施例提供了一种光传送网性能预测方法,应用于单域管理服务器,包括以下步骤:获取性能预测模型;通过横向联邦学习技术,获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新;将模型更新信息和单域拓扑信息,上报至多域管理服务器,供多域管理服务器基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型,光传送网数字孪生模型,用于对光传送网进行性能预测。
5.为实现上述目的,本技术实施例还提供了一种光传送网性能预测方法,应用于多域管理服务器,包括以下步骤:获取单域管理服务器上报的模型更新信息和单域拓扑信息;其中,模型更新信息,是通过横向联邦学习技术,对单域管理服务器的性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新;基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型;其中,光传送网数字孪生模型,用于对光传送网进行性能预测。
6.为实现上述目的,本技术实施例还提供了一种光传送网性能预测系统,包括:单域管理服务器、多域管理服务器;单域管理服务器与多域管理服务器通信连接;其中,单域管理服务器,用于获取性能预测模型;通过横向联邦学习技术,获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到;将参数更新量和单域拓扑信息,上报至多域管理服务器,供多域管理服务器生成光传送网数字孪生模型;多域管理服务器,用于获取单域管理服务器上报的模型更新信息和单域拓扑信息;其中,模型更新信息,是通过横向联邦学习技术,对单域管理服务器的性能预测模型基于单域中的各网元性能数据进行训练后得到;根据模型更新信息和单域拓扑信息,生成光传送网数字孪生模型;其中,光传送网数字孪生模型,用于对光传送网进行性能预
测。
7.本发明的实施方式还提供了一种电子设备,包括:至少一个处理器;与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述的光传送网性能预测方法。
8.本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述光传送网性能预测方法。
9.本技术提出的光传送网性能预测方法,由单域管理服务器获取模型更新信息,上报至多域管理服务器,由多域管理服务器最终生成光传送网数字孪生模型,即是以横向联邦学习克服数据分布在各单域导致的训练困难问题,由于模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,所以基于模型更新信息,性能预测模型的更新可以与实际网元的实际处理能力更加贴合,因此,单域管理服务器将模型更新信息和单域拓扑信息,上报至多域管理服务器,多域管理服务器可以基于更新后的性能预测模型,生成光传送网数字孪生模型,此光传送网数字孪生模型也是与光传送网络中的实际处理传输能力贴合的模型,从而实现建立光传送网的仿真网络建立。
附图说明
10.图1是根据本发明一实施例提供的光传送网性能预测方法应用于单域管理服务器的流程示意图;
11.图2是根据本发明一实施例提供的光传送网性能预测系统架构示意图一;
12.图3是根据本发明一实施例提供的光传送网性能预测系统架构示意图二;
13.图4是根据本发明一实施例提供的网元结构示意图;
14.图5是根据本发明一实施例提供的性能预测模型示意图;
15.图6是根据本发明一实施例提供的性能数据采样示意图;
16.图7是根据本发明一实施例提供的性能预测模型训练方法流程示意图一;
17.图8是根据本发明一实施例提供的性能预测模型训练方法流程示意图二;
18.图9是根据本发明一实施例提供的性能预测模型训练方法流程示意图三;
19.图10是根据本发明一实施例提供的性能预测模型训练方法流程示意图四;
20.图11是根据本发明一实施例提供的光传送网性能预测方法应用于多域管理服务器的流程示意图;
21.图12是根据本发明一实施例提供的光传送网性能预测系统结构示意图;
22.图13是本发明一个实施例提供的电子设备结构示意图。
具体实施方式
23.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合附图对本技术的各实施例进行详细的阐述。然而,本领域的普通技术人员可以理解,在本技术各实施例中,为了使读者更好地理解本技术而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施例的种种变化和修改,也可以实现本技术所要求保护的技术方案。以下各个实施例的划分是为了描述方便,不应对本技术的具体实现方式构成任何限定,各个实施例在不矛盾的前提下可以相互结合相互引用。
24.本发明的实施例涉及一种光传送网性能预测方法,如图1所示,包括以下步骤:
25.步骤101,获取性能预测模型;
26.步骤102,通过横向联邦学习技术,获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新;
27.步骤103,将模型更新信息和单域拓扑信息,上报至多域管理服务器,供多域管理服务器基于模型更新信息,生成光传送网数字孪生模型,光传送网数字孪生模型,用于对光传送网进行性能预测。
28.本实施例的光传送网性能预测方法,应用于单域管理服务器,单域管理服务器是光传送网中管理一个域中各个网元的管理服务器,每个单域管理服务器上可运行此单域对应的厂商的单域管控系统。光传送网(optical transport network,简称“otn”)在水平方向上可以分为不同的管理域,其中单个管理域可以由单个设备商的otn设备组成,也可以由运营商的某个网络或子网络组成。单个管理域即是单域,每个单域中存在一个单域管理服务器,用于和多域管理服务器进行通信,多单域管理服务器上可运行多域编排系统,以生成光传送网数字孪生模型。光传送网数字孪生模型,可以对光传送网进行性能预测,或者,实行其他数据仿真需要。
29.全球通信产业正在从互联时代、云时代迈向智能时代,新机遇与新挑战驱动网络加速全面转型升级。在此背景下,2019年自智网络(autonomous networks,简称“an”)的理念被提出,an理念旨在通过网络技术和数字技术融合,使能运营商网络数字化转型,为垂直行业和消费者用户提供零等待、零接触、零故障的服务和用户体验,为运营商网络营运全生命周期打造自配置、自修复、自优化的网络能力。为实现an,数字孪生(digital twins,简称“dt”)技术被提出,被业界认为是数字化转型的基础、实现an架构及技术的重要支撑和组成部分。网络数字孪生通过对自身及外部环境状态的精准感知,建立内外部环境的数字镜像,融合仿真与预防预测等能力,在“低成本试错”、“智能决策”、“预测性维护”等场景发挥关键使能技术作用。
30.数字孪生即dt技术可以理解为——数字空间中构建物理对象的数字(虚拟)模型,并利用来自物理对象的数据不断修正该模型和更新模型状态,使其与物理对象在全生命周期保持一致,并能高保真地镜像物理对象的实时运行状态,该模型就成为了物理对象的数字孪生体(简称数字孪生)。基于数字孪生可以进行监测、分析、预测、诊断、训练、仿真,并将仿真结果反馈给物理对象,从而帮助对物理对象进行优化和决策。涉及数字孪生模型构造、数字模型状态的实时更新、基于数字孪生的仿真分析和控制决策等相关技术则可统称为数字孪生dt技术。由此可以看出,如何结合被孪生镜像的物理对象的结构特征、状态特征及dt的应用场景,构建dt模型是dt的关键技术。
31.在自智网络体系架构下,需要在otn多域复杂网络环境中,构建dt网络模型,生成otn dt网络层,以通过dt技术实现对整网otn的分析能力。dt网络层是对整个跨域物理网络的模型抽象,dt网元间通信不受物理网络空间限制、对dt网元的可视性与可操作性也不受物理网络分域等空间限制、管控限制。这就需要otn dt模型具备对各域物理网元和网元器件功能机制的通用抽象描述能力。
32.以单域otn网络域内,对属于dt感知类算法模型的otn性能预测算法建模为例,网
元设备来自不同设备厂商,各网元设备虽然在同一网络域环境中具备相同的网元运行功能,但各网元自身的器件批次、型号、使用年限等属性不尽相同,造成设备器件、光纤等光性能在实际运行使用中变化规律不一,仅对部分网元或单一网元器件采样训练获得的dt性能预测模型仅能反映这一部分网元或这一网元的性能变化特征,对于单域内其它网元设备、或其它跨域网络网元设备而言不具备普适性,泛化能力差,在推理过程中容易出现过拟合等问题,由此造成对otn网络性能预测分析的准确度低、权威性不足。但如果将各域各网元性能数据上报给多域编排系统进行统一训练,又存在数据隐私泄密的问题:由于各otn物理网络域来由不同的设备厂商的单域管控体系,在构建跨域数字孪生层模型训练中,各物理单域有数据隐私诉求,不便于将各域内部的otn网络性能数据直接上报给多域编排系统进行统一训练。如何解决局部训练造成的性能预测功能模型过拟合问题,同时又要解决集中训练引起的样本数据隐私泄密问题,成为otn dt case功能模型建模的瓶颈,亟待解决。联邦学习技术的出现为解决上述问题提供了一种有效途径。
33.联邦学习能克服的建模痛点在于:1、数据不出本地:由于数据安全、隐私保护而导致的数据不出本地,无法汇聚的问题突出。2、模型泛化能力:由于经过标注的训练数据集小而导致的模型泛化能力弱的问题。3、模型训练效率:由于过于重视集中式云计算训练而忽视边缘设备计算能力而导致的模型训练效率问题。
34.联邦学习的优势在于:1、只利用本地数据训练,不交换数据本身,用加密方式交换更新的模型参数。2、利用设备在不同环境(时间、地点)的数据进行模型训练,公共模型更新后下发至设备,提升模型泛化能力。3、利用边缘设备计算能力进行并行训练,提升模型训练效率。
35.横向联邦学习的的流程包括:步骤1、各参与方在本地计算模型梯度,并使用同态加密、差分隐私或秘密共享等加密技术,对梯度信息进行掩饰,并将掩饰后的结果(简称为加密梯度)发送给聚合服务器。步骤2、服务器进行安全聚合(secure aggregation)操作,如使用基于同态加密的加权平均。步骤3、服务器将聚合后的结果发送给各参与方。步骤4、各参与方对收到的梯度进行解密,并使用解密后的梯度结果更新各自的模型参数。综上所述,本发明提出了一种采用横向联邦学习技术构建otn dt网络功能模型的方法机制。
36.本技术光传送网性能预测方法,由单域管理服务器获取模型更新信息,上报至多域管理服务器,由多域管理服务器最终生成光传送网数字孪生模型,即是以横向联邦学习克服数据分布在各单域导致的训练困难问题,由于模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,所以基于模型更新信息,性能预测模型的更新可以与实际网元的实际处理能力更加贴合,因此,单域管理服务器将模型更新信息和单域拓扑信息,上报至多域管理服务器,多域管理服务器可以基于更新后的性能预测模型,生成光传送网数字孪生模型,此光传送网数字孪生模型也是与光传送网络中的实际处理传输能力贴合的模型,从而实现建立光传送网的仿真网络建立。
37.下面对本实施例的光传送网性能预测方法实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
38.在步骤101中,单域管理服务器获取性能预测模型。其中,性能预测模型可以是预先存储在单域管理服务器中的,也可以是由单域管理服务器从多域管理服务器处或者其他电子设备获得。
39.在一个例子中,如图2所示,光传送网性能预测方法可以应用在单域中每个网元都有训练能力的场景中(以下简称为方案a),在方案a中性能预测模型可以是单域性能预测模型,模型更新信息可以是基于更新后的所述单域性能预测模型得到的单域数字孪生模型,单域管理服务器通过以下方式实现获取性能预测模型的模型更新信息:将单域性能预测模型下发至本单域中的各个网元,获取各个网元上报的单域性能预测模型的参数更新量;其中,各个网元根据本地性能数据,分别对单域性能预测模型进行训练,并计算得到参数更新量;根据各个网元上报的参数更新量,更新单域性能预测模型的参数,得到更新后的单域性能预测模型,根据所述更新后的所述单域性能预测模型,和本单域的单域拓扑信息,得到所述单域数字孪生模型。
40.本实施例中,通过以单域性能预测模型为性能预测模型,以基于更新后的所述单域性能预测模型得到的单域数字孪生模型为模型更新信息,单域管理服务器可以将单域性能预测模型下发至本单域中的各个网元,由各个网元分别对单域性能预测模型进行训练,从而使更新后的单域性能预测模型,贴合各个网元的性能特点,并且可以解决各网元自身的器件批次、型号、使用年限等属性不尽相同,造成性能预测模型训练泛化能力差,在推理过程中容易出现过拟合等问题,实现性能预测模型泛化能力强,预测准确度高等效果。
41.在另一个例子中,光传送网性能预测方法可以应用在单域中仅有单域管理服务器有训练能力,其他网元没有训练能力的场景中(以下简称为方案b),在方案b中性能预测模型可以是网络性能预测模型,模型更新信息可以是网络性能预测模型的参数更新量,单域管理服务器可以通过以下方式实现获取性能预测模型的模型更新信息:根据各网元性能数据,对网络性能预测模型进行训练,得到网络性能预测模型的参数更新量;其中,网络性能预测模型的参数更新量用于上报至多域管理服务器,供多域管理服务器根据网络性能预测模型的参数更新量,更新网络性能预测模型。
42.本实施例中,通过以网络性能预测模型为性能预测模型,以网络性能预测模型的参数更新量为模型更新信息,单域管理服务器可以自行根据各网元性能数据对网络性能预测模型进行训练,得到网络性能预测模型的参数更新量,由多域管理服务器综合各单域的网络性能预测模型的参数更新量,更新网络性能预测模型,由单域管理服务器进行模型训练,可以减少训练所需的设备数,节约计算资源,即使在计算资源较为匮乏的场景也可以实现光传送网性能预测方法,同时也可以解决各网元自身的器件批次、型号、使用年限等属性不尽相同,造成性能预测模型训练泛化能力差,在推理过程中容易出现过拟合等问题,实现性能预测模型泛化能力强,预测准确度高等效果。
43.在步骤102中,单域管理服务器获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新。模型更新信息可以是由单域管理服务器计算出的,也可以是由单域管理服务器所在单域中的其他网元计算得到。
44.在一个例子中,性能预测模型的更新,根据以下公式实现:
[0045][0046]
其中,设共有k个设备以横向联邦学习的方式,进行所述性能预测模型的更新,每个设备的性能数据采样序列集为pk且有且有是设备k对第i个样本序列在t+
1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,所述样本序列是指从0到t时刻对同一预测对象按时序采样的样本集合,一个样本序列的采样周期为[0...t,t+1],样本序列量为nk=|pk|,则单域的总样本序列量为ωj、ω
j+1
分别是所述性能预测模型在第j轮迭代和第j+1轮迭代后得到的参数取值,是在横向联邦学习过程中,所述设备k第j+1轮迭代得到的性能预测模型的参数取值,
[0047][0048]
是所述设备k计算得到的性能预测模型的参数ωj更新至ω
j+1
的参数更新量,a是性能预测模型的学习率,gk是ωj的梯度。其中,设备k在方案a中为网元节点,在方案b中为单域管理服务器。
[0049]
具体地,性能预测模型的更新,基于与t+1时刻的实际性能数据向量的损失函数和fk(ω)实现,其中,
[0050][0051]
所述性能数据向量从入光功率ai、出光功率bi、收端光衰ci和收端光信噪比di四个维度进行采样取值,所述性能数据向量,通过以下三种方式的任意一种进行采样,
[0052]
方式一,从所述四个维度依次采样各光层链路在同一采样周期内的性能值,对每个维度的性能值进行加权求和的卷积化特征提取处理,
[0053]
所述卷积化特征提取处理得到的及其如下:
[0054][0055]
其中,αi、βi、γi、ηi是卷积化特征提取处理运算中的预设参数,m是所述设备k中,光层链路的条数;
[0056]
方式二,将各所述光层链路的所述四个维度在t时刻的性能值,串联成长向量,得到的及其如下:
[0057][0058]
m是所述设备k中,光层链路的条数,是m=1即第一条光层链路在t时刻的ai取值,同理;
[0059]
方式三,将各所述光层链路的所述四个维度的性能值进行随机抽样取值,其中,同一样本序列在同一时间周期内不同时刻的性能取值来自于同一条光层链路。
[0060]
在步骤103中,单域管理服务器将模型更新信息和单域拓扑信息,上报至多域管理服务器,供多域管理服务器基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型,光传送网数字孪生模型,用于对光传送网进行性能预测。其中,多域管理服务器接受到多个单域管理服务器上报的模型更新信息和单域拓扑信息后,生成光传送网数字孪生模型,光传送网数字孪生模型是整个光传送网的数字孪生模型,即,包括上报的多个单域在内的数字孪生模型,以对光传送网进行数字模拟仿真。
[0061]
在一个例子中,根据各个网元上报的所述参数更新量,更新所述单域性能预测模型的参数,得到所述更新后的所述单域性能预测模型,单域管理服务器具体需要对单域性能预测模型进行迭代更新;其中,迭代更新包括:将更新的单域性能预测模型下发给本单域内的各个网元,获取各个网元再次上报的参数更新量,根据再次上报的参数更新量对单域性能预测模型进行更新,并发起下一轮迭代更新,直到满足停止迭代条件。其中,停止迭代条件包括:性能预测模型的参数更新量收敛。
[0062]
本实施例中,通过对所述单域性能预测模型进行迭代更新,从而使单域性能预测模型的预测效果更加贴合设备实际性能,来实现单域性能预测模型的更新,使得多域管理服务器生成的光传送网数字孪生模型有更好的仿真效果。
[0063]
进一步地,根据各个网元上报的参数更新量,更新单域性能预测模型的参数,根据以下公式实现:
[0064][0065]
其中,设单域有k个网元,每个网元的性能数据采样序列集为pk且有且有且有是网元k对第i个样本序列在t+1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,样本序列是指:从0到t时刻对同一预测对象按时序采样的样本集合,一个样本序列的采样周期为[0...t,t+1]样本序列量为nk=|pk|,则单域的总样本序列量为
[0066]
在一个具体实施例子中,otn中各单域的网元构造如图4所示,假设otn网元节点k有6条光层链路,其主要光层传输性能参数包括入光功率、出光功率、收端光衰、光信噪比(optical signal noise ratio,简称“osnr”),则性能参数表示如下表所示:
[0067]
表一
[0068] link1link2link3link4link5link6入光功率a1a2a3a4a5a6出光功率b1b2b3b4b5b6收端光衰c1c2c3c4c5c6收端osnrd1d2d3d4d5d6
[0069]
以循环神经网络(recurrent neural network,,简称“rnn”)模型为例,性能预测功能模型建模如图5所示:rnn模型参数是ω(wa,w
x
,b),样本序列中每个周期采样到的性能数据都要输入至rnn模型中供模型训练使用,其中,是网元k对第i个样本序列在t+1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,rnn算法模型参数需要向预测向量损失减小的方向改进,网元节点(即网元)k在采样nk个样本序列后,通过rnn算法模型得出的性能预测损失函数和的平均式fk(ω)如下:
[0070][0071]
其中,是网元节点k对第i个性能数据样本序列(以下简称样本序列)在t+1时刻性能预测的样本标记向量,是网元节点k在采样nk个样本序列后的性能预测损失函数和对该厂商管控系统的性能预测公共模型第j次迭代的参数ωj的梯度。
[0072][0073]
是由网元节点k的第j+1次迭代上传给该厂商管控系统(即单域管理服务器)的该网元的模型参数更新量,a是模型的学习率。该厂商otn单域管控系统的otn光层性能预测rnn算法公共模型的损失函数是本网络域(即单域)各网元节点rnn算法模型的性能预测损失函数累加和的平均,定义为:
[0074][0075]
该厂商otn单域管控系统的otn光层性能预测rnn算法公共模型训练的目标函数即为该厂商otn单域管控系统的otn光层性能预测rnn算法公共模型第j+1次迭代更新获得的模型参数即为:
[0076][0077]
考虑光层链路性能向量采样,由于组网结构设计原因,各网元节点的光层链路数互不相同,为保证横向联邦学习对样本特征向量维度、元素属性一致性的要求,继而保证所有网元节点及单域管控系统的rnn模型输入的一致性,故而对方案a、b设计如下三种采样方案。
[0078]
采样方法1,“串联补零”:以节点(即网元)k为例,可把节点k包含的所有6条光层链路在t时刻的性能向量串联构建一个长向量作为t时刻rnn的输入,
[0079]
第i个样本序列在第t时刻的样本表示为:
[0080][0081]
其中,是节点k第i个样本序列在t时刻的链路性能向量采样,该向量的长度是4*m维。此处,m表示本域内,单个节点上所部署的最多的光层链路条数。此时,如果节点k上的链路条数小于m,即m》6,则该向量剩余4*(m-6)维的元素做补零处理。是节点k对第i个样本序列在t+1时刻的链路性能预测值,该向量的长度是4*m维。此处,m表示本域内,单个节点上所部署的最多的光层链路条数。此时,如果节点k上的链路条数小于m,即m》6,则该向量剩余4*(m-6)维的元素做补零处理。是节点k对第i个样本序列在t+1时刻性能预测的样本标记,该向量维数与上述预测值向量的维数相同。则节点k在采样nk个样本序列后,通过rnn算法模型得出的性能预测损失函数和fk(ω)以下式计算:
[0082][0083]
采样方法2,随机抽样:以节点k为例,对同一个样本序列的采样方法:对节点k包含的所有6条光层链路进行随机抽样,随机选出某条性能预测链路作训练样本,依次采样得出该链路对象在同一个时间周期内各时刻的性能样本。此种方法必须保证,同一样本序列在同一时间周期内不同时刻的性能采样来自于同一条链路对象。
[0084][0085]
其中,是节点k第i个样本序列在t时刻的链路性能向量采样,该向量的长度即是单条光层链路性能向量的实际维数,全网络域统一,此处即是4。是节点k对第i个样本序列在t+1时刻的链路性能预测值,该向量的长度如上,即是4。是节点k对第i个样本序列在t+1时刻性能预测的样本标记。fk(ω)是节点k在采样nk个样本序列后,通过rnn算法模型得出的性能预测损失函数和。
[0086][0087]
采样方法3,加权求和,卷积化特征提取处理:仍以节点k为例,对同一个样本序列的采样方法:对节点k包含的所有6条光层链路性能向量中的每维性能参数元素做加权求和的卷积化特征提取处理,最终得出处理后的单个4维的光层链路性能向量,作为本节点k的光层链路性能向量。依次采样网元节点k的6条光层链路在同一个时间周期内各时刻的性能样本,并用上述卷积化特征提取处理方法得出一个“网元节点k在各时刻的光层链路性能向量”的样本序列。
[0088]
如图6所示,表一中的各参数如下进行卷积化特征提取,
[0089][0090]
得到
[0091][0092]
其中,是节点k第i个样本序列在t时刻的经卷积化处理的光层链路性能向量采样。该向量的长度即是单条光层链路性能向量的维数,全网络域统一,此处即是4。是节点k对第i个样本序列在t+1时刻的光层链路性能预测值。该向量的长度如上,即是4。是节点k对第i个样本序列在t+1时刻性能预测的样本标记(节点k在t+1时刻各链路性能标记的加权求和)。fk(ω)是节点k在采样nk个样本序列后,通过rnn算法模型得出的性能预测损失函数和。
[0093][0094]
在一个例子中,光传送网性能预测系统应用于方案a,具体步骤包括:
[0095]
步骤1:各厂商单域通过横向联邦学习技术训练获得本域otn网络性能预测功能模型(即单域数字孪生模型)。
[0096]
步骤2:各厂商单域根据本域网络拓扑模型(即单域拓扑信息)、各网元节点基础模型、本域网络性能预测等功能模型,构建本域dt网络层。并根据多域编排系统的请求进行上报。
[0097]
步骤3:多域编排系统拼接各域dt网络层,进而构建生成整网的dt网络层模型(即光传送网数字孪生模型)。
[0098]
其中,假设厂商a的单域管控系统将第j次迭代获得的rnn性能预测模型(即单域性能预测模型)参数ωj已经下发给本域各网元节点,在此基础上各网元节点k与单域管控系
统的横向联邦学习交互流程如图7所示:
[0099]
当j=0,单域管控系统参数模型初始化ω0,并下发给域内各节点,再由单域管控系统判断上报的
[0100][0101]
若此式趋于0,则单域管控系统结果此次迭代,若此式不趋于0,则单域管控系统计算正式,并将计算结果下发给各网元节点由各网元节点执行j++轮迭代。
[0102][0103]
其中,以j+1轮迭代过程为例,每轮迭代步骤流程如图8所示,包括:
[0104]
在j+1轮迭代开始时,由节点k的rnn模型的损失函数对ωj求梯度,再计算模型参数更新
[0105][0106]
并由节点k将该参数更新量上报给本域管控系统。本域管控系统在获得所有k个节点的后,采用更新公共模型参数ω
j+
1并下发给各网元节点,从而结束本轮的迭代。
[0107]
方案a的特征如下:
[0108]
1、单域内各网元节点自身具备ai训练能力,可通过对本节点的性能采样、模型训练,能及时感知、预测本网元性能变化量。
[0109]
2、单域管控系统也具备ai训练能力,从联邦学习技术角度讲,在本方案中起到边缘服务器的作用。单域各网元节点将自身ai算法训练的性能预测模型参数梯度(或参数更新量)上报给本域管控系统,并由本域管控系统对上报的所有网元的模型参数梯度(或参数更新量)进行聚合处理,同时更新本域管控系统构建的本域性能预测公共模型(即单域性能预测模型)的参数。
[0110]
3、单域管控系统将更新后的本域性能预测公共模型参数,广播下发给本域各网元节点。
[0111]
4、各网元节点用公共模型参数刷新本网元性能预测模型参数,并据此迭代发起下一轮模型训练及与单域管控系统的交互。
[0112]
5、如某个网元节点与单域管控系统之间出现通讯故障或者节点自身出现故障,从而不能上传本网元节点的模型参数梯度(或参数更新量),这种情况不会影响单域管控系统对自身公共模型参数的更新及与其它网元节点的交互。
[0113]
6、这种方案可以解决因本域各网元节点器件批次、型号,使用年限等差异性造成的性能预测模型训练泛化能力差,模型预测推理容易出现的过拟合等问题。
[0114]
7、各单域管控系统将根据最终训练获得的本域公共性能预测模型及本域网络拓扑信息,生成由本域各网元dt模型(包括本网元dt基础结构模型、dt性能预测功能模型等)按本域otn物理网络拓扑连接关系组建的本域otn dt网络层,并发送给多域编排系统。多域编排系统将各单域上报的otn dt网络层拼接,进而获得整网otn dt网络层。由于是拼接获得的整网dt网络层,所包含的各单域部分之间的性能预测模型不尽相同。
[0115]
8、单域管控系统与本域内部各网元由同一设备制造商组网建设,那么本网元在上报本网元模型参数梯度(或参数更新量)之前,可不需要对本网元的性能预测模型参数梯度进行加密处理。
[0116]
9、采用横向联邦学习训练公共性能预测模型,要确保单域内分布的各网元节点的rnn(此处以rnn为例)训练模型和在训练中起到边缘服务器作用的单域管控系统的rnn训练模型的结构是相同的:包括rnn模型输入的所有向量元素属性、向量元素个数、rnn模型的层数,每层的神经元个数,层与层之间的激活函数、连接关系,输出的向量属性、输出的向量元素个数等等,以确保rnn模型参数的统一训练和同步刷新。
[0117]
该方案所能带来的技术效果体现为解决各网元自身的器件批次、型号、使用年限等属性不尽相同,造成dt性能预测模型训练泛化能力差,在推理过程中容易出现过拟合等问题,实现otn dt性能预测模型泛化能力强,预测准确度高等效果。
[0118]
在一个例子中,光传送网性能预测系统应用于方案b,具体步骤包括:
[0119]
步骤1:多域编排与各单域通过横向联邦学习技术训练获得多域otn网络性能预测功能模型(即网络性能预测模型)。
[0120]
步骤2:多域编排系统根据多域otn网络性能预测公共功能模型与各单域上报的加密拓扑信息,生成整网otn dt网络层模型(即光传送网数字孪生模型)。
[0121]
其中,以j+1轮迭代过程为例,每轮迭代步骤流程如图9所示,包括:
[0122]
当j=0,多域编排系统参数模型初始化ω0,并下发给各单域,多域编排系统判断单域管理服务器上报的若此式趋于0,则多域管控系统结果此次迭代,若此式不趋于0,则多域编排系统计算并下发给各单域,各单域执行j++轮迭代。
[0123]
其中,以j+1轮迭代过程为例,每轮迭代步骤流程如图10所示,包括:
[0124]
在j+1轮迭代开始时,由单域k的rnn模型的损失函数对ωj求梯度,再计算模型参数更新
[0125][0126]
并由单域k将该参数更新量上报给多域编排系统。多域编排系统在获得所有单域的加密后,采用更新公共模型参数ω
j+1
并下发给各单域,从而结束本轮的迭代。
[0127]
在方案b中,网络性能预测模型的更新,具体根据以下公式实现:
[0128][0129]
其中,设整个光传送网有k个单域,每个单域管理服务器对各自所属单域的性能数据采样序列集为pk且有且有是单域k对第i个样本序列在t+1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,样本序列是指:从0到t时刻对同一预测对象按时序采样的样本集合,一个样本序列的采样周期为[0...t,t+1],样本序列量为
nk=|pk|,则单域的总样本序列量为
[0130]
方案b的特征如下:
[0131]
1、单域内各网元节点不具备ai训练建模能力,各单域管控系统具备ai训练建模能力,跨厂商的多域编排系统也具备ai训练建模能力。
[0132]
2、从联邦学习技术角度讲,在本方案中多域编排系统起到边缘服务器的作用。各单域管控系统将自身ai算法训练的性能预测模型参数梯度(或参数更新量)经同态加密技术上报给多域编排系统,并由多域编排系统对上报的所有单域管控系统的模型参数梯度(或参数更新量)进行同态加密聚合处理,同时更新多域编排系统构建的多域性能预测公共模型参数。
[0133]
3、多域编排系统将更新后的多域性能预测公共模型参数,广播下发给各单域管控系统。
[0134]
4、各单域管控系统用公共模型参数刷新本域性能预测模型参数,并据此迭代发起下一轮模型训练及与多域编排系统的交互。
[0135]
5、如某个单域管控系统与多域编排系统之间出现通讯故障或者节点自身出现故障,从而不能上传本域管控系统的模型参数梯度(或参数更新量),这种情况不会影响多域编排系统对自身公共模型参数的更新及与其它单域管控系统的交互。
[0136]
6、这种方案可以解决因各域间各网元节点器件批次、型号,使用年限等差异性造成的性能预测模型训练泛化能力差,模型预测推理容易出现的过拟合等问题,性能预测模型跨域通用,具有更强的泛化能力。
[0137]
7、多域编排系统将根据最终训练获得的多域公共性能预测模型及各域上报的加密网络拓扑信息,生成整网跨域otn dt网络层,各otn域的性能预测模型皆相同。
[0138]
8、各域由不同设备制造商组网建设,因此各域管控系统在上报本域模型参数梯度(或参数更新量)之前,需要对本域的性能预测模型参数梯度(或参数更新量)做加密处理;同时各域上报给多域管控系统的本域网络拓扑信息,也视需要做加密处理。
[0139]
9、采用横向联邦学习训练公共性能预测模型,要确保各单域管控系统的rnn(此处以rnn为例)训练模型和在训练中起到边缘服务器作用的多域编排系统的rnn训练模型的结构是相同的:包括rnn模型输入的所有向量元素属性、向量元素个数、rnn模型的层数,每层的神经元个数,层与层之间的激活函数、连接关系,输出的向量属性、输出的向量元素个数等等,以确保rnn模型参数的统一训练和同步刷新。
[0140]
该方案所能带来的技术效果体现为解决各厂商网元自身的器件批次、型号、使用年限等属性不尽相同,造成跨域otn dt性能预测模型训练泛化能力差,在推理过程中容易出现过拟合等问题,实现跨域otn dt性能预测模型泛化能力强,预测准确度高等效果。
[0141]
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
[0142]
本发明的实施例还涉及一种光传送网性能预测方法,多域管理服务器,如图11所示,包括:
[0143]
步骤1101,获取单域管理服务器上报的模型更新信息和单域拓扑信息;其中,模型
更新信息,是通过横向联邦学习技术,对单域管理服务器的性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新;
[0144]
步骤1102,基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型;其中,光传送网数字孪生模型,用于对光传送网进行性能预测。
[0145]
本实施例的光传送网性能预测方法,应用于多域管理服务器,多域管理服务器是光传送网中管理所有单域管理服务器的服务器,多域管理服务器上可以运行多域编排系统,以实现光传送网性能预测方法。
[0146]
在一个例子中,性能预测模型为单域性能预测模型,模型更新信息为基于更新后的所述单域性能预测模型得到的单域数字孪生模型,多域管理服务器通过以下方式实现基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型:根据单域拓扑信息,将各单域的单域管理服务器上报的单域数字孪生模型,拼接得到光传送网数字孪生模型。
[0147]
在另一个例子中,性能预测模型为网络性能预测模型,模型更新信息为网络性能预测模型的参数更新量,多域管理服务器通过以下方式实现基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型:根据网络性能预测模型的参数更新量,更新网络性能预测模型;根据更新后的网络性能预测模型,和单域拓扑信息,生成光传送网数字孪生模型。
[0148]
具体地,多域管理服务器根据网络性能预测模型的参数更新量,更新网络性能预测模型,可以是根据各个网元上报的参数更新量,更新单域性能预测模型的参数,具体根据以下公式实现:
[0149][0150]
其中,设共有k个设备以横向联邦学习的方式,进行所述性能预测模型的更新,每个设备的性能数据采样序列集为pk且有且有是设备k对第i个样本序列在t+1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,所述样本序列是指从0到t时刻对同一预测对象按时序采样的样本集合,一个样本序列的采样周期为[0...t,t+1],样本序列量为nk=|pk|,则单域的总样本序列量为ωj、ω
j+1
分别是所述性能预测模型在第j轮迭代和第j+1轮迭代后得到的参数取值,是在横向联邦学习过程中,所述设备k第j+1轮迭代得到的性能预测模型的参数取值,是所述设备k计算得到的性能预测模型的参数ωj更新至ω
j+1
的参数更新量,a是性能预测模型的学习率,gk是ωj的梯度。
[0151]
不难发现,本实施方式为与上述实施例相对应的实施例,本实施例可与上述实施例互相配合实施。上述实施例中提到的相关技术细节在本实施例中依然有效,为了减少重复,这里不再赘述。相应地,本实施例中提到的相关技术细节也可应用在上述实施例中。
[0152]
本发明的实施例还涉及一种光传送网性能预测系统,如图12所示,包括:
[0153]
单域管理服务器1201、多域管理服务器1202;单域管理服务器1201与多域管理服务器1202通信连接;
[0154]
其中,单域管理服务器1201,用于获取性能预测模型;通过横向联邦学习技术,获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各
网元性能数据进行训练后得到;将参数更新量和单域拓扑信息,上报至多域管理服务器1202,供多域管理服务器1202生成光传送网数字孪生模型;
[0155]
多域管理服务器1202,用于获取单域管理服务器1201上报的模型更新信息和单域拓扑信息;其中,模型更新信息,是通过横向联邦学习技术,对单域管理服务器1201的性能预测模型基于单域中的各网元性能数据进行训练后得到;根据模型更新信息和单域拓扑信息,生成光传送网数字孪生模型;其中,光传送网数字孪生模型,用于对光传送网进行性能预测。
[0156]
不难发现,本实施方式为与上述实施例相对应的系统实施例,本实施例可与上述实施例互相配合实施。上述实施例中提到的相关技术细节在本实施例中依然有效,为了减少重复,这里不再赘述。相应地,本实施例中提到的相关技术细节也可应用在上述实施例中。
[0157]
本发明的实施例还涉及一种电子设备,如图13所示,包括:至少一个处理器1301;与至少一个处理器通信连接的存储器1302;其中,存储器1302存储有可被至少一个处理器1301执行的指令,指令被至少一个处理器1301执行上述的任一实施例的方法。
[0158]
其中,存储器1302和处理器1301采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器1301和存储器1302的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器1301处理的信息通过天线在无线介质上进行传输,进一步,天线还接收信息并将信息传送给处理器1301。
[0159]
处理器1301负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器1302可以被用于存储处理器在执行操作时所使用的信息。
[0160]
本发明的实施例涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
[0161]
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本技术各个实施例方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
技术特征:
1.一种光传送网性能预测方法,其特征在于,应用于单域管理服务器,包括:获取性能预测模型;通过横向联邦学习技术,获取所述性能预测模型的模型更新信息;其中,所述模型更新信息,是对所述性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对所述性能预测模型进行更新;将所述模型更新信息和单域拓扑信息,上报至多域管理服务器,供所述多域管理服务器基于所述模型更新信息和所述单域拓扑信息,生成光传送网数字孪生模型,所述光传送网数字孪生模型,用于对所述光传送网进行性能预测。2.根据权利要求1所述的光传送网性能预测方法,其特征在于,所述性能预测模型,包括:单域性能预测模型;所述模型更新信息,包括:基于更新后的所述单域性能预测模型得到单域数字孪生模型;所述获取所述性能预测模型的模型更新信息,包括:将所述单域性能预测模型下发至本单域中的各个网元;获取各个网元上报的所述单域性能预测模型的参数更新量;其中,各个网元根据本地性能数据,分别对所述单域性能预测模型进行训练,并计算得到所述参数更新量;根据各个网元上报的所述参数更新量,更新所述单域性能预测模型的参数,得到所述更新后的所述单域性能预测模型;根据所述更新后的所述单域性能预测模型,和本单域的单域拓扑信息,得到所述单域数字孪生模型。3.根据权利要求2所述的光传送网性能预测方法,其特征在于,所述根据各个网元上报的所述参数更新量,更新所述单域性能预测模型的参数,得到所述更新后的所述单域性能预测模型,包括:对所述单域性能预测模型进行迭代更新;其中,所述迭代更新包括:将更新的所述单域性能预测模型下发给本单域内的各个网元,获取各个网元再次上报的参数更新量,根据所述再次上报的参数更新量对所述单域性能预测模型进行更新,并发起下一轮迭代更新,直到满足停止迭代条件。4.根据权利要求1所述的光传送网性能预测方法,其特征在于,所述性能预测模型,包括:网络性能预测模型;所述模型更新信息,包括:所述网络性能预测模型的参数更新量;所述获取所述性能预测模型的模型更新信息,包括:根据各网元性能数据,对所述网络性能预测模型进行训练,得到所述网络性能预测模型的参数更新量;其中,所述网络性能预测模型的参数更新量用于上报至所述多域管理服务器,供所述多域管理服务器根据所述网络性能预测模型的参数更新量,更新所述网络性能预测模型。5.根据权利要求1至4中任一项所述的光传送网性能预测方法,其特征在于,所述性能预测模型的更新,根据以下公式实现:
其中,设共有k个设备以横向联邦学习的方式,进行所述性能预测模型的更新,每个设备的性能数据采样序列集为p
k
且有且有是设备k对第i个样本序列在t+1时刻的性能数据预测向量,是t时刻第i个样本序列的性能数据向量,所述样本序列是指从0到t时刻对同一预测对象按时序采样的样本集合,一个样本序列的采样周期为[0...t,t+1],样本序列量为n
k
=|p
k
|,则单域的总样本序列量为ω
j
、ω
j+1
分别是所述性能预测模型在第j轮迭代和第j+1轮迭代后得到的参数取值,是在横向联邦学习过程中,所述设备k第j+1轮迭代得到的性能预测模型的参数取值,是所述设备k计算得到的性能预测模型的参数ω
j
更新至ω
j+1
的参数更新量,a是性能预测模型的学习率,g
k
是ω
j
的梯度。6.根据权利要求5所述的光传送网性能预测方法,其特征在于,所述性能预测模型的更新,基于与t+1时刻的实际性能数据向量的损失函数和f
k
(ω)实现,其中,所述性能数据向量从入光功率a
i
、出光功率b
i
、收端光衰c
i
和收端光信噪比d
i
四个维度进行采样取值,所述性能数据向量,通过以下三种方式的任意一种进行采样,方式一,从所述四个维度依次采样各光层链路在同一采样周期内的性能值,对每个维度的性能值进行加权求和的卷积化特征提取处理,所述卷积化特征提取处理得到的及其如下:其中,α
i
、β
i
、γ
i
、η
i
是卷积化特征提取处理运算中的预设参数,m是所述设备k中,光层链路的条数;方式二,将各所述光层链路的所述四个维度在t时刻的性能值,串联成长向量,得到的及其如下:
m是所述设备k中,光层链路的条数,是m=1即第一条光层链路在t时刻的a
i
取值,同理;方式三,将各所述光层链路的所述四个维度的性能值进行随机抽样取值,其中,同一样本序列在同一时间周期内不同时刻的性能取值来自于同一条光层链路。7.一种光传送网性能预测方法,其特征在于,应用于多域管理服务器,包括:获取单域管理服务器上报的模型更新信息和单域拓扑信息;其中,所述模型更新信息,是通过横向联邦学习技术,对所述单域管理服务器的性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对所述性能预测模型进行更新;基于所述模型更新信息和所述单域拓扑信息,生成光传送网数字孪生模型;其中,所述光传送网数字孪生模型,用于对所述光传送网进行性能预测。8.根据权利要求7所述的光传送网性能预测方法,其特征在于,所述性能预测模型,包括:单域性能预测模型;所述模型更新信息,包括:基于更新后的所述单域性能预测模型得到单域数字孪生模型;所述基于所述模型更新信息和所述单域拓扑信息,生成光传送网数字孪生模型,包括:根据所述单域拓扑信息,将各单域的所述单域管理服务器上报的所述单域数字孪生模型,拼接得到所述光传送网数字孪生模型。9.根据权利要求7所述的光传送网性能预测方法,其特征在于,所述性能预测模型,包括:网络性能预测模型;所述模型更新信息,包括:所述网络性能预测模型的参数更新量;所述基于所述模型更新信息和所述单域拓扑信息,生成光传送网数字孪生模型,包括:根据所述网络性能预测模型的参数更新量,更新所述网络性能预测模型;根据更新后的所述网络性能预测模型,和所述单域拓扑信息,生成光传送网数字孪生模型。10.一种光传送网性能预测系统,其特征在于,包括:单域管理服务器、多域管理服务器;所述单域管理服务器与所述多域管理服务器通信连接;其中,所述单域管理服务器,用于获取性能预测模型;通过横向联邦学习技术,获取所述性能预测模型的模型更新信息;其中,所述模型更新信息,是对所述性能预测模型基于单
域中的各网元性能数据进行训练后得到;将所述参数更新量和单域拓扑信息,上报至多域管理服务器,供所述多域管理服务器生成光传送网数字孪生模型;所述多域管理服务器,用于获取所述单域管理服务器上报的所述模型更新信息和所述单域拓扑信息;其中,所述模型更新信息,是通过所述横向联邦学习技术,对所述单域管理服务器的性能预测模型基于单域中的各网元性能数据进行训练后得到;根据所述模型更新信息和所述单域拓扑信息,生成所述光传送网数字孪生模型;其中,所述光传送网数字孪生模型,用于对所述光传送网进行性能预测。11.一种电子设备,其特征在于,包括:至少一个处理器;与所述至少一个处理器通信连接的存储器;所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一项所述的光传送网性能预测方法,或者,如权利要求7至9中任一项所述的光传送网性能预测方法。12.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的光传送网性能预测方法,或者,如权利要求7至9中任一项所述的光传送网性能预测方法。
技术总结
本发明实施例涉及通信领域,公开了一种光传送网性能预测方法、系统、电子设备及存储介质。本发明中,光传送网性能预测方法,包括以下步骤:获取性能预测模型;通过横向联邦学习技术,获取性能预测模型的模型更新信息;其中,模型更新信息,是对性能预测模型基于单域中的各网元性能数据进行训练后得到,用于对性能预测模型进行更新;将模型更新信息和单域拓扑信息,上报至多域管理服务器,供多域管理服务器基于模型更新信息和单域拓扑信息,生成光传送网数字孪生模型,光传送网数字孪生模型,用于对光传送网进行性能预测。本发明的光传送网性能预测方法,可以实现建立光传送网的仿真网络建立。建立。建立。
技术研发人员:王大江 周晓慧 王其磊 薄开涛
受保护的技术使用者:中兴通讯股份有限公司
技术研发日:2022.03.10
技术公布日:2023/9/20
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/
上一篇:一种汽机污水处理装置的制作方法 下一篇:路缘石安装卡尺的制作方法