一种基于信息时效性的网联控制系统感传算联合优化方法

未命名 08-14 阅读:141 评论:0


1.本发明涉及通信资源调度技术领域,尤其涉及一种基于信息时效性的网联控制系统感传算联合优化方法。


背景技术:

2.随着互联智能新时代的到来,当今网络正在向通信和计算一体化系统发展,信息在边缘物理设备和计算服务器所形成的控制回路中周期性连续流动。分布广泛的边缘设备不断采集时变环境数据,生成计算密集型感知任务,并将其卸载到网络上层服务器以提取状态信息,进一步用于实时重建或估计等下游任务决策。
3.在通信和计算一体化系统中,传统的吞吐量和延迟等指标已不能充分表征系统性能,需要将系统设计的目标从无差错数据传输扩展到信息对后续控制任务的有用性,面向信息采集和处理的统一流程,建立新的时效价值性能指标。此外,在此类系统中,数据的采集、传输和计算过程高度耦合相互制约,在有限的网络资源下,通信和计算系统分离设计无法与此特性相匹配,导致资源利用率下降。因此需要重新设计面向任务的通信和计算架构,开发高效的多维资源联合分配方法。
4.现有的边缘计算技术通过在位于网络边缘的节点上分布式部署存储和计算能力,把中心节点的计算、存储、通信压力分散到计算能力稍弱的边缘节点,实现服务的低时延、高可靠和低成本。为了满足时延要求和设备能量限制,需要设计合理的计算卸载策略,以充分利用分布在各节点的计算资源,平衡不同节点之间的工作负载。对于单用户场景,策略设计侧重于权衡任务卸载能耗和完成时延;对于多用户场景,由于用户间的资源竞争,卸载问题更加复杂,需要考虑通信和计算资源在用户之间的联合优化。
5.现有的计算任务卸载通常有两种模式:集成卸载和部分卸载。在集成卸载模式中,高度集成或相对简单的任务不可分割,必须作为一个整体在设备端或服务器端执行。在部分卸载模式中,计算任务被拆分为不同的组件,分别在终端和服务器端执行,可以通过优化两端的数据量分配来提高卸载效率。
6.在现有的工作中,卸载策略的设计主要针对单次卸载的资源利用率和系统效率。然而,在时效要求严格的网联控制场景中,经计算得到的任务中的状态更新信息是时序相关的,需要分析持续任务流中状态信息的长期时效演化过程。由于计算任务生成的随机性和工作负载的时变性,简单地应用现有的计算卸载策略对连续生成的任务分别进行单独处理,将会导致系统资源浪费和性能下降。
7.信息年龄(age of information,aoi)作为最先提出的信息新鲜程度衡量指标,被定义为自目的节点最新接收到的数据生成以来经过的时间。它扩展了传统的传输时延指标,同时考虑了信息的周期性生成过程。在此基础上,峰值信息年龄(peak age of information,paoi)关注系统时效性能最差的情况,在时效要求严苛、容错率低的场景中是一项重要的衡量指标。paoi的具体表现形式通常借助排队论进行推导,在不同的业务场景和传输机制下,任务的生成被抽象为不同随机过程,无线网络传输过程被建模为不同服务
时间、缓冲区数量和包管理技术的各种队列。由于任务在传输队列中的排队等待过程会导致不必要的年龄增加,因此零等待采样策略,即只在信道空闲时才进行采样也受到了广泛关注。
8.在边缘计算系统中,考虑到任务的卸载和处理两个连续过程,信息年龄的度量模型从单一的传输队列扩展为传输和计算的串联队列,根据卸载策略分为传输-计算串联模式和计算-传输串联模式。在不同的通信制式和计算方案下,将信息处理过程建模为不同形式的串联队列,并推导出峰值信息年龄的表达式用以指导系统的资源分配和更新策略设计。
9.峰值信息年龄的相关工作主要研究了不同场景中以单位速率增长的线性时效模型,只刻画了信息的时间属性。然而在具体场景中,信息的时效变化规律受到观测过程的结构特征、环境变化速率、系统资源限制等多种因素的影响,并且不同应用场景对数据的需求不同,因此线性模型不能准确地表征数据的价值,无法用于指导实际系统的设计。
10.此外,大多数工作仅研究单用户场景或面向通信过程的多用户场景,而没有考虑到边缘计算系统中多用户之间在传输和计算过程中的信息流融合和资源竞争。


技术实现要素:

11.本发明的目的提出一种基于信息时效性的网联控制系统感传算联合优化方法,联合考虑网联控制系统信息流环路中的数据采集、传输和计算三个过程,推导出不同边缘卸载模式下的信息时效价值指标,并基于此设计了感知策略和通信、计算联合资源分配方案,以提高系统整体性能和效率。
12.为了实现上述目的,本发明提供如下技术方案:
13.一种基于信息时效性的网联控制系统感传算联合优化方法,包括以下步骤:
14.s1、构建资源独立分配场景中的广义信息时效性模型:
[0015][0016]
其中,λ为平均任务生成速率,μ
t
为平均任务传输服务率,μc为平均任务计算服务率;
[0017]
s2、计算资源独立分配场景中的广义信息时效性、设备的传输能耗和设备的计算能耗;
[0018]
s3、以设备成本来量化系统性能和效率,建立优化问题为保证公平性的前提下最小化传输和计算能耗,同时最大化信息时效性;求解优化问题,获得最优的采样策略与资源分配策略。
[0019]
进一步地,
[0020]
在零等待策略这一特殊模式下,资源独立分配场景中的广义信息时效性的公式为:
[0021][0022]
进一步地,设备的信息时效性还包括如下几种模型:资源独立分配场景中的面向过程的信息时效性、资源共享场景中的广义信息时效性和资源共享场景中的面向过程的信
息时效性。
[0023]
进一步地,资源独立分配场景中的面向过程的信息时效性的公式为:
[0024][0025]
其中,κ为与回归率相关的结构参数,σ2为观测过程的方差,λ为平均任务生成速率,μ
t
为平均任务传输服务率,μc为平均任务计算服务率;
[0026]
在零等待策略这一特殊模式下,资源独立分配场景中的面向过程的信息时效性的公式为:
[0027][0028]
进一步地,零等待策略下资源共享场景中的广义信息时效性的信息时效性的公式为:
[0029][0030]
其中μ
i,t
为设备i的平均任务传输服务率,μ-i,t
为其余设备的平均任务传输服务率之和,μc为平均任务计算服务率。
[0031]
进一步地,零等待策略下资源共享场景中的面向过程的信息时效性的上界为:
[0032][0033]
其中,
[0034][0035][0036][0037][0038]
κ为与回归率相关的结构参数,σ2为观测过程的方差,μ
i,t
为设备i的平均任务传输
服务率,μ-i,t
为其余设备的平均任务传输服务率之和,μc为平均任务计算服务率。
[0039]
进一步地,步骤s2中资源独立分配场景中的设备k的传输能耗的公式为:
[0040][0041]
其中pk表示设备k的传输功率,βk表示分配给设备k的带宽占总可用带宽的比例,为设备k的平均传输速率,b表示总可用带宽,n0表示噪声功率谱密度,dk表示设备k生成的任务包大小,其服从均值为的指数分布,表示设备组成的集合,hk表示边缘设备的上行信道增益;
[0042]
卸载至设备k的任务计算能耗的公式为:
[0043][0044]
其中α为与芯片结构有关的系数,fk表示预分配给设备k的cpu频率,ck表示处理1比特数据所需的cpu周期数;
[0045]
设备k的广义信息时效性表示为:
[0046][0047]
λk为平均任务生成速率,为平均任务传输服务率,为平均任务计算服务率。
[0048]
进一步地,步骤s3中,资源独立分配场景中的设备成本表示为:
[0049][0050]
其中ω为连续变量,且ω∈[0,1],用于调整信息时效性和传输计算总能耗之间的权衡关系,为设备k的传输能耗,为设备的计算能耗。
[0051]
进一步地,步骤s3中,资源独立分配场景中的优化问题表示为:
[0052][0053][0054][0055][0056][0057][0058]
[0059][0060][0061][0062][0063]
其中,ck为设备成本。
[0064]
进一步地,步骤s3的问题求解过程为:
[0065]
引入一个辅助变量τ,将原问题转换为问题2:
[0066][0067][0068][0069][0070][0071][0072][0073][0074][0075][0076][0077][0078]
引入一系列辅助变量对问题2进行简化,并且对非凸项进行连续凸逼近,将问题2转换为当前解处的凸优化问题3:
[0079]
[0080][0081][0082][0083][0084][0085][0086][0087][0088][0089][0090][0091]
其中为优化变量集合:
[0092]
给定初始可行解在当前解处使用凸优化求解工具重复求解问题3直至收敛,得到最终的资源分配和任务生成策略。
[0093]
与现有技术相比,本发明的有益效果为:
[0094]
本发明提供的基于信息时效性的网联控制系统感传算联合优化方法,首先,将仅考虑时间属性的线性信息年龄模型扩展到其它维度,分析所监测物理过程的统计特性,为面向任务的信息时效性指标建立了一个数学建模框架。通过分析信源的结构特征,采用均方估计误差作为信息时效性的度量,并以常见的高斯马尔可夫过程为例,采用线性最小均方误差估计方法,推导出均方估计误差与信息年龄的非线性函数关系,从而将信息的时效性与实际系统设计指标建立联系。
[0095]
其次,考虑边缘计算系统中计算资源在多用户之间存在独立分配和共享使用两种不同制式,分析了多用户计算资源共享时通信计算双重资源受限,以及其它用户数据汇入对单一用户系统时延的综合影响,开创性地分别推导出两种场景下信息时效性的表达式。考虑到通信和计算资源的随机性,感知数据不能够及时计算处理,在系统中形成多个等待队列。因此将数据传输和计算过程建模为串行多队列模型,基于排队论及概率论,通过分析数据采样间隔与队列中系统时间的联合概率密度,以及串联队列之间的耦合关系,推导出
资源受限下的信息时效性的数学表达式。
[0096]
最后,基于上述推导出的信息时效性衡量指标,提出了通信计算双重资源限制条件下的基于用户公平性的边缘计算卸载信息时效与系统能耗最小化问题,联合优化了任务生成、通信资源分配和计算资源分配,实现了感传算一体化的端到端性能优化。相比现有工作中通常对三阶段独立优化,大大提高了系统整体效率。
附图说明
[0097]
为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
[0098]
图1为系统场景示意图。
[0099]
图2为估计误差时间演变示意图。
[0100]
图3为并行计算模式队列模型。
[0101]
图4为串行计算模式队列模型。
具体实施方式
[0102]
本发明通过分析所观测物理过程的结构特征,建立面向任务的信息时效性衡量指标,用以揭示系统的实时估计误差。同时考虑了边缘计算中计算资源的不同利用机制,分析了用户间的资源竞争影响。并基于所建立的时效指标,设计了高效的通信计算资源联合分配和信息更新策略。为了更好地理解本技术方案,下面结合附图对本发明的方法做详细的说明。
[0103]
1.系统场景
[0104]
考虑边缘计算辅助的计算密集型网联控制系统,如图1所示,分布广泛的传感器监测其周围环境的相关物理过程,多传感器数据融合设备收集监测同一物理过程的传感器所采集的数据信息,并将其封装成感知任务,上传至边缘服务器。边缘服务器通过计算提取感知任务中的状态信息,用以估计环境的实时状态,并据此推演下游任务的控制决策。由于通信及计算资源的动态变化和其他用户对资源占用的影响,单个数据融合设备可用的通信及计算资源随机变化。因此,生成的感知任务不能够及时传输和处理,可能在设备端形成发送等待队列,或在边缘服务器形成计算等待队列。
[0105]
基于计算资源的不同分配方式,考虑以下两种常见的计算模式。1)并行计算模式:通过设置虚拟机将边缘服务器中的计算资源预分配给每个连接的设备。具体来说,每个设备独立生成感知任务并发送到边缘服务器。每台服务器拥有多个虚拟机,这些虚拟机是配置了一定数量的服务器硬件资源(如cpu、内存和i/o总线)的虚拟计算机。为此,服务器可以为所连接的设备提供独立服务,执行感知任务的并行计算。2)串行计算模式:每个设备独立生成感知任务并发送到边缘服务器,边缘服务器利用全部计算资源,按到达的先后顺序依次处理各个任务。
[0106]
2.信息时效性演变模型
[0107]
在上述实时控制系统中,信息时效性是影响系统性能的一个重要指标,它与接收端数据自生成以来经过的时间直接相关,揭示了状态估计结果与实时状态的不匹配程度。
在本发明中,我们以状态估计误差作为衡量指标,采用两种形式描述信息的时效性:1)广义信息时效性(δ),当无法获取所观测过程的相关先验知识时,假设估计误差随时间线性增长;2)面向过程的信息时效性(v),即利用实际过程的物理特征来获得更有针对性的估计误差表达式。在此定义下,估计误差越小,信息时效性越高。
[0108]
2.1广义信息时效模型
[0109]
对于动态时变过程,一般来说,接收端获得的信息越新鲜,越能准确地推断当前的实时状态,估计误差越小。因此,在对监测过程无法获得先验知识的情况下,我们假设估计误差随时间推移线性增长。
[0110]
对于任意一个设备,假设在任意时刻t,最新一个被计算处理的任务的生成时间为u(t),则边缘服务器端的估计误差为最新获得的状态信息从任务生成以来经过的时间,可以表示为随机过程δ(t)=t-u(t)。如图2中(a)所示,在连续信息流下,δ(t)为关于时间的锯齿状函数,在没有获得新系统状态时,估计误差δ(t)随时间线性增长,并在获得新系统状态的瞬间陡落。基于第n个任务的峰值估计误差(δn)是与任务n相关的估计误差的最大值,即下一个任务计算完成前一瞬间的估计误差。令xn表示任务n和n-1之间的生成间隔,tn为任务n的系统时延(包括传输和计算两个连续过程),为在观察的时间间隔内生成的任务数。则取所有感知任务的平均峰值估计误差作为广义信息时效性的度量,可以表示为:
[0111][0112]
2.2面向过程的信息时效模型
[0113]
如果观测过程的先验知识是可知的,则可以利用所观察信号的内在结构和时序相关性来获得更有针对性的信息时效性度量,而不仅仅是上述的线性关系。
[0114]
我们考虑了平稳高斯马尔可夫过程z
t
,其方差为σ2,核函数为指数形式。此类过程通常可以用来表示移动自组织网络、机器人群以及无人机系统中的节点移动等物理过程。对于任意一个设备,假设在任意时刻t,最新一个被计算处理的任务的生成时间为u(t),服务器基于从中提取到的u(t)时刻的状态信息z
u(t)
,采用线性最小均方误差估计方法预测信源实时状态z
t
,估计结果为则估计误差为其中κ为与回归率相关的结构参数。图2中(b)为在此情况下的估计误差v(t)时间演变趋势,假设第n个感知任务在tn时刻生成,并在t
′n时刻被服务器处理完成,与上述广义信息时效指标相同,我们同样考虑系统性能最差的极端情况,即任意任务n计算完成前一瞬间的峰值估计误差将所有感知任务的平均峰值估计误差作为信息时效性指标:
[0115][0116]
3.针对通信及计算资源双重随机性的时效性评估
[0117]
接下来,我们针对1中所述的两种计算场景,分别分析2中两类信息时效性指标的具体表达形式。
[0118]
3.1计算资源独立分配场景中的时效性评估
[0119]
由于计算资源独立分配场景中,服务器对所连接的设备提供并行计算服务,各设备的任务计算之间相互独立,因此只需分析单个设备的情况。由于使用了多传感器融合技术,各传感器的采样频率和数据包大小不同,同时考虑到晶体振荡器的频率漂移等实际硬件误差,感知任务的产生可以假设为平均生成速率为λ的泊松过程。假设上行通信链路为准静态信道,且服务器计算频率不变,由于感知任务包大小的随机性,可以假设传输和计算的服务时间分别服从平均速率为μ
t
和μc的指数分布。此外,假设传输和计算处的队列长度均没有限制,且任务的传输和计算过程均遵循先到先服务(fcfs)规则,则计算资源独立分配的并行计算模式可以被抽象为m/m/1-m/m/1串联队列,如图3所示。接下来推导此场景下两种信息时效模型的闭式表达式。
[0120]
3.1.1广义信息时效性评估
[0121]
如式(1)所示,广义信息时效性的一般表达式为其中tn可以拆解为两部分:传输队列系统时间t
n,t
和计算队列系统时间t
n,c
。因此式(1)可以进一步表示为其中泊松分布xn的均值为
[0122]
由于传输和计算队列均为标准m/m/1队列,根据排队论的已有结论可知:
[0123][0124]
由此可知
[0125]
综上,并行计算模式下广义信息时效性表达式为:
[0126][0127]
·
零等待采样策略:我们进一步研究了零等待采样策略这一特殊情况,在此场景中,服务器接收到任务包后立即向设备发送确认信号,设备在接收到确认信号后立即生成并传输新的任务。该策略避免了传输队列的排队和空闲。
[0128]
令s
n,t
表示感知任务在传输队列中的服务时间,如前文所述,其服从平均速率μ
t
的指数分布。由于零等待策略下传输系统不会出现空闲或排队情况,因此有xn=s
n-1,t
,t
n,t
=s
n,t
。此外,m/m/1系统中的服务时间是统计独立的,即s
n,t

stsn-1,t
,结合式(1),零等待策略下并行计算模式的广义信息时效性为:
[0129][0130]
3.1.2面向过程的信息时效性评估
[0131]
当观测过程可以建模为高斯马尔可夫过程时,基于已知的结构特征,我们可以定义更有针对性的信息时效性如公式(2)所示。其中非线性函数导致传输和计算过程无法分离讨论,增加了分析的复杂性。下面我们具体分析
[0132]
总系统时间tn可以分为四部分:传输队列等待时间w
n,t
、传输队列服务时间s
n,t
、计算队列等待时间w
n,c
、计算队列服务时间s
n,c
,即tn=w
n,t
+s
n,t
+w
n,c
+s
n,c
。由于s
n,c
独立于其它变量,因此可以写为:
[0133][0134]
其中等式右边后一项可以由s
n,c
的概率密度函数计算得到:
[0135][0136]
前一项可以根据全概率公式转化为:
[0137][0138]
接下来分析未知量w
n,t
+w
n,c
的四种可能的组合情况。
[0139]
(1)w
n,t
>0,w
n,c
>0:令d
n,t
表示任务n和任务n-1离开传输队列的时间间隔。由于w
n,t
>0,则有d
n,t
=s
n,t
。同时考虑到w
n,t
与w
n,c
相互独立,则w
n,t
+w
n,c
的概率密度函数可以通过卷积计算:
[0140][0141]
以卷积第一项为例,若t
n-1,t
>xn,即任务n生成时任务n-1仍未离开传输队列,则w
n,t
=t
n-1,t-xn;反之,则w
n,t
=0。因此任务n的等待时间可以表示为:
[0142]wn,t
=(t
n-1,t-xn)
+
ꢀꢀꢀ
(10)
[0143]
由于t
n-1,t
和xn相互独立,则有:
[0144][0145][0146]
将d
n,t
视为计算队列的到达间隔,卷积第二项与上述分析同理。因此可以计算出式(9):
[0147][0148]
(2)w
n,t
>0,w
n,c
=0:由于w
n,t
和s
n,t
相互独立,根据式(11)和式(12),可以计算得到此情况下的概率密度函数:
[0149][0150]
(3)w
n,t
=0,w
n,c
>0:引入d
n,t
作为中间变量,则w
n,t
+w
n,c
的条件概率分布可以表示为:
[0151][0152]
其中分子上积分式里的第二项的计算类似于式(11)。
[0153]
对于积分中的第一项,令b
n,t
表示从任务n-1离开传输队列到任务n产生之间的时间间隔,可以表示为x
n-t
n-1,t
,且独立于s
n,t
,因此有:
[0154][0155]
其中分子分母分别可由式(3)和式(12)得知。
[0156]
由于已知w
n,t
=0且s
n,t
=s,则d
n,t
=b
n,t
+s,因此可以得到积分中第一项为:
[0157][0158]
至此,式(15)中的分子可以通过积分得到。其分母在后续计算中能够抵消,在此处无需计算具体表达式。
[0159]
(4)w
n,t
=0,w
n,c
=0:当且仅当在此种情况下两个队列的等待时间均为0,因此可以通过计算w
n,t
+w
n,c
>0的概率分布来间接分析此情况。
[0160]wn,t
+w
n,c
>0包含上述三种情况,即:
[0161][0162]
其中三个概率密度函数分别在前三种情况中计算得到如式(13)(14)(15)所示。
[0163]
对于三个概率,以第一个为例,通过条件概率公式可以转化为:
[0164]
p(w
n,t
>0,w
n,c
>0|s
n,t
=s,xn=x)
ꢀꢀꢀꢀ
(19)
[0165]
=p(w
n,t
>0|s
n,t
=s,xn=x)p(w
n,c
>0|w
n,t
>0,s
n,t
=s,xn=x)
[0166]
其中等式右边第一项等同于式(12),第二项可以计算得到:
[0167][0168]
其余两个概率可以类似计算。注意第三个概率可以与其后的概率密度函数(如式(15)所示)进行部分抵消。至此,能够得到式(18)的闭式表达式:
[0169][0170]
由此,间接计算w
n,t
=w
n,c
=0的情况:
[0171][0172]
综合分析上述四种情况,基于式(21)和(22),式(8)中的期望可以计算为:
[0173][0174]
基于此,依次计算式(8)和式(6),可以得到并行计算模式下面向过程的信息时效性表达式为:
[0175][0176]
·
零等待采样策略:我们同样考虑零等待采样策略这一特殊情况,此时xn=s
n-1,t
,w
n,t
=0。由于第n-1个任务的传输服务时间与第n个包无关,因此式(2)可以转化为
[0177][0178]
其中和可以根据s
n,t
和s
n,c
的概率密度函数计算得到。
[0179]
关于仍然根据全概率公式通过条件期望推导,即:
[0180][0181]
其中类似于式(11)。
[0182]
由此可以计算出零等待策略下并行计算模式的面向过程的信息时效性为:
[0183][0184]
3.2计算资源共享场景中的时效性评估
[0185]
在计算资源共享模式下,边缘服务器利用全部计算资源依照fcfs规则依次处理所有设备上传的任务。某任务在计算阶段的排队过程会受到来自其它设备的任务的影响,增加了该任务的计算过程系统时延,并且这种性能降低是不可控的。为了弥补这一性能损失,直观上讲,我们可以通过调整各个设备独立可控的通信过程来尽可能提高时效性。因此在
本发明中我们考虑零等待策略,它能够消除通信队列的排队和等待过程,缩短通信过程的系统时延。
[0186]
假设设备i的传输服务时间为指数随机变量,其平均服务速率为μ
i,t
;边缘服务器对来自所有设备的任务包的服务时间均服从参数为μc的指数分布。则计算资源共享的串行计算模式可以被抽象为m/m/1-多源m/m/1串联队列,如图4所示。接下来推导此场景下任意设备i的两种信息时效模型的闭式表达式。
[0187]
3.2.1广义信息时效性评估
[0188]
与3.1.1类似,我们同样将整个过程分为传输和计算两部分。同时,在零等待策略下,x
i,n
=s
i,n-1,t
,t
i,n,t
=s
i,n,t
,平均任务到达速率与平均传输服务速率相同。则对任意设备i,式(1)中广义信息时效性的一般表达式i,式(1)中广义信息时效性的一般表达式可以转化为:
[0189][0190]
其中
[0191]
对于t
i,n,c
,根据已有结论,m/m/1队列的离开过程和到达过程是统计一致的,均为具有相同期望的泊松过程,且多个泊松过程的聚合仍为泊松过程。因此计算队列可以视为一个m/m/1队列,其平均任务到达率为所有设备任务到达率之和,即μ
i,t
+μ-i,t
,其中μ-i,t
表示除设备i之外其它设备的总任务到达率。类比式(3)所示的系统时延的概率密度函数,可以计算出零等待策略下串行计算模式的广义信息时效性为:
[0192][0193]
3.2.2面向过程的信息时效性评估
[0194]
串行计算模式下面向过程的信息时效指标,除了由于非线性导致各阶段等待时间和服务时间变量不可分离外,在计算队列,同一设备相邻卸载任务之间也会由于来自其他设备的任务汇聚而出现额外排队现象,使分析更加复杂。
[0195]
仿照式(25),对任意设备i,式(2)中面向过程的信息时效性的一般表达式可以转化为:
[0196][0197]
其中和可以根据si,n-1,t和si,n,c的概率密度函数计算得到。
[0198]
根据全概率公式,可以表示为:
[0199][0200]
关于上式中唯一的未知量w
i,n,c
取决于来自同一设备i的第n-1个任务的系统时间和其它设备汇入的任务两部分。令w

in,c
表示计算队列中来自同一设备i的前一个任务所导致的等待时间,w

in,c
表示两个任务到达间隔内其他设备任务汇聚导致的等待时间。则w
i,n,
c=w

i,n,c
+w

i,n,c
。接下来,我们通过考虑w

in,c
和w

in,c
的四种可能
的组合来分析w
i,n,c

[0201]
(1)w

i,n,c
>0,w

i,n,c
=0:根据式(11)和式(12),可以计算得到此情况下w
i,n,c
的条件概率密度函数为:
[0202][0203]
(2)w

i,n,c
>0,w

i,n,c
>0:由于w

i,n,c
和w

i,n,c
相互独立,w
i,n,c
的条件分布可以转化为:
[0204][0205][0206]
其中卷积第一项即式(32)。
[0207]
下面关注卷积的第二项。已知w

i,n,c
>0,即当设备i的第n个任务到达计算队列时,其前一个任务仍然在队列中,因此在此间隔s
i,n,t
内其他设备汇入的任务都仍在排队。由于来自其他设备的任务到达是速率为μ-i,t
的泊松过程,因此在一段时间y内有k个任务到达的概率为:
[0208][0209]
由于各个任务的计算服务时间是独立的,且均服从平均速率为μc的指数分布,因此可以通过卷积计算k个任务总服务时间的概率密度函数,即:
[0210][0211]
基于以上两式,根据全概率公式可得w

i,n,c
在一段时间y内的条件概率分布为:
[0212][0213]
此外,基于式(34)可知:
[0214][0215]
综上,将式(32)(36)(37)带入式(33),可以得到此种情况下w
i,n,c
的条件分布的数学表达式。在此过程中为了简化计算,我们在不影响相对数值正确性的基础上将式(36)进
行如下放缩:
[0216][0217]
(3)w

i,n,c
=0,w

i,n,c
>0:令mn表示设备i的第n个任务到达计算队列时,队列中积压的其他设备的任务数量,由于w

i,n,c
=0,即s
i,n,t
>t
i,n-1,c
,第n个任务到达时前一个任务已经离开了一段时间,s
i,n,t
期间内其它设备到达的任务可能已有一部分被处理完,因此mn无法直接基于s
i,n,t
获得。而我们注意到在第n-1个任务离开和第n个任务到达之间,计算队列可以看作一个到达率为μ-i,t
的m/m/1队列,当系统稳定时,队列中任务的离开过程与到达过程统计一致,均为平均速率为μ-i,t
的泊松过程,即统计意义上队列长度稳定。因此mn与第n-1个任务离开时计算队列中积压的其他设备任务数量一致。由此,此种情况下w
i,n,c
的条件分布可以转化为:
[0218][0219]
其中积分项可以基于式(36)进行数值计算,而位于分母的概率将在后续计算中抵消。与情况(2)类似,在数值计算过程中,我们同样使用了式(38)所示的简化形式。
[0220]
(4)w

i,n,c
=0,w

i,n,c
=0:仅在此种情况下有w
i,n,c
=0,因此有:
[0221]
p(w
i,m
=0|s
i,n,t
=y)=p(w

i,n,c
=0|s
i,n,t
=y)p(w

i,n,c
=0|w

i,n,c
=0,s
i,n,t
=y)
ꢀꢀꢀ
(40)
[0222]
对于等式右边第一项,仿照式(12)计算可得:
[0223][0224]
对于第二项,在已知w

in,c
=0的前提下,w

i,n,c
=0当且仅当t
i,n-1,c
时间段内没有来自其他设备的任务汇入,因此有:
[0225][0226]
将上面两式相乘即可得到式(40)的数学表达,即此种情况下w
i,n,c
的概率。
[0227]
综合上述四种情况,能够计算出式(31)中未知项的数学表达。具体来说,前三种情况共同组成了w
i,n,c
>0的情况,即:
[0228][0229]
其中三个概率密度函数分别在前三种情况中计算得到如式(32)(33)(39)所示。
[0230]
对于三个概率,以第一个为例,通过条件概率公式可以转化为:
[0231]
p(w

i,n,c
>0,w

i,n,c
=0|s
i,n,t
=y)=p(w

i,n,c
>0|s
i,n,t
=y)p(w

i,n,c
=0|w

i,n,c
>0,s
i,n,t
=y)
ꢀꢀ
(44)
[0232]
其中等式右边的两项可以分别基于式(41)和式(37)计算得到。
[0233]
其余两个概率可以类似计算。注意其中第三个概率可以与其后的概率密度函数(如式(39)所示)进行部分抵消。
[0234]
基于式(40)和式(43),待求项可以表示为:
[0235][0236]
最后,将代入式(31),经由式(31)和式(30)的计算,可以求得零等待策略下,串行计算模式的面向过程的信息时效性上界为:
[0237][0238]
其中,
[0239][0240][0241][0242]
4.时效最优的资源联合分配策略
[0243]
上文3中推导的不同场景、不同信源的信息时效表达式直观地反映了任务生成、传输和计算之间的耦合关系,可以作为新的性能指标来指导系统的整体设计。我们考虑并行计算模式下广义信息时效指标,设计包含三个阶段的计算卸载策略,以优化所有设备之间的信息时效和能耗权衡。
[0244]
4.1系统模型
[0245]
考虑一个边缘计算辅助的计算密集型网联控制系统,如图1中(a)所示,该系统由一个边缘服务器和所连接的k个设备组成,表示设备组成的集合,且有这些设备安置在不同位置的监测点,通过配备的传感器持续监测周围环境状态,生成感知任务并上传到边缘服务器。服务器经过计算提取感知任务中的状态信息,用以估计环境的实时状态,并基于此做出下游任务的控制决策。假设任意设备k的任务生成为平均速率λk的泊松过程,任务卸载使用ofdma技术,即为每个设备预先分配固定的子信道。服务器端通过虚拟机使用预先分配好的计算资源对各个设备的卸载任务进行并行处理。
[0246]
对于任务卸载传输过程,假设在观测时段内信道状态保持不变,且服务器已知各边缘设备的上行信道增益令pk表示设备k的传输功率,其最大值不超过p
max
,βk表示分配给设备k的带宽占总可用带宽的比例。则设备k的传输速率可以表示为:
[0247][0248]
其中b表示总可用带宽,n0表示噪声功率谱密度。
[0249]
令dk表示设备k生成的任务包大小,其服从均值为的指数分布。则设备k的平均任务传输服务率可以表示为:
[0250][0251]
任务卸载所需的能耗为:
[0252][0253]
对于服务器端的任务计算处理过程,令fk表示预分配给设备k的cpu频率,ck表示处理1比特数据所需的cpu周期数。则对于设备k的平均任务计算速率可以表示为:
[0254][0255]
根据已有工作,我们将cpu的功耗建模为p=αf
k3
,其中α为与芯片结构有关的系数。则计算阶段的能耗为:
[0256][0257]
此外,基于式(4),将设备k的信息时效性表示为:
[0258][0259]
4.2系统目标
[0260]
为了在节省传输和计算能耗的同时提高信息时效性,我们以设备成本来量化系统性能和效率。我们将设备成本定义如下:
[0261][0262]
其中ω为连续变量,且ω∈[0,1],用于调整信息时效性和传输计算总能耗之间的权衡关系。
[0263]
本发明的目标是要找到最优的采样策略与资源分配策略来尽量降低系统中所有设备的成本。同时,还需要考虑多个设备间的公平性问题,避免出现为使系统总体成本降低而牺牲个别设备使其成本过高的情况。公平性问题有多种解决方式,本发明中我们通过最小化所有设备中的最大成本,实现系统效率和设备公平的兼顾。该优化问题可表述如下:
[0264][0265]
s.t.(48)-(53)
[0266][0267][0268][0269][0270]
其中,(54a)保证了传输和计算队列的稳定性,(54b)和(54c)反映了有限的带宽和计算资源。
[0271]
4.3策略设计
[0272]
首先,为了解决问题(54)中min-max形式所导致的不可导问题,我们通过引入一个辅助变量τ,将原问题转换为如下等效形式:
[0273][0274][0275]
(48)-(53),(54a)-(54d)
[0276]
问题(55)的求解难点在于约束(55a)中各变量的复杂耦合关系。为了将该式简化,我们引入了一系列辅助变量如此,虽然我们将问题转化为了更容易处理的形式,但由于式(49)中仍存在变量相除的非凸形式,该问题仍然无法直接求解。为了克服这一挑战,我们采用了凹凸过程(convex-concave procedure,cccp)算法。首先,根据式(48)可知因此式(49)可以转化为凸函数差(difference of convex,dc)问题:
[0277][0278]
对于其中的非凸项进一步采用连续凸逼近的方法,在第i轮迭代中,基于上一轮求解出的解空间中的当前点将非凸项线性近似为凸约束:
[0279]
[0280][0281]
则原问题(55)在第i轮迭代中可以近似转化为如下问题:
[0282][0283]
s.t.(48),(50)-(53),(54a)-(54d),(55a),
ꢀꢀ
(57)
[0284]
其中为优化变量集合。
[0285]
在问题(58)中,除(48)和(52)之外,其余约束条件和目标函数均为多项式形式的凸函数。(52)可以通过求解关于的hessian矩阵证明为凸函数。对于(48),根据透视函数的保凸性,其关于变量集合的凹凸性与函数关于变量集合的凹凸性相同,显然为凸函数。由此可证,问题(58)为凸优化问题,可以使用凸优化求解工具(如cvx)进行求解。
[0286]
综上,给定初始可行解在当前解处重复求解问题(58)直至收敛,即可得到最终的资源分配和任务生成策略。具体算法如下所示。
[0287]

技术特征:
1.一种基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,包括以下步骤:s1、构建资源独立分配场景中的广义信息时效性模型:其中,λ为平均任务生成速率,μ
t
为平均任务传输服务率,μ
c
为平均任务计算服务率;s2、计算资源独立分配场景中的广义信息时效性、设备的传输能耗和设备的计算能耗;s3、以设备成本来量化系统性能和效率,建立优化问题为保证公平性的前提下最小化传输和计算能耗,同时最大化信息时效性;求解优化问题,获得最优的采样策略与资源分配策略。2.根据权利要求1所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,步骤s1中,在零等待策略这一特殊模式下,资源独立分配场景中的广义信息时效性的公式为:3.根据权利要求1所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,设备的信息时效性还包括如下几种模型:资源独立分配场景中的面向过程的信息时效性、资源共享场景中的广义信息时效性和资源共享场景中的面向过程的信息时效性。4.根据权利要求3所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,资源独立分配场景中的面向过程的信息时效性的公式为:其中,κ为与回归率相关的结构参数,σ2为观测过程的方差,λ为平均任务生成速率,μ
t
为平均任务传输服务率,μ
c
为平均任务计算服务率;在零等待策略这一特殊模式下,资源独立分配场景中的面向过程的信息时效性的公式为:5.根据权利要求3所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,零等待策略下资源共享场景中的广义信息时效性的公式为:其中μ
i,t
为设备i的平均任务传输服务率,μ-i,t
为其余设备的平均任务传输服务率之和,μ
c
为平均任务计算服务率。6.根据权利要求3所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,零等待策略下资源共享场景中的面向过程的信息时效性的上界为:
其中,其中,其中,κ为与回归率相关的结构参数,σ2为观测过程的方差,μ
i,t
为设备i的平均任务传输服务率,μ-i,t
为其余设备的平均任务传输服务率之和,μ
c
为平均任务计算服务率。7.根据权利要求1所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,步骤s2中资源独立分配场景中的设备k的传输能耗的公式为:其中p
k
表示设备k的传输功率,β
k
表示分配给设备k的带宽占总可用带宽的比例,为设备k的平均传输速率,b表示总可用带宽,n0表示噪声功率谱密度,d
k
表示设备k生成的任务包大小,其服从均值为的指数分布,表示设备组成的集合,h
k
表示边缘设备的上行信道增益;卸载自设备k的任务计算能耗的公式为:其中α为与芯片结构有关的系数,f
k
表示预分配给设备k的cpu频率,c
k
表示处理1比特数据所需的cpu周期数;设备k的广义信息时效性表示为:λ
k
为平均任务生成速率,为平均任务传输服务率,为平均任务计算服务率。
8.根据权利要求1所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,步骤s3中,资源独立分配场景中的设备成本表示为:其中ω为连续变量,且ω∈[0,1],用于调整信息时效性和传输计算总能耗之间的权衡关系,为设备k的传输能耗,为设备的计算能耗。9.根据权利要求1所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:征在于,步骤s3中,资源独立分配场景中的优化问题表示为:其中,c
k
为设备成本。10.根据权利要求9所述的基于信息时效性的网联控制系统感传算联合优化方法,其特征在于,步骤s3的问题求解过程为:引入一个辅助变量τ,将原问题转换为问题2:引入一个辅助变量τ,将原问题转换为问题2:引入一个辅助变量τ,将原问题转换为问题2:
引入一系列辅助变量对问题2进行简化,并且对非凸项进行连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:连续凸逼近,将问题2转换为当前解处的凸优化问题3:
其中为优化变量集合;给定初始可行解在当前解处使用凸优化求解工具重复求解问题3直至收敛,得到最终的资源分配和任务生成策略。

技术总结
本发明公开了一种基于信息时效性的网联控制系统感传算联合优化方法,包括以下步骤:S1、构建资源独立分配场景和资源共享场景中信息时效性模型;S2、计算资源独立分配场景中广义信息时效性、设备的传输能耗和设备的计算能耗;S3、以设备成本来量化系统性能和效率,建立优化问题为保证公平性的前提下最小化传输和计算能耗,同时最大化信息时效性;求解优化问题,获得最优的采样策略与资源分配策略。本发明联合考虑网联控制系统信息流环路中的数据采集、传输和计算三个过程,推导出不同边缘卸载模式下的信息时效价值指标,并基于此设计了感知策略和通信、计算联合资源分配方案,以提高系统整体性能和效率。高系统整体性能和效率。高系统整体性能和效率。


技术研发人员:秦晓琦 李彦霖 马楠 戴金晟 张平
受保护的技术使用者:北京邮电大学
技术研发日:2023.04.26
技术公布日:2023/8/13
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐