基于区域综合能源站的边缘计算处理系统及任务优化方法与流程

未命名 08-14 阅读:211 评论:0


1.本发明属于区域综合能源系统数据处理技术领域,尤其涉及基于区域综合能源站的边缘计算处理系统及任务优化方法。


背景技术:

2.随着数字牵引新型电力系统建设的大规模铺开,可再生能源不断渗透下,以综合能源站为主体的区域综合能源系统作为解决大电网边缘区域内部多种能源协调运行优化的电网架构方式,已经逐渐成为一种新能源就地消纳与调控的主要方式。但是目前面向区域综合能源站比较突出的问题是随着综合能源站在配网侧运行,会产生海量的多源异构的能源数据,使得时间序列数据的规模呈现指数级增加,而当前基于配网中台的集中式数据处理方式使得将海量数据通过网络方式直接上报到中台,由中台进行统一分类和处理,这个给网络带宽和配网数据中台带来极大的负荷压力,也造成了大量的时间延迟,对于时间敏感性的能源调度来说是不可接受的,逐渐成为阻碍新型电力系统发展的核心问题之一。而近年来逐步应用的边缘计算技术高度契合当前区域综合能源站的技术需求,能够实现在设备侧就地合理控制系统设备、高效利用系统数据。边缘计算技术作为脱胎于第五代通讯技术的产物,旨在网络边缘对终端进行数据处理。随着万物互联时代的到来,接入网络的海量终端设备与爆炸式的数据增长量不断巩固边缘计算技术在物联网应用领域的地位。相较于传统的云计算,边缘计算在节省网络带宽、降低通信延时与保障用户隐私等诸多领域具有明显优势。边缘计算具备调用历史数据与其他种类信息进行日前调度的能力,并同时可利用自身提供的全天候运算能力进行实时控制,将传统综合能源站的日前调度与日内控制功能有机统一,提高区域综合能源站效益。
3.因此,针对配网中台面临的海量数据处理负荷压力,以微网为核心处理单元的分布式去中心化的边缘计算数据处理方式将是未来数字化牵引新型电力系统最主要的解决方法。在微网侧,由于靠近用户需求,同时存在的多源多荷复杂局面,当前针对传统电网辐射式能源供应和需求响应的技术架构已经无法满足要求,迫切需要微网侧尤其围绕区域能源站为核心对象,提出在配网边缘侧海量能源数据的终端硬件架构,数据处理、存储、实时通信等算法协议,以降低边缘侧数据的处理和存储压力,减少数据延时。同时,在网络边缘侧即靠近能源站的各个采集终端前侧,通过部署全新架构的边缘计算设备,并利用数据处理技术,就地实现负荷预测,一方面可大大降低配网中台的负荷压力,提高通信带宽有效性,另一方面可有效提升配网源网荷储协同优化的能力,为后续多能互补的能源调度奠定重要的技术支撑。


技术实现要素:

4.针对现有技术存在的技术问题,本发明提供基于区域综合能源站进行边缘计算处理系统及数据挖掘方法;本发明中边缘计算处理系统降低了硬件开销成本,同时提高区域综合能源站边缘计算系统运行的稳定性;本发明中任务优化方法采用流水线的任务分配优
化机制,该任务优化方法将多个任务按照计算开销、成本、所需资源和最大容忍的延时量建立待处理的队列逐个送入到神经网络处理单元中处理,从而实现单核硬件资源下的处理方式,提高数据处理速度。
5.为了解决现有技术存在问题,本发明采用如下技术方案予以实施:
6.一种基于区域综合能源站进行边缘计算处理系统,所述边缘计算处理系统包括:数据输入模块、数据处理模块、存储模块、通信模块和电源转换模块;
7.所述数据输入模块将区域综合能源站出的模拟流转换为数据信息;
8.所述数据处理模块将数据信息按照时序流水线方式进行任务分配;
9.所述存储模块对任务分配进行存储和调用;
10.所述通信模块将任务分配向服务器传输;
11.所述电源转换模块用于向边缘计算处理系统供电;其中:
12.所述数据处理模块包括处理器、神经网络运算模块、axi总线、内部高速缓存单元和3-dma控制器;所述神经网络运算模块包括输入缓冲单元、中间计算缓冲单元、平均池化单元、控制单元和卷积运算单元构成;其中:
13.所述控制单元主要负责数据运算前的配置,各个模块间的交互和运算过程中的控制;通过所述控制模块将运算结果从卷积运算单元传输至平均池化单元,平均池化模块包含8个池化单元,每个池化单元由三层加法树和数据缓冲构成;经过池化得到1024个分类,将它们存储到输出缓冲区,再经由axi总线传输至外部内存中,最后用maxsoft分类器得出最终结果。
14.进一步,所述卷积运算单元由数据缓冲区、加权寄存器、偏移寄存器、卷积层、特征缓冲区和逻辑控制器构成;所述卷积层包括4个pe单元,形成2组8
×
8的并行卷积加速阵列;所述特征缓冲区由第一特征缓冲区和第二特征缓冲区构成;所述第一特征缓冲区将存储上一层网络的运算结果,所述第二特征缓冲区存储本层网络的运算结果;所述逻辑控制器为时间序列处理器。
15.进一步,所述数据输入模块由模拟量采集单元、数据量采集单元、a/d转换单元和电磁隔离单元构成。
16.进一步,神经网络运算单元为一个neon的gx680架构的gpu可编程软核。
17.进一步,所述数据处理模块为fpga集成电路构成。
18.进一步,所述电源转换模块由ac/dc转换、降压和后备电容电路组成。
19.进一步,神经网络运算模块为neon的gx680架构的gpu可编程软核。
20.为了解决现有技术存在的问题,本发明还可以采用如下技术方案予以实施:
21.一种基于边缘计算处理系统对区域综合能源站数据任务优化方法,包括如下步骤:
22.步骤一:构建区域综合能源站数据任务预设条件;
23.步骤二:根据区域能源站的数据表征划分不同类型数据任务进而构建多周期耦合下的处理任务时序逻辑队列,所述不同数据类型包括时间请求任务tsdp和资源需求任务ntsdp;
24.步骤三:根据不同表征的任务类型按照如下公式构建数据处理模块的优化资源模型:
[0025][0026]
式中:c(t)为在时刻t运算单元对任务处理的总成本;e为运算单元内部pe的编号;c
1e
(t)、c
2e
(t)、c
3e
(t)分别为运算单元内部pe处理任务时产生的计算、延时和通信成本;
[0027]
步骤四:根据不同表征的任务类型按照如下公式构建数据处理模块的优化负荷模型:
[0028]
θa=[pa,wa(t),ta],a∈[1,m]
[0029]
wa(t)=qaua(t)
[0030]
w=[w1(t),w2(t),

,wm(t)]
[0031]
式中:θa为任务a的特征模型;pa为任务a的类型;wa(t)为任务a在时刻t的计算负荷;ta为任务a的延时约束;qa为处理pa类任务时单位数据量的计算负荷;ua(t)为任务a在时刻t的数据量;w为m个任务构成的向量;将m个任务分为m1个tsdp与m2个ntsdp,则m1+m2=m;运算单元首先在满足tsdp的处理需求后,剩余的资源称为剩余资源,剩余资源的数量影响运算单元处理tsdp时的计算延时;
[0032]
步骤五:根据不同表征的任务类型按照如下公式构建数据处理模块的优化成本模型:
[0033][0034][0035][0036]
式中:d
ae
(t)为运算单元处理任务a时所需的时间;f
ae
(t)为运算单元分配给任务a所属缓冲的计算资源,c
1e
(t)为占用运算单元的单位计算资源所需的成本;fe为运算单元的计算资源总量;

为正比符号;式(1)为运算单元分配任务a时应满足的计算资源约束条件;进一步,构建多周期耦合下的处理任务时序逻辑队列过程,包括如下步骤:
[0037]
对于时间请求任务tsdp,根据时间请求按照优先级排列;
[0038]
对于资源需求任务ntsdp,根据计算出任务负荷需求按照大小排列;
[0039]
根据时间请求任务tsdp按照如下公式建立处理时间请求任务延时约束模型:
[0040]
2d
ie
+d
ae
χ
ie
χ
ae
≤t
m1
[0041]
其中:d
ie
表示运算处理单元任务i的所需的时间;d
ae
表示运算处理单元任务a的所需的时间;χ
ie
表示任务i的卡方分布系数;χ
ae
表示任务a的卡方分布系数;t
mi
表示请求任务tsdp的延时约束;
[0042]
根据资源需求任务ntsdp按照如下公式建立处理资源需求任务延时约束模型;
[0043][0044]
其中:d
ee’表示运算处理单元任务e’的所需的时间;χ
ee’表示任务e’的卡方分布系数;t
m2
表示请求任务tsdp的延时约束;
[0045][0046]
上式中:t
max
为数据处理业务的延时容忍度;表示当m1数值等于1或2时候,在t
m1
中取最大值;表示当m1等于3时,t
m1
的极限;
[0047]
根据数据处理任务呈周期性,数据处理模块一次触发的周期为t0至t5,其中,t0为数据处理任务的开始时刻,t5为任务的结束时刻;在时刻t下,任务时序逻辑队列中存在单个任务请求或多个并列任务请求处于处理状态的情况;
[0048]
时刻t下会存在多个任务周期,数据处理模块按照时序逻辑队列形成不同资源负荷空间下的任务队列;通过建立不同时间需求下各类数据处理任务的特征来表征不同类型任务处理时序。
[0049]
本发明提供了如下有益效果:
[0050]
1、本发明涉及的边缘计算系统一种轻量级、模块化、低成本、即插即用的集成电路,该系统利用能源数据在时间序列上的离散和耦合特性以及集成电路内部的并行运算特性,将接收按照数据处理任务分模块、流水线式设计,同时充分考虑软硬件之间的即插即用特性,本发明将模块与模块之间采用高速并行通信,同时模块之间采用异步软开关加以控制,使得新任务的加入和移除不会影响其他任务的执行。
[0051]
2、本发明采用fpga的轻量级、流水线、模块化设计边缘计算系统降低了硬件开销成本,同时提高区域综合能源站边缘计算系统运行的稳定性;解决现有技术中大多数边缘计算终端都是具有多个gpu内核的计算机架构,硬件结构复杂,无法即插即用,同时硬件成本很高,不利于大规模批量化部署的技术问题。同时,本发明解决现有硬件资源受限条件下,传统的短期电负荷预测算法已经无法直接应用,本发明可以实现基于多核gpu处理器的边缘计算多任务分配机制对硬件资源要求高需求,完全直接部署在性能和资源受限的边缘计算终端的技术问题。
[0052]
3、本发明依据区域综合能源站的能源数据在时间序列上的离散耦合特性,提出了基于流水线的任务分配优化机制,将多个任务按照计算开销、成本、所需资源和最大容忍的延时量建立待处理的队列逐个送入到神经网络处理单元中处理,从而实现在快速处理区域综合能源站的数据任务。
[0053]
4、本发明中的神经网络运算单元充分利用了gpu软核的可编程特性,将内部资源进行最大化利用,同时充分考虑了电力数据的离散时间特性和耦合性,将单核的gpu运算按照流水线式进行编排设计,将gpu内部的运算能力得到最大化释放,提高工作效率。
附图说明
[0054]
图1是本发明基于区域综合能源站进行边缘计算处理系统结构示意图;
[0055]
图2是本发明基于区域综合能源站进行边缘计算处理系统中的fpga核心处理模块示意图;
[0056]
图3是本发明基于区域综合能源站进行边缘计算处理系统中的神经网络运算模块示意图;
[0057]
图4是本发明基于区域综合能源站进行边缘计算处理系统中的任务优化模块示意
图;
[0058]
图5是本发明基于区域综合能源站进行边缘计算处理系统中的任务优化方法流程框图。
[0059]
图6是本发明基于区域综合能源站进行边缘计算处理系统中的任务优化方法流程图。
具体实施方式
[0060]
下面结合附图1-6对本发明进行详细描述:
[0061]
1电源转换模块:用于ac/dc转换、降压和后备电容电路组成。addc将110~380v的交流电源转换成48v的直流dc输出。dcdc降压电路将48v dc直流电源降压为15v、10v、5v、3.3v、1.8v、1.5v、1.2v和1v等八个电压,给终端内部各个电路使用。后备电容为0.5f的一个超级电容,通过5v电源给超级电容充电,一旦外部电源出现故障情况下,后备电容输出电流,可继续让终端工作3秒左右时间。同时输出中断信号给fpga处理器,提醒fpga处理器已经进入故障状态,处理器将在收到中断信号后立即进入低功耗模式,将程序内部各个数据和状态保存。
[0062]
2数据输入模块:2-1分为模拟量采集单元、2-2数字量采集单元、2-3a/d转换单元和2-4电磁隔离单元四个部分。其中模拟量采集单元可同步采集8路1~14位精度的电压电流模拟量,数字量采集单元分为rs485、rs232、usb、can、i/o等6种通用工业数字量接口。a/d转换单元是将模拟量转换成数字量,电磁隔离单元是起到外部电路和内部fpga核心电路之间的电气隔离,确保浪涌、脉冲等不会干扰内部核心单元的正常运行。数据输入模块采用即插即用模块式设计,数据协议采用串行异步透传模式,使得数据输入模块的接入和移除不会对fpga核心处理器产生影响。
[0063]
fpga核心处理模块:是整个架构的核心,起到控制、运算、处理等功能。fpga核心模块的内部架构如下图2所示。fpga核心模块分为:3-1处理器、3-2神经网络运算模块、3-3axi总线、3-4内部高速缓存单元和3-5dma控制器五个部分。处理器模块为一个arm cortex-a72核,主要对fpga内部所有单元进行逻辑控制,包括数据输入、预处理、中断、任务调用和分配等,cortex-a72核内部运行的程序为经过裁剪的rt-linux系统。神经网络运算单元为一个neon的gx680架构的gpu可编程软核,软核的最高时钟为1.5g的fpga处理器时钟,即为时间序列处理器是实现数据边缘侧处理的最核心运算单元,由于充分考虑到即插即用、模块化及流水线式设计要求,本发明对软核的设计架构如下图3所示。
[0064]
图3中,卷积运算单元是神经网络运算模块的核心,由n
×
m个pe单元以及特征值缓冲区组成.由于fpga内部共计1800个pe,每个pe负责3
×
3大小的卷积运算,所以最终设计了128个pe,形成2组8
×
8的并行卷积加速阵列。特征缓冲区为双缓冲结构,一个是工作缓冲负责存储上一层网络的运算结果,另一个是结果缓冲负责存储本层网络的运算结果.由于fpga片内存储资源有限,本发明包括每4个pe共享2个缓冲,共计32个特征值缓冲。双缓冲结构使得网络中间运算结果不需要传输到外部存储器,实现了层间数据复用,极大的提升了整个神经网络的运算速度。控制单元主要负责数据运算前的配置,各个单元间的交互和运算过程中的控制。通过控制单元将运算结果从卷积运算模块传输至平均池化单元,平均池化模块包含8个池化单元,每个池化单元由三层加法树和数据缓冲构成.经过池化得到1024
个分类,将它们存储到输出缓冲区,再经由axi总线传输至外部内存中,最后用maxsoft分类器得出最终结果。整个神经网络运算模块充分利用了gpu软核的可编程特性,将内部资源进行最大化利用,同时充分考虑了电力数据的离散时间特性和耦合性,将单核的gpu运算按照流水线式进行编排设计,将gpu内部的运算能力得到最大化释放。
[0065]
4存储模块是一组8gb的ddr4内存和128gb的移动固态硬盘组成。
[0066]
5通信模块:由一个千兆以太网口、一个5g移动通信模组和一个光纤通信口组成,实现和上位机服务器和下位机的通信。
[0067]
本发明采用基于时序流水线式任务分配优化模型过程:
[0068]
步骤一:建立预设条件
[0069]
条件1:为保证数据处理的可靠性,神经网络运算模块内部各pe处理数据量的变化可通过寄存器读取方式实时测得,而且pe数据量的波动满足正态分布,且它们之间相互独立,pe间的相对位置可知。
[0070]
条件2:已知各数据处理任务的单位数据量的计算负荷,并且业务的处理时序逻辑可知。
[0071]
条件3:控制器对运算单元内部为数据缓冲分配的计算资源的时间可忽略不计,缓冲的创建与销毁可实时完成。
[0072]
步骤二:表征不同数据处理任务的类型
[0073]
根据区域能源站的数据来源差异将任务抽象为时间请求任务和资源需求请求两大类,即tsdp(time-sens it ive data protoco l)和ntsdp和(non-time-sens it ive data protoco l)。将所有任务请求都输送到时间序列处理器中,时间序列处理器的处理方式是:对于tsdp,将其排列到最高优先级,并根据时间队列排序,同时计算各自的最高延时忍耐值和资源负荷需求。对于时间不敏感请求,计算出任务负荷需求后,根据负荷需求大小排列。对于tsdp的时间队列处理框图如下图5所示。
[0074]
在神经网络卷积运算单元稳态运行时,前侧输入的数据处理任务呈周期性,图5中能量数据管理业务的一次触发的周期为t0至t5,其中,t0为数据处理任务的开始时刻,t5为任务的结束时刻。由于电力数据tsdp处理时的承接关系,在时刻t下,同时刻处理任务的时序逻辑链中存在单个任务请求或多个并列任务请求处于处理状态的情况。
[0075]
当神经网络卷积运算单元的数据业务请求达到稳态时,时刻t下会存在多个任务周期,如图5中的多周期耦合下的处理时序逻辑链。运算单元为任务分配独立的资源空间,同时不同任务之间解耦并且相互独立,按照时序逻辑链形成不同资源负荷空间下的任务队列。通过建立不同时间需求下各类数据处理任务的特征来表征不同类型任务处理的同时,还需要满足一定的计算资源、延时容忍度和目标函数。
[0076]
步骤三:建立优化模型的目标函数
[0077]
数据处理任务处理需要占用神经网络卷积运算单元的计算资源和通信资源,并产生能耗。由于不同类型任务的计算负荷随处理的数据量发生变化,这些变化在时间维度和空间维度有比较大的差异,导致数据处理与传输过程中占用的计算资源与通信资源都随之发生变化。
[0078]
计算延时约束
[0079]
由于电力能源的很多数据对时间比较敏感,因此处理任务具有最大延时容忍度,
即处理时序逻辑链上各承接部分的延时与各并列部分延时的最大值之和不超过延时容忍度。任务的服务延时主要分为运算单元执行数据上行与指令下行的传输延时和处理数据时产生的计算延时。针对流水线架构下的优先处理任务为tsdp,延时约束模型如下式所示。
[0080]
2d
ie
+d
ae
χ
ie
χ
ae
≤t
m1
[0081]
而对于流水线架构下的非优先处理任务如ntsdp的服务延时,由于和tsdp在处理时序逻辑链的位置不同,导致运算单元内部数据传输方向不同,ntsdp类任务的处理延时约束模型如下式所示:
[0082][0083][0084]
上式中:t
max
为数据处理业务的延时容忍。
[0085]
步骤三:构建优化模型的目标函数,如下式所示:
[0086][0087]
式中:c(t)为在时刻t运算单元对任务处理的总成本;e为运算单元内部pe的编号;分别为运算单元内部pe处理任务时产生的计算、延时和通信成本。
[0088]
步骤四:计算负荷
[0089]
对运算单元计算资源的需求表征为任务的计算负荷。计算负荷的大小与任务类型、处理数据量大小有关,计算公式如下:
[0090]
θa=[pa,wa(t),ta],a∈[1,m]
[0091]
wa(t)=qaua(t)
[0092]
w=[w1)t),w2(t),

,wm(t)]
[0093]
式中:θa为任务a的特征模型;pa为任务a的类型;wa(t)为任务a在时刻t的计算负荷;ta为任务a的延时约束;qa为处理pa类任务时单位数据量的计算负荷;ua(t)为任务a在时刻t的数据量;w为m个任务构成的向量。将m个任务分为m1个tsdp与m2个ntsdp,则m1+m2=m。运算单元首先在满足tsdp的处理需求后,剩余的资源称为剩余资源,剩余资源的数量影响运算单元处理tsdp时的计算延时。
[0094]
步骤五:计算成本
[0095]
在神经网络卷积运算单元中,不同类型的tsdp和ntsdp任务被放置于不同计算缓冲中,并根据任务属性为每个缓存分配一定数量的计算、通信资源,使在优先满足tsdp任务的延时约束条件下为ntsdp提供更多的剩余资源。在实际应用中,由于计算负荷随数据类型而变化,计算成本的表达式为
[0096][0097]
[0098][0099]
式中:d
ae
(t)为运算单元处理任务a时所需的时间;f
ae
(t)为运算单元分配给任务a所属缓冲的计算资源,c
1e
(t)为占用运算单元的单位计算资源所需的成本;fe为运算单元的计算资源总量;

为正比符号;式(1)为运算单元分配任务a时应满足的计算资源约束条件。
[0100]
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。

技术特征:
1.基于边缘计算处理系统对区域综合能源任务优化方法,其特征在于:所述边缘计算处理系统中数据处理模块将数据信息按照时序流水线方式进行任务分配;包括如下步骤:步骤一:构建区域综合能源站数据任务预设条件;步骤二:根据区域能源站的数据表征划分不同类型数据任务进而构建多周期耦合下的处理任务时序逻辑队列,所述不同数据类型包括时间请求任务tsdp和资源需求任务ntsdp;步骤三:根据不同表征的任务类型按照如下公式构建数据处理模块的优化资源模型:式中:c(t)为在时刻t运算单元对任务处理的总成本;e为运算单元内部pe的编号;c
1e
(t)、c
2e
(t)、c
3e
(t)分别为运算单元内部pe处理任务时产生的计算、延时和通信成本;步骤四:根据不同表征的任务类型按照如下公式构建数据处理模块的优化负荷模型:θ
a
=[p
a
,w
a
(t),t
a
],a∈[1,m]w
a
(t)=q
a
u
a
(t)w=[w1(t),w2(t),

,w
m
(t)]式中:θ
a
为任务a的特征模型;p
a
为任务a的类型;wa(t)为任务a在时刻t的计算负荷;t
a
为任务a的延时约束;q
a
为处理p
a
类任务时单位数据量的计算负荷;u
a
(t)为任务a在时刻t的数据量;w为m个任务构成的向量;将m

个任务分为m1个tsdp与m2个ntsdp,则m1+m2=m;运算单元首先在满足tsdp的处理需求后,剩余的资源称为剩余资源,剩余资源的数量影响运算单元处理tsdp时的计算延时;步骤五:根据不同表征的任务类型按照如下公式构建数据处理模块的优化成本模型:步骤五:根据不同表征的任务类型按照如下公式构建数据处理模块的优化成本模型:步骤五:根据不同表征的任务类型按照如下公式构建数据处理模块的优化成本模型:式中:d
ae
(t)为运算单元处理任务a时所需的时间;f
ae
(t)为运算单元分配给任务a所属缓冲的计算资源,c
1e
(t)为占用运算单元的单位计算资源所需的成本;f
e
为运算单元的计算资源总量;

为正比符号;式(1)为运算单元分配任务a时应满足的计算资源约束条件。2.根据权利要求1所述的基于边缘计算处理系统对区域综合能源任务优化方法,其特征在于,构建多周期耦合下的处理任务时序逻辑队列过程,包括如下步骤:对于时间请求任务tsdp,根据时间请求按照优先级排列;对于资源需求任务ntsdp,根据计算出任务负荷需求按照大小排列;根据时间请求任务tsdp按照如下公式建立处理时间请求任务延时约束模型:2d
ie
+d
ae
χ
ie
χ
ae
≤t
mi
其中:d
ie
表示运算处理单元任务i的所需的时间;d
ae
表示运算处理单元任务a的所需的时间;χ
ie
表示任务i的卡方分布系数;χ
ae
表示任务a的卡方分布系数;t
mi
表示请求任务tsdp的延时约束;
根据资源需求任务ntsdp按照如下公式建立处理资源需求任务延时约束模型;其中:d
ee’表示运算处理单元任务e’的所需的时间;χ
ee’表示任务e’的卡方分布系数;t
m2
表示请求任务tsdp的延时约束;上式中:t
max
为数据处理业务的延时容忍度;表示当m1数值等于1或2时候,在t
m1
中取最大值;表示当m1等于3时,t
m1
的极限;根据数据处理任务呈周期性,数据处理模块一次触发的周期为t0至t5,其中,t0为数据处理任务的开始时刻,t5为任务的结束时刻;在时刻t下,任务时序逻辑队列中存在单个任务请求或多个并列任务请求处于处理状态的情况;时刻t下会存在多个任务周期,数据处理模块按照时序逻辑队列形成不同资源负荷空间下的任务队列;通过建立不同时间需求下各类数据处理任务的特征来表征不同类型任务处理时序。3.基于区域综合能源站中任务进行优化的边缘计算处理系统,所述边缘计算处理系统包括:数据输入模块、数据处理模块、存储模块、通信模块和电源转换模块;其特征在于:所述数据输入模块将区域综合能源站出的模拟流转换为数据信息;所述数据处理模块将数据信息按照时序流水线方式进行任务分配;所述存储模块对任务分配进行存储和调用;所述通信模块将任务分配向服务器传输;所述电源转换模块用于向边缘计算处理系统供电;其中:所述数据处理模块包括处理器、神经网络运算模块、axi总线、内所述的基于边缘计算处理系统部高速缓存单元和3-dma控制器;所述神经网络运算模块包括输入缓冲单元、中间计算缓冲单元、平均池化单元、控制单元和卷积运算单元构成;其中:所述控制单元主要负责数据运算前的配置,各个模块间的交互和运算过程中的控制;通过所述控制模块将运算结果从卷积运算单元传输至平均池化单元,所述平均池化模块包含8个池化单元,每个池化单元由三层加法树和数据缓冲构成;经过池化得到1024个分类,将它们存储到输出缓冲区,再经由axi总线传输至外部内存中,最后用maxsoft分类器得出最终结果。4.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:所述卷积运算单元由数据缓冲区、加权寄存器、偏移寄存器、卷积层、特征缓冲区和逻辑控制器构成;所述卷积层包括4个pe单元,形成2组8
×
8的并行卷积加速阵列;所述特征缓冲区由第一特征缓冲区和第二特征缓冲区构成;所述第一特征缓冲区将存储上一层网络的运算结果,所述第二特征缓冲区存储本层网络的运算结果;所述逻辑控制器为1.5g的处理器时钟。5.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:所述数据输入模块由模拟量采集单元、数据量采集单元、a/d转换单元和电磁隔离单元构成。
6.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:所述神经网络运算单元为一个neon的gx680架构的gpu可编程软核。7.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:所述数据处理模块为fpga集成电路构成。8.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:所述电源转换模块由ac/dc转换、降压和后备电容电路组成。9.根据权利要求3所述的基于区域综合能源站中任务进行优化的边缘计算处理系统,其特征在于:神经网络运算模块为neon的gx680架构的gpu可编程软核。

技术总结
本发明公开了基于区域综合能源站的边缘计算处理系统及任务优化方法,所述边缘计算处理系统包括:数据输入模块、数据处理模块、存储模块、通信模块和电源转换模块;所述数据输入模块将区域综合能源站出的模拟流转换为数据信息;所述数据处理模块将数据信息按照时序流水线方式进行任务分配;所述存储模块对任务分配进行存储和调用;所述通信模块将任务分配向服务器传输;所述电源转换模块用于向边缘计算处理系统供电;所述数据处理模块将数据信息按照时序流水线方式进行任务分配;从而将多个任务按照计算开销、成本、所需资源和最大容忍的延时量建立待处理的队列逐个送入到神经网络处理单元中处理,从而实现在快速处理区域综合能源站的数据任务。能源站的数据任务。能源站的数据任务。


技术研发人员:徐石 张教练 蓝勇琴 曹存余 陈伟 林友福 丁锂芬 罗明亮
受保护的技术使用者:国网浙江省电力有限公司杭州市临安区供电公司
技术研发日:2023.04.27
技术公布日:2023/8/13
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐