基于云边协同的储能电池一致性充放电控制方法及系统
未命名
08-07
阅读:136
评论:0

1.本发明属于充放电控制技术领域,尤其涉及基于云边协同的储能电池一致性充放电控制方法及系统。
背景技术:
2.本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
3.在现代电力系统中,由于人们用电需求越来越大,电网的高峰负荷也越来越大,传统电力系统往往应对。而且这也导致了很多供电设备在非用电高峰期闲置,大大较少了电力系统的设备利用率,使电力公司花费巨大成本。分布式储能系统可以对电力系统中电力进行调度和规划,将发电与用电在时间和空间上分割开,实现非用电高峰期发电,用电高峰期供电的供电策略。分布式储能系统可以有效缓解用电高峰期的供电需求,提高电力系统设备利用效率,降低供电成本。
4.由于分布式储能系统中的储能单元存在差异,储能单元之间存在差异,这会导致储能单元的充放电状态不一致,降低储能系统效率,长此以往,会影响分布式储能系统的容量和寿命,还有出现安全问题的风险。因此,分布式储能系统的一致性控制必要的。
5.传统的一致性控制方法依赖先验数学模型,面对结构复杂、储能单元众多的分布式储能系统难以构建策略模型,同时控制结构复杂,效率低,难以实际应用于分布式储能系统中。同时,传统方法在分布式储能系统进行一致性控制时需要停止工作,这降低了系统工作效率,妨碍工作正常进行。
6.同时随着通信技术不断发展,云端计算、云学习、人工智能等技术逐渐成熟,越来越多电池系统接入云端。如何通过云计算,云边端协调进行分布式储能系统控制,实现对充能系统的快速精确控制,对分布式储能系统的广泛应用有深远作用。
7.因为传统云计算主要以中心云为核心,在面对越来越复杂的储能系统和越来越多的数据时难以做到快速响应,会导致效率低,执行时延过长,无法满足分布式储能系统需求。另外,将中心云作为储能系统的全部数据储存场所,当出现数据安全问题时,所有数据都将面临风险。
技术实现要素:
8.为了解决上述背景技术中存在的技术问题,本发明提供基于云边协同的储能电池一致性充放电控制方法及系统,以分布式储能系统中储能单元的剩余容量为决策变量,针对分布式储能系统这一环境,构建目标优化函数和约束条件,训练多智能体一致性控制模型,进而得出分布式储能系统的一致性控制策略,使控制策略可用于分布式储能系统充放电过程中,实现动态一致性控制。
9.为了实现上述目的,本发明采用如下技术方案:
10.本发明的第一个方面提供基于云边协同的储能电池一致性充放电控制方法,其包
括:
11.获取若干个边缘端上传的分布式储能系统数据;
12.基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;
13.其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。
14.进一步地,所述多智能体一致性控制模型在训练过程中的约束限制条件包括:所有储能单元的放电电流之和等于分布式储能系统的设定放电总电流。
15.进一步地,所述多智能体一致性控制模型在训练过程中的约束限制条件包括:每个储能单元的输出电流不超过最大充放电电流。
16.进一步地,所述多智能体一致性控制模型在训练过程中的奖励函数包括:每个储能单元的剩余容量和分布式储能系统的平均剩余容量之差。
17.进一步地,所述多智能体一致性控制模型在训练过程中的奖励函数包括:分布式储能系统的最大剩余容量和最小剩余容量之差。
18.进一步地,所述多智能体一致性控制模型在训练过程中的奖励函数包括:每个储能单元在两相邻时刻的放电电流之差。
19.进一步地,所述多智能体一致性控制模型在训练过程中,运用近端策略优化算法学习一致性控制策略,并将一致性控制策略传输给各边缘端,以使各边缘端探索一致性控制策略。
20.本发明的第二个方面提供基于云边协同的储能电池一致性充放电控制系统,其包括:
21.数据获取模块,其被配置为:获取若干个边缘端上传的分布式储能系统数据;
22.控制模块,其被配置为:基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;
23.其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。
24.本发明的第三个方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的基于云边协同的储能电池一致性充放电控制方法中的步骤。
25.本发明的第四个方面提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的基于云边协同的储能电池一致性充放电控制方法中的步骤。
26.与现有技术相比,本发明的有益效果是:
27.本发明提供了基于云边协同的储能电池一致性充放电控制方法,其以分布式储能系统中储能单元的剩余容量为决策变量,针对分布式储能系统状态这一环境,构建目标优化函数,并根据分布式储能系统工况建立约束条件;根据目标优化函数和约束条件构建和训练多智能体一致性控制模型,进而得出分布式储能系统的一致性控制策略,使控制策略可用于分布式储能系统充放电过程中,实现动态一致性控制。
附图说明
28.构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
29.图1是本发明实施例一的多智能体控制架构图;
30.图2是本发明实施例一的多智能体一致性控制模型训练架构图;
31.图3是本发明实施例一的静置工况下储能系统一致性控制结果的示意图;
32.图4是本发明实施例一的静置工况下储能系统一致性控制过程中电流变化的示意图;
33.图5是本发明实施例一的放电工况下储能系统一致性控制结果的示意图;
34.图6是本发明实施例一的放电工况下储能系统一致性控制过程中电流变化的示意图;
35.图7是本发明实施例一的充放电工况下储能系统一致性控制结果的示意图。
具体实施方式
36.下面结合附图与实施例对本发明作进一步说明。
37.应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
38.实施例一
39.本实施例提供了基于云边协同的储能电池一致性充放电控制方法,应用于云边协同多智能体控制架构(多智能体系统)中的云端(中心控制器)。多智能体控制采用中心化训练、去中心化执行的结构,即云端接收各边缘端信息,集中学习控制策略,将学习得出的局部控制策略传输给各边缘端,由边缘端控制终端独立执行。云边协同多智能体控制架构包括云端、边缘端(边端/agent/智能体)和分布式储能系统终端。分布式储能系统负责终端采集分布式储能系统各储能单元的荷电状态信息,并将信息传输给边缘端;边缘端接收终端传输信息后,对信息进行预处理后传输给云端;云端接收边缘端数据,训练一致性控制模型并下发给各边缘端;边缘端接收云端一致性控制模型,更新模型并将一致性控制策略传输给终端执行。
40.所诉多智能体架构通过中心控制器接收所有agent(智能体)的数据进行中心化学习,agent再根据中心控制器学习得到的局部策略与环境进行交互,将交互得到的信息传输给中心控制器;如上诉过程重复迭代,达到训练次数要求,得出最后的多智能体强化学习一致性控制策略。
41.具体的,如图1所示,云端获取若干个边缘端通过5g传输上传的预处理后的分布式
储能系统数据(训练数据),并利用预处理后的分布式储能系统数据(即储能系统荷电状态,含有不一致性的边缘端位置,主要是分布式储能系统的荷电状态和电压等),通过多智能体强化学习算法对多智能体一致性控制模型进行集中训练,并通过5g传输将训练好的多智能体一致性控制模型传输到边缘端;边缘端更新多智能体一致性控制模型后,并根据实时的储能系统终端荷电状态数据(主要是终端的荷电状态和电压数据),生成一致性控制策略,即通过控制边端储能单元充放电电流大小,实现各储能单元荷电状态一致。然后通过eth将控制策略下发给分布式储能系统终端执行,执行完成后将分布式储能系统的荷电状态上传至云端,确保系统完成一致性控制。分布式储能系统终端还用于采集分布式储能系统数据并且通过eth上传给边缘端,以使边缘端对分布式储能系统数据进行预处理和一致性检测(主要是对于所有分布式储能系统的soc进行检测),通过电流积分法实时检测分布式储能系统的荷电状态,判断是否分布式储能系统具有不一致性并上传至云端。
42.本实施例提供的基于云边协同的储能电池一致性充放电控制方法,以分布式储能系统中储能单元的剩余容量为决策变量,针对分布式储能系统状态这一环境,构建目标优化函数,并根据分布式储能系统工况建立约束条件。根据目标优化函数和约束条件构建和训练多智能体一致性控制模型,进而得出分布式储能系统的一致性控制策略,使控制策略可用于分布式储能系统充放电过程中,实现动态一致性控制。
43.一致性控制策略模型中,针对分布式储能系统这一工作环境和储能单元的soc这一决策变量,将目标优化函数建模为:
[0044][0045]
其中,n表示分布式储能系统中储能单元的数量,α1和α2分别为目标优化函数两部分的权重值,si为第i个分布式储能单元的soc值,s
mean
为分布式储能系统中全部储能单元的soc平均值,s
max
为储能系统中储能单元的最大soc值,s
min
为分布式储能系统中储能单元的最小soc值。
[0046]
目标优化函数的含义为:针对分布式储能系统,每个agent控制一个储能单元的控制策略;将每个agent的目标优化策略分为两部分,第一部分为优化第i个储能单元soc和分布式储能系统平均soc之差,第二部分为优化储能系统最大soc值与最小soc值之差;通过最小化这两部分的差值,实现分布式储能系统的一致性控制。
[0047]
基于分布式储能系统动态一致性控制要求,即分布式储能系统的一致性控制过程可以与充放电同时进行,不会妨碍储能系统的正常工作,设置一致性控制的约束条件如下:
[0048][0049]
其中,为t时刻分布式储能系统中第i个储能单元的放电电流,为t时刻的分布式储能系统设定的放电总电流。通过约束一致性控制过程中储能单元的放电电流不变,从而使一致性控制过程不影响储能系统正常工作。
[0050]
此外,对于每一个智能体的限制为:t时刻智能体(第i个储能单元)的输出电流不能超过智能体的最大充放电电流,这是基于对每一个电池的保护,即:
[0051]
[0052]
根据上诉目标优化函数和约束条件构建分布式储能系统的一致性控制奖励函数:
[0053]
多智能体系统中每个智能体的奖励函数分开计算,其中每个智能体的奖励函数分为如下几个四个部分:
[0054]
(1)ri为平均差奖励函数,储能单元i的soc和分布式储能系统的平均soc之差,其奖励函数如下:
[0055]ri
=|s
i-s
mean
|
[0056]
其中,si储能单元i的soc,储能系统平均soc值
[0057]
(2)r
global
为全局奖励函数,分布式储能系统的储能单元中最大soc和最小soc之差,其奖励函数如下:
[0058]rglobal
=s
max-s
min
[0059]
其中,s
max
和s
min
分别为最大soc和最小soc值。
[0060]
(3)r
target
为目标奖励函数,即当策略满足一致性控制目标后给智能体的奖励,其奖励函数如下:
[0061][0062]
其中,α3是一个设定系数,这个系数是人为设定的,当强化学习达到目标后给予奖励。
[0063]
(4)r
smoth
为平滑奖励函数,加入该奖励函数可防止一致性控制过程中储能单元的放电电流过大,损害系统寿命,其奖励函数如下:
[0064][0065]
其中,和分别为t和t-1时刻储能单元i的充放电电流值。
[0066]
储能单元i的总奖励函数r如下:
[0067]
r=α1ri+α2r
global
+r
target
+α4r
smooth
[0068]
其中,α1、α2和α4为奖励函数各个部分权重值。
[0069]
针对分布式储能系统,结合奖励函数和约束条件得出多智能体强化学习一致性控制策略模型。一致性控制策略模型如图2所示,一致性控制策略模型的输入为各智能体上传的针对分布式储能系统环境的状态信息,即环境当前状态sk、智能体动作a、当前奖励r和下一时刻状态s
k+1
,运用近端策略优化算法(ppo)结合奖励函数和约束限制条件控制各智能体在环境中探索,通过设置足够的训练迭代次数探索出满足分布式储能系统的一致性控制策略。其中,多智能体系统采用基于ac框架的ctde(centralized training distributed execution)模式,在中心控制器中运用ppo算法学习一致性控制局部策略,将策略传输给各个智能体后,各个智能体在环境中探索,探索过程中心控制器不参与,执行完成后将环境状态再次传输给中心控制器,多次迭代,从而找到最优控制策略。各边缘端探索一致性控制策略是指通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,得到最优的充放电电流以及储能系统的soc值;执行完成后需要将动作以及环境的状态返回给中心控制器,在一致性控制方
面,主要是将充放电电流以及储能系统的soc值传回给中心控制器。
[0070]
本实施例运用近端策略优化强化学习算法(ppo)控制多智能体系统在分布式储能系统中进行探索,并得出一致性控制策略。下面对如何运用ppo训练多智能体系统进行说明:多智能体近端策略优化算法(mappo)训练架构如图2所示,其沿用了actor-critic架构,是一种on-policy算法;由于强化学习训练数据具有马尔科夫性,on-policy算法中用于执行决策的agent与用于探索环境的agent相同,在网络(一致性控制策略模型/actor network)更新参数时,需要花费大量时间采集数据,效率很慢,因此,在实际运用中,ppo算法通过重要性采样方法将on-policy转换为off-policy进行训练。
[0071]
重要性采样(importance sampling)是通过一个分布q去采样数据,运用采样得到的数据计算分布p对于指定函数的期望值。在ppo中的运用具体为:将一个时刻t的网络参数θ
t
固定,并作为actorθ'的参数在环境中探索。采样数据通过重要性权重处理用于更新actorθ中的参数θ。通过重要性采样可将一次采样数据对actorθ参数进行多次更新,大大增加了训练过程的效率。需要注意的是,在重要性采样的过程中,重要性采样只可实现了两组数据的期望相同,但是方差却仍有差距,若参数θ
t
与参数θ的差距太大,在采样次数有限的情况下,会影响训练结果的稳定性。因此需要控制参数θ
t
与参数θ差剧不能太大。因此在可以通过重要性采样将所以在ppo算法中需要添加一个kl散度,从而对参数θ
t
进行约束。kl散度是用于描述θ与θ
t
之间差异的度量,通过在ppo算法的目标损失函数中减去kl散度,并通过神经网络中的梯度下降,可以控制kl散度的大小。
[0072]
云边协同多智能体系统中,分布式储能边端采集分布式储能系统数据并且上传给边缘端,边缘端将数据的预处理,并将处理后的数据传输给云端,云端将数据通过强化学习算法进行集中训练,将训练好的策略模型传输到边缘端,边缘端更新控制策略后将控制策略传输给分布式储能系统终端执行。本发明将分布式储能系统的一致性控制任务分配给云端、边端和终端,与传统云中心控制方法相比大大缓解了中心控制器处理数据过多的问题,提高了数据处理的速度和精度,更加适合分布式储能系统一致性控制这一类短周期、实时、局部性的数据处理。
[0073]
云端包括5g通信模块、分布式储能系统数据库模块、一致性控制模型训练/更新模块。5g通信模块用于与边缘端通信;数据库模块用于接收和存储边缘端传输的分布式储能系统数据;一致性控制模型训练/更新模块用于训练一致性控制模型并将模型下发给边缘端进行更新。
[0074]
边缘端包括数据预处理模块、储能系统一致性控制检测模块和一致性控制模型。数据预处理模块用于对接收的终端数据进行预处理;储能系统一致性控制检测模块用于实时检测储能系统中存储单元是否存在不一致性(因为电池品牌以及构造是不同的,在充放电过程中会因为个体差异造成不同电池的剩余电量有较大差异),即通过电流积分法计算分布式储能系统各储能单元的soc值,并比较其soc值是否存在不一致性,若存在不一致性,则将数据传输给云端一致性控制模型进行一致性控制策略模型训练和更新。本发明通过储能单元的实时soc值来判断储能系统是否具有不一致性。边缘端接收云端下发的一致性控制模型对模型进行更新。
[0075]
储能系统终端包括数据采集模块和控制策略执行模块。数据采集模块用于采集分布式储能系统中储能单元soc数据;控制策略执行模块用于执行一致性控制策略,实现储能
系统一致性控制。
[0076]
为了验证一致性控制模型的效果,分别在静置工况和充放电工况下进行了实验,值得注意的是在上述不同工况下采用的一致性控制方法也是不同的。在静置工况下采用上诉静态一致性控制方法,在充放电工况下采用上述动态一致性控制方法。
[0077]
图3展示的是8个储能系统一致性控制结果,在静止工况下,储能系统充电电流等于放电电流。经过较短时间,分布式储能系统便可以实现一致性控制,soc一致性误差小于1%。
[0078]
图4展示的是一致性充放电过程中电流的变化情况,可以看到初始状态下,soc较高的储能系统放电,soc较低的储能系统充电,最后当储能系统soc归于一致后,系统充放电电流均为0。
[0079]
图5展示的是一致性控制的结果,所有agent的初始值是任意值,不论agent的初始soc是如何变化的,多智能体均可以实现快速一致性控制,并且soc一致性控制结果小于2%。
[0080]
图6展示的是放电工况下一致性控制过程中电流的变化过程,将入smooth函数电流之后,电流不会发生突然变化,只有在接近完成一致性控制的时候,发生一次电流突变,其他时间电流都是稳定的,并且最后完成一致性控制的时候,所有智能体的输出电流是一致的。
[0081]
图7展示的是充放电工况下一致性控制结果,随机选取多个时间节点,更改充电和放电状态和倍率,可以看到经过多个阶段的一致性控制,所有分布式储能系统的soc可以实现完全一致,soc一致性控制误差小于1%。
[0082]
实施例二
[0083]
本实施例提供了基于云边协同的储能电池一致性充放电控制系统,其具体包括:
[0084]
数据获取模块,其被配置为:获取若干个边缘端上传的分布式储能系统数据;
[0085]
控制模块,其被配置为:基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;
[0086]
其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。
[0087]
此处需要说明的是,本实施例中的各个模块与实施例一中的各个步骤一一对应,其具体实施过程相同,此处不再累述。
[0088]
实施例三
[0089]
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述实施例一所述的基于云边协同的储能电池一致性充放电控制方法中的步骤。
[0090]
实施例四
[0091]
本实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述实施例一所述的基于
云边协同的储能电池一致性充放电控制方法中的步骤。
[0092]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
[0093]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0094]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0095]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0096]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)或随机存储记忆体(random accessmemory,ram)等。
[0097]
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
技术特征:
1.基于云边协同的储能电池一致性充放电控制方法,其特征在于,包括:获取若干个边缘端上传的分布式储能系统数据;基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。2.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中的约束限制条件包括:所有储能单元的放电电流之和等于分布式储能系统的设定放电总电流。3.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中的约束限制条件包括:每个储能单元的输出电流不超过最大充放电电流。4.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中的奖励函数包括:每个储能单元的剩余容量和分布式储能系统的平均剩余容量之差。5.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中的奖励函数包括:分布式储能系统的最大剩余容量和最小剩余容量之差。6.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中的奖励函数包括:每个储能单元在两相邻时刻的放电电流之差。7.如权利要求1所述的基于云边协同的储能电池一致性充放电控制方法,其特征在于,所述多智能体一致性控制模型在训练过程中,运用近端策略优化算法学习一致性控制策略,并将一致性控制策略传输给各边缘端,以使各边缘端探索一致性控制策略。8.基于云边协同的储能电池一致性充放电控制系统,其特征在于,包括:数据获取模块,其被配置为:获取若干个边缘端上传的分布式储能系统数据;控制模块,其被配置为:基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一项所述的基于云边协同的储能电池一致性充放电控制方法中的步骤。10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一项所述的基
于云边协同的储能电池一致性充放电控制方法中的步骤。
技术总结
本发明涉及充放电控制技术领域,提供了基于云边协同的储能电池一致性充放电控制方法及系统,包括:获取若干个边缘端上传的分布式储能系统数据;基于分布式储能系统数据,通过多智能体强化学习算法对多智能体一致性控制模型进行训练,并将训练好的多智能体一致性控制模型传输到边缘端,以使边缘端生成一致性控制策略;其中,所述多智能体一致性控制模型在训练过程中,以储能单元的剩余容量为决策变量,通过最小化每个储能单元剩余容量和分布式储能系统平均剩余容量之差、以及最小化分布式储能系统最大剩余容量与最小剩余容量之差,控制各边缘端探索一致性控制策略。用于分布式储能系统充放电过程中,实现动态一致性控制。实现动态一致性控制。实现动态一致性控制。
技术研发人员:张承慧 邱天 侯林飞 商云龙
受保护的技术使用者:山东大学
技术研发日:2023.05.09
技术公布日:2023/8/6
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/