一种恶劣天气下人机混合驾驶列车的控制方法

未命名 07-03 阅读:102 评论:0


1.本发明涉及交通运输技术领域,特别是一种恶劣天气下人机混合驾驶列车的控制方法。


背景技术:

2.随着智能机器与各类智能终端不断涌现,人与智能机器的交互、混合是未来社会的发展形态。然而,对于许多存在不确定性、脆弱性和开放性问题的情况下,任何智能的机器都无法完全取代人类。这将需要将人类的作用或人的认知模型引入到人工智能系统中,形成混合增强智能的形态。
3.现有列车人机共驾的研究根据人机协同方法目前大体可分为两大类型:第一大类是通过人与机切换控制,在机器自动驾驶系统和人驾驶两者之间相互切换,采用接管方式控制列车;第二大类是人机共享控制,列车驾驶员和机器驾驶自动化系统同时对车辆运动进行控制。对于后者来说,列车人机混合智能共驾通过发挥人机各自优势,是提升智能列车稳定性、安全性和舒适性的可行技术手段。
4.然而,在人机混合增强列车智能驾驶中,人与机器的档位操纵决策易出现冲突,特别对于新驾驶员来说,虽然他们擅于打破一些经验性的列车操纵,在列车档位操纵中具有一定探索性决策,个别新的探索决策对列车驾驶来讲是有益的,但他们由于缺乏驾驶经验,在一些特殊情况,比如遇到大雨、大雾和大雪等恶劣天气情况下,轨道线路设置了临时限速,新驾驶员的视觉和心理难免将会受到影响,新的驾驶员不具备一定的临机处置能力,在人机混合增强智能驾驶中,人与机器的操纵档位决策冲突矛盾会非常明显和突出,为了保证安全,只能作保守性的选择,让列车降速行驶甚至停车处理,不仅严重影响列车的正常运行效率,还降低了列车的准点率和乘坐舒适度,提高了运行能耗和成本。


技术实现要素:

5.针对背景技术的问题,本发明提供一种恶劣天气下人机混合驾驶列车的控制方法,以解决现有技术中人机混合驾驶列车在恶劣天气下容易发生操纵档位决策冲突,影响列车运行效率、准点率和乘坐舒适度,提高了运行能耗和成本的问题。
6.为实现本发明的目的,本发明提供了一种恶劣天气下人机混合驾驶列车的控制方法,其创新点在于:所涉及的硬件包括车载机器操控模块、车载人工操控模块、车载判断模块、车载驾驶主控模块和地面人工操控模块,所述地面人工操控模块设置在地面列控中心,所述地面人工操控模块包括虚拟现实vr系统;所述车载机器操控模块和车载人工操控模块与车载判断模块连接,车载判断模块与车载驾驶主控模块连接,所述车载判断模块与地面人工操控模块通信连接;
7.所述车载机器操控模块能自动向车载判断模块发送操纵档位决策信息;
8.列车上的驾驶员能通过所述车载人工操控模块向车载判断模块发送操纵档位决策信息;
9.地面列控中心的驾驶员能通过所述地面人工操控模块向车载判断模块发送操纵档位决策信息;
10.所述虚拟现实vr系统能同步模拟列车的运行环境和运行状态,所述虚拟现实vr系统还能过滤掉恶劣天气对列车运行环境的干扰信息;
11.所述控制方法包括:
12.当列车行驶的路段ab出现恶劣天气时,
13.一)车载机器操控模块向车载判断模块发送第一操纵档位决策信息,同时列车上的驾驶员通过车载人工操控模块向车载判断模块发送第二操纵档位决策信息;
14.二)车载判断模块对收到的第一操纵档位决策信息和第二操纵档位决策信息进行比较:如果第一操纵档位决策信息和第二操纵档位决策信息相同,则进入步骤三a),否则进入步骤三b);
15.三a)车载判断模块将其中任意一个操纵档位决策信息传输给车载驾驶主控模块,然后进入步骤四);
16.三b)车载判断模块生成操纵档位决策请求并发送给地面人工操控模块,地面人工操控模块收到操纵档位决策请求后向地面列控中心的驾驶员发出请求提示;然后地面列控中心的驾驶员根据虚拟现实vr系统同步模拟的列车运行环境和运行状态进行判断,并向地面人工操控模块输入第三操纵档位决策信息,地面人工操控模块将第三操纵档位决策信息发送给车载判断模块;然后车载判断模块将第三操纵档位决策信息传输给车载驾驶主控模块;然后进入步骤四);
17.四)车载驾驶主控模块根据收到的操纵档位决策信息控制列车运行;返回步骤一)。
18.进一步地,所述车载机器操控模块包括采用强化学习方法得到的智能体。
19.进一步地,所述强化学习涉及的学习环境包括线路静态数据、列车静态数据和列车运行动态数据;所述线路静态数据包括线路坡度值和区间限速值;所述列车静态数据包括列车牵引和制动相关参数;所述列车运行动态数据包括列车当前的位置、速度、加速度和运行时间。
20.进一步地,所述强化学习涉及的奖励函数根据公式一确定;
21.所述公式一为:
[0022][0023]
其中,设列车运行的路段ab由n个步进长度相等的步进区段组成,所述ri为列车在第i 个步进区段运行状态的奖励函数,所述i为1至n的整数;所述为准时性奖励函数,根据公式二确定;所述r
ienergy
为能耗奖励函数,根据公式三确定;所述r
icomfort
为乘坐舒适度奖励函数,根据公式四确定;所述w1、w2和w3分别为r
ienergy
和r
icomfort
的权重系数,w1、 w2和w3为设定值,且w1+w2+w3=1;
[0024]
所述公式二为:
[0025][0026]
其中,所述为列车在第i个步进区段行驶的实际时长;所述t
max
为列车在单个
步进区段行驶的最大时长;所述tr为列车在路段ab上的实际运行时长;所述t为列车在路段ab 上的计划运行时长;
[0027]
所述公式三为:
[0028][0029]
其中,所述ui为列车在第i个步进区段的加速度;所述δd为单个步进区段的长度;所述e
max
为列车在单个步进区段上行驶所需的最大能耗;
[0030]
所述公式四为:
[0031][0032]
其中,所述u
i+1
为列车在第i+1个步进区段的加速度;所述δc
max
为列车的最大运行冲击率。
[0033]
进一步地,所述恶劣天气包括雨、雾和雪。
[0034]
本发明的原理如下:
[0035]
在列车人机混合增强智能驾驶中,人与机器的操纵档位决策容易出现冲突,特别是新上岗不久的驾驶员,在雨、雾和雪等恶劣天气情况下,这种列车人机操纵档位决策的冲突矛盾更为明显,现有技术中,遇到上述情况通常只能采用保守性的档位选择措施,让列车降速运行甚至停车处理,严重影响列车的运行安全、效率和运营成本。
[0036]
本发明通过在列控中心设置地面人工操控模块,创造性地对在线列控系统引入“二次人介入”的方法来解决上述人机操纵档位决策冲突的问题,具体来说,本发明对列车驾驶控制系统进行了两方面的改进:对于线上控制的部分,设置了车载判断模块,该模块能对车载机器操控模块和车载人工操控模块二者发出的操纵档位决策信息进行比较判断;同时,增设了线下控制部分,即地面人工操控模块以及其中的虚拟现实vr系统,地面列控中心的驾驶员可以通过虚拟现实vr系统实现与线上驾驶员同步的模拟驾驶,且能通过地面人工操控模块将操纵档位决策发送到线上实现对列车的实际控制;当车载判断模块发现车载机器操控模块和车载人工操控模块二者的操纵档位决策出现冲突时,可通过地面人工操控模块向列控中心的驾驶员发出介入控制的请求,列控中心的驾驶员收到请求后即可将其当前的操纵档位决策通过地面人工操控模块发送上线,以用于列车当前的实际档位控制。之所以在在线人机操纵档位决策冲突时引入“二次人介入的方式”是基于两方面的原因:首先,由于虚拟现实vr 系统不仅可以实时模拟列车的周围环境和运行状态,还能去除雨、雾和雪等对运行环境的干扰因素,从而提高列车周围环境的可见度,能为地面列控中心的驾驶员提供一个更清晰的虚拟图像,为列车操纵档位决策提供更可靠的判断依据;另一方面,因为有上述硬件系统的设置和控制机制,实际控制中,可为地面列控中心配置较列车上的驾驶员经验更丰富的驾驶员来进行模拟驾驶,这类经验驾驶员通常驾龄更长或者安全驾驶的车次更多,对列车行驶线路的熟悉程度更高,应对各种恶劣天气情况的经验本身就更丰富,加上上述虚拟现实vr系统的环境去噪技术,地面驾驶员应对各种复杂天气更得心应手,因此通常地面驾驶员较列车上的驾驶员和机器做出的决策更为准确和合理。所以,当线上人机
操纵档位决策出现冲突时,通过地面驾驶员的介入,采用其操纵档位决策来控制列车运行,能最大程度地保证列车的正常运行,提高线路运行效率,提高列车运行准点率和乘坐舒适度,同时还能降低能耗和运行成本。
[0037]
由此可见,本发明具有如下的有益效果:采用本发明所述的方法,能在恶劣天气下,当人机混合增强智能驾驶中人与机器的档位操纵决策出现冲突时,实现快速、高效地解除冲突,并为列车输入更合理、更准确的操纵档位决策来控制列车运行,提高了列车运行准点率和乘坐舒适度,降低运行能耗和运行成本。
附图说明
[0038]
本发明的附图说明如下。
[0039]
附图1本发明所涉及硬件的连接示意图。
[0040]
图中:1、车载机器操控模块;2、车载人工操控模块;3、车载判断模块;4、车载驾驶主控模块;5、地面人工操控模块;6、虚拟现实vr系统。
具体实施方式
[0041]
下面结合实施例对本发明作进一步说明。
[0042]
如附图1所示的本发明所涉及的硬件连接结构示意图,包括车载机器操控模块1、车载人工操控模块2、车载判断模块3、车载驾驶主控模块4和地面人工操控模块5,所述地面人工操控模块5设置在地面列控中心,所述地面人工操控模块5包括虚拟现实vr系统6;所述车载机器操控模块1和车载人工操控模块2与车载判断模块3连接,车载判断模块3与车载驾驶主控模块4连接,所述车载判断模块3与地面人工操控模块5通信连接;
[0043]
所述车载机器操控模块1能自动向车载判断模块3发送操纵档位决策信息;
[0044]
列车上的驾驶员能通过所述车载人工操控模块2向车载判断模块3发送操纵档位决策信息;
[0045]
地面列控中心的驾驶员能通过所述地面人工操控模块5向车载判断模块3发送操纵档位决策信息;
[0046]
所述虚拟现实vr系统6能同步模拟列车的运行环境和运行状态,所述虚拟现实vr系统6还能过滤掉恶劣天气对列车运行环境的干扰信息,以便为进行模拟驾驶的驾驶员提供更为清晰的列车运行环境信息;
[0047]
所述控制方法包括:
[0048]
当列车行驶的路段ab出现恶劣天气时,
[0049]
一)车载机器操控模块1向车载判断模块3发送第一操纵档位决策信息,同时列车上的驾驶员通过车载人工操控模块2向车载判断模块3发送第二操纵档位决策信息;
[0050]
二)车载判断模块3对收到的第一操纵档位决策信息和第二操纵档位决策信息进行比较:如果第一操纵档位决策信息和第二操纵档位决策信息相同,则进入步骤三a),否则进入步骤三b);
[0051]
三a)车载判断模块3将其中任意一个操纵档位决策信息传输给车载驾驶主控模块4,然后进入步骤四);
[0052]
三b)车载判断模块3生成操纵档位决策请求并发送给地面人工操控模块5,地面人
工操控模块5收到操纵档位决策请求后向地面列控中心的驾驶员发出请求提示;然后地面列控中心的驾驶员根据虚拟现实vr系统6同步模拟的列车运行环境和运行状态信息进行判断,并向地面人工操控模块5输入第三操纵档位决策信息,地面人工操控模块5将第三操纵档位决策信息发送给车载判断模块3;然后车载判断模块3将第三操纵档位决策信息传输给车载驾驶主控模块4;然后进入步骤四);为了得到更为合理准确的第三操纵档位决策,通常地面列控中心应安排较列车上的驾驶员经验更丰富的驾驶员来模拟操作,这里所说的经验,可以根据安全驾驶年限和安全驾驶车次的数量来衡量;
[0053]
四)车载驾驶主控模块4根据收到的操纵档位决策信息控制列车运行;返回步骤一)。
[0054]
本技术所述恶劣天气主要包括但不限于雨、雾和雪等天气环境。
[0055]
为了使车载机器操控模块输出的操纵档位决策更为合理、准确,本技术所述车载机器操控模块1包括采用强化学习方法得到的智能体。所述强化学习涉及的学习环境包括线路静态数据、列车静态数据和列车运行动态数据;所述线路静态数据包括线路坡度值和区间限速值;所述列车静态数据包括列车牵引和制动相关参数;所述列车运行动态数据包括列车当前的位置、速度、加速度和运行时间。所述强化学习涉及的奖励函数根据公式一确定;
[0056]
所述公式一为:
[0057][0058]
其中,设列车运行的路段ab由n个步进长度相等的步进区段组成,所述ri为列车在第i 个步进区段运行状态的奖励函数,所述i为1至n的整数;所述为准时性奖励函数,根据公式二确定;所述r
ienergy
为能耗奖励函数,根据公式三确定;所述r
icomfort
为乘坐舒适度奖励函数,根据公式四确定;所述w1、w2和w3分别为r
ienergy
和r
icomfort
的权重系数,w1、 w2和w3为设定值,且w1+w2+w3=1;
[0059]
所述公式二为:
[0060][0061]
其中,所述为列车在第i个步进区段行驶的实际时长;所述t
max
为列车在单个步进区段行驶的最大时长;所述tr为列车在路段ab上的实际运行时长;所述t为列车在路段ab 上的计划运行时长;
[0062]
所述公式三为:
[0063][0064]
其中,所述ui为列车在第i个步进区段的加速度;所述δd为单个步进区段的长度;所述e
max
为列车在单个步进区段上行驶所需的最大能耗;
[0065]
所述公式四为:
[0066][0067]
其中,所述u
i+1
为列车在第i+1个步进区段的加速度;所述δc
max
为列车的最大运行冲击率。
[0068]
本发明中应用到的强化学习理论为现有技术中十分常见的处理手段或计算方法,相关的内容,本领域技术人员可从现有技术的相关文献中获取。

技术特征:
1.一种恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所涉及的硬件包括车载机器操控模块、车载人工操控模块、车载判断模块、车载驾驶主控模块和地面人工操控模块,所述地面人工操控模块设置在地面列控中心,所述地面人工操控模块包括虚拟现实vr系统;所述车载机器操控模块和车载人工操控模块与车载判断模块连接,车载判断模块与车载驾驶主控模块连接,所述车载判断模块与地面人工操控模块通信连接;所述车载机器操控模块能自动向车载判断模块发送操纵档位决策信息;列车上的驾驶员能通过所述车载人工操控模块向车载判断模块发送操纵档位决策信息;地面列控中心的驾驶员能通过所述地面人工操控模块向车载判断模块发送操纵档位决策信息;所述虚拟现实vr系统能同步模拟列车的运行环境和运行状态,所述虚拟现实vr系统还能过滤掉恶劣天气对列车运行环境的干扰信息;所述控制方法包括:当列车行驶的路段ab出现恶劣天气时,一)车载机器操控模块向车载判断模块发送第一操纵档位决策信息,同时列车上的驾驶员通过车载人工操控模块向车载判断模块发送第二操纵档位决策信息;二)车载判断模块对收到的第一操纵档位决策信息和第二操纵档位决策信息进行比较:如果第一操纵档位决策信息和第二操纵档位决策信息相同,则进入步骤三a),否则进入步骤三b);三a)车载判断模块将其中任意一个操纵档位决策信息传输给车载驾驶主控模块,然后进入步骤四);三b)车载判断模块生成操纵档位决策请求并发送给地面人工操控模块,地面人工操控模块收到操纵档位决策请求后向地面列控中心的驾驶员发出请求提示;然后地面列控中心的驾驶员根据虚拟现实vr系统同步模拟的列车运行环境和运行状态信息进行判断,并向地面人工操控模块输入第三操纵档位决策信息,地面人工操控模块将第三操纵档位决策信息发送给车载判断模块;然后车载判断模块将第三操纵档位决策信息传输给车载驾驶主控模块;然后进入步骤四);四)车载驾驶主控模块根据收到的操纵档位决策信息控制列车运行;返回步骤一)。2.如权利要求1所述的恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所述车载机器操控模块包括采用强化学习方法得到的智能体。3.如权利要求2所述的恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所述强化学习涉及的学习环境包括线路静态数据、列车静态数据和列车运行动态数据;所述线路静态数据包括线路坡度值和区间限速值;所述列车静态数据包括列车牵引和制动相关参数;所述列车运行动态数据包括列车当前的位置、速度、加速度和运行时间。4.如权利要求2或3所述的恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所述强化学习涉及的奖励函数根据公式一确定;所述公式一为:
其中,设列车运行的路段ab由n个步进长度相等的步进区段组成,所述r
i
为列车在第i个步进区段运行状态的奖励函数,所述i为1至n的整数;所述为准时性奖励函数,根据公式二确定;所述r
ienergy
为能耗奖励函数,根据公式三确定;所述r
icomfort
为乘坐舒适度奖励函数,根据公式四确定;所述w1、w2和w3分别为r
ienergy
和r
icomfort
的权重系数,w1、w2和w3为设定值,且w1+w2+w3=1;所述公式二为:其中,所述为列车在第i个步进区段行驶的实际时长;所述t
max
为列车在单个步进区段行驶的最大时长;所述t
r
为列车在路段ab上的实际运行时长;所述t为列车在路段ab上的计划运行时长;所述公式三为:其中,所述u
i
为列车在第i个步进区段的加速度;所述δd为单个步进区段的长度;所述e
max
为列车在单个步进区段上行驶所需的最大能耗;所述公式四为:其中,所述u
i+1
为列车在第i+1个步进区段的加速度;所述δc
max
为列车的最大运行冲击率。5.如权利要求1至3任意一项所述的恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所述恶劣天气包括雨、雾和雪。

技术总结
本发明提供了一种恶劣天气下人机混合驾驶列车的控制方法,其特征在于:所涉及的硬件包括车载机器操控模块、车载人工操控模块、车载判断模块、车载驾驶主控模块和地面人工操控模块,所述地面人工操控模块设置在地面列控中心,所述地面人工操控模块包括虚拟现实VR系统;所述控制方法包括:当车载机器操控模块和车载驾驶员车载人工操控模块做出的操纵档位决策发生冲突时,即请求地面驾驶员通过地面人工操控模块进行介入,采用地面驾驶员的操纵档位决策来控制列车的运行。采用本发明所述的控制方法解决操纵档位决策冲突效率高,能提高列车的准点率和乘坐舒适度,降低能耗和运行成本。本。本。


技术研发人员:徐凯 夏智超 吴仕勋 杨建喜 蓝章礼 张淼
受保护的技术使用者:重庆交通大学
技术研发日:2022.12.05
技术公布日:2023/3/7
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐