虚拟场景生成方法及装置与流程

未命名 09-15 阅读:70 评论:0


1.本技术属于虚拟场景构建领域,尤其涉及一种虚拟场景生成方法及装置。


背景技术:

2.目前,通常采用仿真测试、场地测试和道路测试来对智能驾驶的感知、决策和执行算法进行测试。由于场地测试与道路测试均是针对实车进行测试,存在覆盖的场景工况有限的问题,而仿真测试可以很好地弥补实车测试的不足,仿真测试除了场景覆盖度高外,还可以针对智能驾驶算法、软件、硬件、子系统、整车等不同层级的测试对象,形成全链条测试。因此,目前仿真测试成为智能驾驶中的主要测试方式。在采用仿真测试进行测试时,需要构建仿真所需的虚拟场景。
3.现有方案中,通常是利用激光雷达、摄像头、高精定位系统和其他传感器组成的感知系统采集道路数据,由感知算法输出交通参与者的运动情况、道路标识以及其它场景需要的主要要素,然后,通过自动转化算法自动化地构建虚拟场景。
4.但是,上述通过传感器构建虚拟场景的方法对传感器精度和感知算法的精度都有非常高的要求,需要使用高精度传感器才可以实现,成本较高。


技术实现要素:

5.本技术实施例提供一种虚拟场景生成方法、装置、设备、存储介质及程序,利用低成本的智能摄像头和定位装置结合卫星地图和osm(open street map,公开地图)快速自动化构建虚拟场景,有效降低了虚拟场景构建的成本。
6.第一方面,本技术实施例提供一种虚拟场景生成方法,包括:
7.利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息;
8.对多组数据进行场景分类,得到至少一个场景对应的场景切片数据;
9.针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据;
10.针对每个场景,将场景对应的道路场景数据与场景对应的场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。
11.作为一种可能的实现方式,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据之前,方法还包括:
12.对多组数据进行数据清洗,得到多组有效数据;
13.对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,包括:
14.对多组有效数据进行场景分类,得到至少一个场景对应的场景切片数据。
15.作为一种可能的实现方式,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,包括:
16.针对每组数据,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型;
17.按照道路类型对多组数据进行分类划分,得到至少一个数据分组,其中相同数据分组中的数据对应同一道路类型,一种道路类型对应一个场景;
18.针对每个场景,将场景对应的数据分组中的数据作为场景对应的场景切片数据。
19.作为一种可能的实现方式,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据,包括:
20.获取卫星地图中与场景切片数据中的定位信息对应的卫星影像数据;
21.获取osm中与场景切片数据中的定位信息对应的osm地图数据;
22.提取卫星影像数据中的道路特征信息,道路特征信息包含路网栅格数据和路网栅格数据中的道路交叉点;
23.根据道路特征信息和osm地图数据中的定位信息,生成具备定位信息的道路路网数据;
24.基于场景切片数据中的车道线感知信息、道路特征信息和osm地图数据,生成路面信息数据;
25.对道路路网数据和路面信息数据进行融合,得到场景对应的具备车道线细节的道路场景数据。
26.作为一种可能的实现方式,提取卫星影像数据中的道路特征信息,包括:
27.将卫星影像数据输入栅格数据提取模型,得到模型输出的与卫星影像数据对应的路网栅格数据;
28.对路网栅格数据进行角点检测,得到路网栅格数据中的道路交叉点。
29.作为一种可能的实现方式,根据道路特征信息和osm地图数据中的定位信息,生成具备定位信息的道路路网数据,包括:
30.从osm地图数据中获取与道路交叉点对应的定位坐标;
31.将定位坐标映射至路网栅格数据,得到具备定位信息的道路路网数据。
32.作为一种可能的实现方式,基于场景切片数据中的车道线感知信息、道路特征信息和osm地图数据,生成路面信息数据,包括:
33.获取与车道线感知信息对应的车辆运动信息;
34.根据车辆运动信息对车道线感知信息进行补偿修正,得到详细道路信息;
35.基于道路路网数据中的路网栅格数据和道路交叉点,将详细道路信息与道路路网数据进行匹配融合,得到路面信息数据。
36.作为一种可能的实现方式,对道路路网数据和路面信息数据进行融合,得到场景对应的具备车道线细节的道路场景数据,包括:
37.对道路路网数据和路面信息数据进行时间对齐;
38.时间对齐后,针对每两个相邻的时间点,确定两个相邻的时间点对应的定位信息之间的欧式距离和时间间隔;
39.根据欧式距离和时间间隔,确定两个相邻的时间点对应的车速计算值;
40.获取两个相邻的时间点对应的车速实际值;
41.响应于车速计算值与车速实际值的差值大于第二阈值,确定两个相邻的时间点为待剔除时间点;
42.剔除道路路网数据和路面信息数据中与待剔除时间点对应的数据;
43.剔除完成后,对道路路网数据和路面信息数据进行融合,得到场景对应的道路场景数据。
44.作为一种可能的实现方式,将场景对应的道路场景数据与场景对应的场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景,包括:
45.通过线性插值和三次多项式拟合方法对道路场景数据中的定位信息进行拟合,在道路场景数据中形成行车轨迹;
46.按照采集数据的时间线对场景切片数据中的障碍物感知信息进行跟踪,得到动态的障碍物感知信息;
47.将动态的障碍物感知信息映射至包含行车轨迹的道路场景数据上,生成与场景对应的动态的虚拟场景。
48.第二方面,本技术实施例还提供了一种虚拟场景生成装置,包括:
49.数据采集模块,用于利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息;
50.场景分类模块,用于对多组数据进行场景分类,得到至少一个场景对应的场景切片数据;
51.道路场景数据生成模块,用于针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据;
52.虚拟场景生成模块,用于针对每个场景,将场景对应的道路场景数据与场景对应的场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。
53.第三方面,本技术实施例还提供了一种电子设备,所述设备包括:处理器以及存储有计算机程序指令的存储器;
54.所述处理器执行所述计算机程序指令时实现如方面所述的虚拟场景生成方法。
55.第四方面,本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如方面所述的虚拟场景生成方法。
56.第五方面,本技术实施例还提供了一种计算机程序产品,所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行如方面所述的虚拟场景生成方法。
57.本技术实施例的虚拟场景生成方法、装置、设备、存储介质及程序,利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据,将道路场景
数据与场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。根据本技术实施例,通过成本较低的智能摄像头和定位装置结合卫星地图和osm即可快速自动化构建虚拟场景,相比于现有技术,有效降低了成本。
附图说明
58.为了更清楚地说明本技术实施例的技术方案,下面将对本技术实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
59.图1是本技术实施例提供的虚拟场景生成方法的流程示意图;
60.图2是本技术实施例提供的标定板放置位置的示意图;
61.图3是本技术实施例提供的s13的实现方式的流程示意图;
62.图4是本技术实施例提供的利用栅格数据提取模型对卫星影像数据进行预测的示意图;
63.图5是本技术实施例提供的道路路网数据生成过程中的特征匹配示意图;
64.图6是本技术实施例提供的s35的实现方式的流程示意图;
65.图7是本技术实施例提供的一种优选的构建目标场景对应的虚拟场景的方法示意图;
66.图8是本技术实施例提供的路面信息数据生成过程中的特征匹配的示意图;
67.图9是本技术实施例提供的虚拟场景生成装置的结构示意图;
68.图10是本技术实施例提供的电子设备的结构示意图。
具体实施方式
69.下面将详细描述本技术的各个方面的特征和示例性实施例,为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本技术进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本技术,而不是限定本技术。对于本领域技术人员来说,本技术可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本技术的示例来提供对本技术更好的理解。
70.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
71.在阐述本技术实施例所提供的技术方案之前,为了便于对本技术实施例理解,本技术首先对现有技术中存在的问题进行具体说明:
72.如前所述,目前智能驾驶仿真测试中,在构建虚拟场景时,需要采用高精度传感器,而高精度传感器通常价格较高,因此使得虚拟场景的构建成本较高。
73.为了解决上述问题,本技术实施例提供了一种智能驾驶虚拟场景生成方法、装置、
设备、存储介质及程序。
74.下面首先对本技术实施例提供的智能驾驶虚拟场景生成方法进行说明。
75.参见图1,为本技术实施例提供的一种智能驾驶虚拟场景生成方法的流程示意图,如图1所示,该方法可以包括如下步骤s11-s15。
76.s11.利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,其中,道路信息包括车道线感知信息和障碍物感知信息。
77.其中车道线感知信息可以包括道路中车道线的位置、几何形状及数量等车道线信息,障碍物感知信息可以包括交通参与者的位置、形状、数量等信息,其中交通参数与可以包括汽车、行人等目标物。
78.在实际应用中,可以预先在车辆上安装前向智能摄像头和定位装置,其中前向智能摄像头和定位装置的型号、类型等可以根据实际情况设置。基于此,在车辆行驶过程中,可以通过定位装置实时采集车辆的定位信息,通过前向智能摄像头实时获取车辆前方的视频图像,并从视频图像中检测识别出车辆前方道路的道路信息。其中,道路信息除了包括车道线感知信息和障碍物感知信息之外,还可以包括其他等能够体现道路细节的信息,本实施例对此不作具体限定。作为一个示例,前向智能摄像头可以为具备感知和识别能力的感知型摄像头,例如结构化摄像头。结构化摄像头为采用了结构化光源技术的摄像头,这种技术通过在摄像头拍摄目标时,从特定的角度投射点阵、梯形、矩形等形状的结构化光源,从而形成一种类似于编码的图案,摄像头捕捉到这些图案后,通过对图案的解码,可以得到目标物体表面的精确三维结构信息。基于此,利用结构化摄像头采集车辆前方的道路图像,可以得到道路表面的精确三维结构信息,进而准确的识别出其中的车道线和障碍物等,进而得到准确的车道线感知信息和障碍物感知信息等道路信息。基于结构化摄像头可以快速提取出车辆前方的道路信息,有效提升了工作效率。
79.作为一个示例,定位装置可以包括位置精度
±
5m的gps(global positioning system,全球定位系统)。
80.s12.对多组有效数据进行场景分类,得到至少一个场景对应的场景切片数据。
81.多组有效数据中通常包含多个场景对应的数据,基于场景对有效数据进行分类,可以将同一场景对应的有效数据划分为同一场景切片数据,将不同场景对应的有效数据划分为不同场景切片数据。
82.其中,划分所依据的场景,可以根据实际情况设置。
83.s13.针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据。
84.s14.针对每个场景,将场景对应的道路场景数据与场景对应的场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。
85.本技术实施例提供的一种虚拟场景生成方法,利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据
融合,得到场景对应的具备车道线细节的道路场景数据,将道路场景数据与场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。根据本技术实施例,通过成本较低的智能摄像头和定位装置结合卫星地图和osm即可快速自动化构建虚拟场景,相比于现有技术,有效降低了成本。
86.此外,传统的构建虚拟场景的方法,往往需要使用激光雷达,而目前很多量产车中并未安装激光雷达,这就使得在构建车辆对应的虚拟场景时还需要先在车辆中设置激光雷达,而由于激光雷达价格较高,车企中可用的激光雷达的数量比较有限,这就导致可能需要等待其他车辆使用完成后才能使用,无疑降低了虚拟场景的构建效率。而本技术实施例,利用车辆中普遍安装的智能摄像头和定位装置构建虚拟场景,无需等待,有效提高了虚拟场景的构建效率,从而可以加速智能驾驶算法的开发验证速度。
87.进一步的,道路中车道线的位置、几何形状及数量等车道线信息,是驾驶场景中较为关键的信息,车辆的行驶行为与之有着密切的关系。传统的利用osm构建虚拟场景的方式,通常是通过定位信息直接获取osm地图数据进行虚拟场景的构建,使得最终生成的虚拟场景中缺乏有效的车道线信息。而本技术实施例,通过前向智能摄像头获取了车道线感知信息、障碍物感知信息等与道路细节相关的信息,通过与卫星地图和osm地图进行多源地图融合,生成具备车道线细节的道路场景数据,有效地补充了osm中缺乏的车道线信息。
88.在一些实施例中,为了保证前向智能摄像头和定位装置可以采集到准确的数据,可以采用下述方式对智能摄像头和定位装置进行安装和标定:
89.将智能摄像头安装于车辆前挡风玻璃的中心,将定位装置水平安装在车辆中控台靠近副驾驶a柱的位置。
90.准备匹配智能摄像头的专用标定板对智能摄像头的内参进行标定。在标定时,设置标定板底部距离地面90cm左右,使得标定板中心的高度与智能摄像头中心的高度基本一致。标定板要保持竖直,并且标定板的中心与车辆中心尽量保持一致。其中,标定板可以分两次放置,两次放置的位置不同。如图2所示,第一次安置位置可以为紧贴车辆前保险杠处,第二次安置位置可以为距离车辆前保险杠1m处。
91.对智能摄像头和定位装置的外参进行标定。在标定时,可以使用激光测距仪分别量取智能摄像头距离地面的高度、智能摄像头距离前保险杠的水平距离、两侧车轮最外侧间距、智能摄像头距离挡风玻璃边缘左右侧的距离、车辆高度、定位装置距离车辆前保险杠的水平距离、定位装置距离挡风玻璃边缘左右侧的距离等,采用张正友棋盘格法,进行智能摄像头的外参解算,得到相机的旋转矩阵和平移矩阵。
92.标定完成后,检查智能摄像头的输出结果是否在误差允许范围内,若在误差允许范围内则确定智能摄像头的输出结果满足采集要求,否则重复标定直至满足采集要求,其中误差允许范围可以根据实际精度需求来设定。
93.在确定智能摄像头的输出满足采集要求后,即可将智能摄像头的输出接入到数据采集软件上,从而采集车辆行驶过程中智能摄像头记录的道路信息。
94.在一些实施例中,s11中采集到的多组数据中可能包含噪声数据,而噪声数据通常会对最终构建的虚拟场景造成不良影响,因此,为了保证最终构建的虚拟场景的可靠性,在s12之前,可以先对s11中采集到的多组数据进行数据清洗,去除其中的噪声数据,得到有效数据。相应的,在s12中,可以对多组有效数据进行场景分类,得到至少一个场景对应的场景
切片数据。
95.其中,对多组数据进行数据清洗可以包括:
96.采用限幅滤波法,提取多组数据中对应的置信度大于第一阈值的第一数据,对第一数据进行平滑滤波得到有效数据。其中,第一阈值可以根据实际情况设置,例如可以为0.9。
97.通常,智能摄像头记录的道路信息中包含道路信息对应的置信度数值,因此,针对每组数据,可以将智能摄像头输出的与该组数据中的道路信息对应的置信度,作为该组数据对应的置信度。
98.在一些实施例中,在s13中可以根据数据对应的道路类型对多组数据进行场景分类,其中,一种道路类型对应一个场景,道路类型可以根据实际情况设置,例如可以包括高速道路、普通道路、直道、弯道等。在根据数据对应的道路类型对多组数据进行场景分类采用执行如下步骤:
99.针对每组数据,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型,按照道路类型对多组数据进行分类划分,得到至少一个数据分组,其中同一数据分组中的数据对应同一道路类型,因为一个道路类型对应一个场景,所以分类后的一个数据分组对应一个场景,因此针对每个场景,将场景对应的数据分组中的数据作为场景对应的场景切片数据即可。
100.作为一种示例,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型,可以包括:
101.利用osm确定定位信息对应的道路类型,将定位信息对应的道路类型作为数据对应的道路类型。
102.其中,利用osm确定定位信息对应的道路类型已是现有成熟技术,此处不再过多描述。采用上述方式可以只需将定位信息输入至osm即可得到对应的道路类型,易于实现,效率高。
103.作为另一种示例,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型,可以包括:
104.对车道线感知信息进行逻辑判断,确定车道线感知信息对应的道路类型,将车道线感知信息对应的道路类型作为数据对应的道路类型。
105.其中,用于逻辑判断的逻辑可以预先根据不同道路类型对应的车道线信息的区别设置,逻辑的数量可以为一个或多个。
106.示例性的,高速道路的车道线数量通常为3,因此,逻辑可以包括若车道线感知信息中包含的车道线数量为3,则确定车道线感知信息对应的道路类型为高速道路等。
107.基于车道线感知信息确定数据的道路类型,可以避免由于道路更新而osm未更新导致的确定出的道路类型不准的问题。
108.作为另一种示例,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型,可以包括:
109.根据定位信息对应的道路类型和车道线感知信息对应的道路类型共同确定数据对应的道路类型。例如,可以设置一定的逻辑,确定在什么情况下将定位信息对应的道路类型作为数据对应的道路类型,在什么情况下将车道线感知信息对应的道路类型作为数据对
应的道路类型。
110.通过上述方式,可以进一步保证确定出的道路类型的准确性。通常,s11中采集的多组数据为时序数据,每组数据分别对应一个时间戳,基于此,在按照道路类型对多组数据进行分类划分时,可以包括:
111.针对每种道路类型,根据该道路类型对应的数据的时间戳,确定该道路类型对应的至少一个时间片段,针对每个时间片段,根据该时间片段的开始时间和结束时间,从时序数据中获取该时间片段内的所有数据,将获取的数据作为该道路类型对应的数据。
112.同理,若在进行场景划分之前,进行了数据清洗,则在对多组有效数据进行场景分类时,采用的方式与直接对多组数据进行场景分类的方式一致,为避免重复,不再赘述。
113.在得到场景对应的场景切片数据后,即可针对各场景进行虚拟场景构建。
114.在一些实施例中,针对任一场景,如图3所示,将该场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到该场景对应的具备车道线细节的道路场景数据,可以包括如下步骤:
115.s31.获取卫星地图中与场景切片数据中的定位信息对应的卫星影像数据;
116.s32.获取osm中与场景切片数据中的定位信息对应的osm地图数据;
117.s33.提取卫星影像数据中的道路特征信息,道路特征信息包含路网栅格数据和路网栅格数据中的道路交叉点;
118.s34.根据道路特征信息和osm地图数据中的定位信息,生成具备定位信息的道路路网数据;
119.s35.基于场景切片数据中的车道线感知信息、道路特征信息和osm地图数据,生成路面信息数据;
120.s36.对道路路网数据和路面信息数据进行融合,得到场景对应的具备车道线细节的道路场景数据。
121.其中,s31和s32可以并行执行,s34和s35可以并行执行。
122.在本技术实施例中,卫星影像数据主要被用于提取与场景切片数据对应的路网栅格数据、道路交叉点等道路特征信息,其中,路网栅格数据可以体现卫星地图中的道路中心线,道路交叉点可以体现卫星地图中的路口。
123.将基于卫星影像数据提取到的道路特征信息与osm结合可以生成具备定位信息的道路路网数据。
124.结合道路特征信息、osm和智能摄像头输出的车道线感知信息,可以生成路面信息数据。
125.进一步的对道路路网数据和路面信息数据进行融合即可得到具备车道线细节的道路场景数据。
126.通常卫星影像数据为通过卫星拍摄的高清图片,其中不包含地理坐标,也即没有定位信息,因此基于卫星影像数据提取出的路网栅格数据中也不包含定位信息,鉴于此,为了得到附有定位信息的路网栅格数据,本实施例进一步提取了路网栅格数据中的道路交叉点,基于道路交叉点可以从osm地图数据中获取对应的定位信息,将定位信息与路网栅格数据进行融合,即可得到附有定位信息的路网栅格数据,也即具有定位信息的道路路网数据。
127.路网栅格数据通常只能体现其中包含的道路分布情况,也即路网分布情况,而无
法体现出各道路的车道线细节,也即无法体现道路中的车道线的位置、几何形状及数量等细节信息,考虑到车道线的细节信息,是驾驶场景中较为关键的信息,车辆的行驶行为与之有着密切的关系,本实施例进一步生成路网栅格数据中道路的细节信息也即路面信息数据。因为车道线感知信息中包含了车道线细节,因此基于车道线感知信息、道路特征信息和osm地图数据即可得到路面信息数据。
128.如此,基于道路路网数据和路面信息数据便可以生成具备车道线细节的道路场景数据。
129.在一些实施例中,s33的实现方式可以包括:
130.将卫星影像数据输入栅格数据提取模型,得到模型输出的与卫星影像数据对应的路网栅格数据;
131.对路网栅格数据进行角点检测,得到路网栅格数据中的道路交叉点。
132.其中,栅格数据提取模型可以为采用如下方式训练得到的神经网络模型:
133.获取卫星影像数据样本,将获取到的卫星影像数据样本,使用labelme软件进行数据标注,标注其对应的路网栅格数据,利用标注后的卫星影像数据样本构建训练集,将训练集输入至神经网络模型(例如deep feature-review transmit network模型)进行训练,得到符合预设收敛条件的模型的权重参数集,将利用权重参数集进行参数设置后模型作为栅格数据提取模型。
134.其中收敛条件可以根据实际需求设置,例如可以包括训练次数达到预设次数,或模型误差小于预设误差阈值等。
135.参见图4,为利用栅格数据提取模型对卫星影像数据进行预测的示意图,如图4所示,栅格数据提取模型主要包括编码器、桥和解码器三部分,编码器中包括卷积块conv-block、最大池化层max-pooling、残差块res-block,其中残差块可以用来进行特征检查也即feature review,桥包括卷积块conv-block和空洞卷积块dilate conv-block,解码器包括残差块res-block、反卷积块deconv-block和卷积块,编码器、桥和解码器通过连接函数concatenate连接,编码器和解码器之间采用轮廓增强技术进行特征传输,也即contour enhanced feature transmit。
136.通过上述方式,从卫星影像数据中获取路网栅格数据,缓解了路网提取工作中道路信息缺失、断裂的问题。该方法不仅能够保证数据的准确性和时效性,同时能够有效地降低人力成本,从而提高了路网栅格数据的生产效率。
137.进一步的,可以采用harris角点检测方法对路网栅格数据进行角点检测,从而得到道路交叉点,其中,harris角点检测的数学原理如下:
138.假设在图像上设置一个滑动窗口,当该窗口移动(u,v)个像素时,滑动前后对应的窗口中像素点灰度变化的数学描述如下式1所示。其中,(u,v)是窗口偏移量;(x,y)是窗口内像素相对于窗口原点的坐标位置;w()是窗口函数。
139.e(u,v)=∑
x,y w(x,y)
×
[i(x+u,y+v)-i(x,y)]2ꢀꢀꢀꢀ
式1
[0140]
将上述公式进行泰勒展开后得到式2,
[0141][0142]
矩阵m即为harris矩阵,其数学表示如式3,其中i
x
、iy分别为i关于x、y的偏微分,即图像中灰度在x、y方向变化的梯度。
[0143][0144]
最后设置角度响应函数,如式4。其中k的取值为0.04~0.06,λ1、λ2为m的特征值。
[0145]
r=λ1λ
2-k(λ1+λ2)2ꢀꢀꢀꢀ
式4
[0146]
在一些实施例中,在通过s33得到道路特征信息后,在s34中,可以采用以下方式生成具备定位信息的道路路网数据:
[0147]
从osm地图数据中获取与道路交叉点对应的定位坐标;
[0148]
将定位坐标映射至路网栅格数据,得到具备定位信息的道路路网数据。
[0149]
也即,将道路交叉点作为特征点,确定osm地图数据中与道路交叉点匹配的点,将匹配到的点对应的定位坐标确定为道路交叉点对应的定位坐标,如此将确定出的各定位坐标映射到路网栅格数据中,实现了osm的定位坐标与路网栅格数据的融合,从而得到了具备定位信息的道路路网数据。
[0150]
参见图5,为路网栅格数据及其中道路交叉点的示意图,其中,左侧为卫星影像数据转换得到的路网栅格数据的示意图,右侧中的标出的三个点为路网栅格数据中的三个角点,也即道路交叉点。
[0151]
在一些实施例中,传统的采用高精度传感器构建虚拟场景的方式,除了成本高之外,在道路要素被遮挡的情况下,还需要采用精确的补充算法对遮挡要素进行补偿或者通过其他标注软件对缺少部分进行补充,需要耗费大量的人工对仿真路网进行补充,使得人工成本也较高。
[0152]
鉴于上述问题,如图6所示,s35的实现方式可以包括:
[0153]
s61.获取与车道线感知信息对应的车辆运动信息;
[0154]
s62.根据车辆运动信息对车道线感知信息进行补偿修正,得到详细道路信息;
[0155]
s63.基于道路路网数据中的路网栅格数据和道路交叉点,将详细道路信息与道路路网数据进行匹配融合,得到路面信息数据。
[0156]
其中,车辆在运行过程中,可以实时采集车辆运动信息,并将车辆运行信息存储在车辆的can(controller area network,控制器局域网)数据中,基于此,在s61中可以直接从车辆的can数据中获取对应的车辆运动信息。在s62中,可以使用线性插值的方式补齐缺失的车道线,生成详细的道路信息数据。
[0157]
在s63中,可以将路网栅格数据、道路交叉点和osm地图数据中的定位信息作为关键点与详细道路信息数据进行匹配,确定出各车道线对应的定位信息,进而生成路面信息数据。
[0158]
通过上述方式,可以基于车辆运动信息自动对车道线信息进行补偿修正,无需人工补充,解决了传统方案中存在的人工成本较高的问题。
[0159]
在一些实施例中,s36的实现方式可以包括:
[0160]
对道路路网数据和路面信息数据进行时间对齐;
[0161]
时间对齐后,针对每两个相邻的时间点,确定两个相邻的时间点对应的定位信息之间的欧式距离和时间间隔;
[0162]
根据欧式距离和时间间隔,确定两个相邻的时间点对应的车速计算值;
[0163]
获取两个相邻的时间点对应的车速实际值;
[0164]
响应于车速计算值与车速实际值的差值大于第二阈值,将该两个相邻的时间点确定为待剔除时间点;
[0165]
剔除粗略路网数据道路路网数据和路面信息数据中与待剔除时间点对应的数据;
[0166]
对剔除完成后的粗略路网数据道路路网数据和路面信息数据进行融合,得到场景对应的道路场景数据。
[0167]
其中,可以通过拉齐数据的时间戳来实现时间对齐。
[0168]
定位信息之间的欧式距离也即定位坐标之间的欧氏距离,针对任意两个相邻的时间点,在得到对应的欧式距离和时间间隔后,利用欧式距离除以时间间隔,即可得到对应的车速计算值,与从车辆的can数据报文中获取这两个相邻的时间点对应的车速实际值,将车速计算值与车速实际值进行比较,若两者的差值大于第二阈值,就说明这两个时间点对应的数据与实际数据存在较大差别,不够准确,从而对这两个时间点对应的数据进行剔除,以提高最终融合得到的道路场景数据的准确性,保证最终基于道路场景数据生成的虚拟场景更贴近现实。其中,第二阈值可以根据实际情况设置。
[0169]
其中,道路场景数据可以为opendrive格式。
[0170]
通过上述方式可以剔除一些噪声数据,从而保证最终构建的虚拟场景的可靠性。
[0171]
在一些实施例中,s14的实现方式可以包括:
[0172]
通过线性插值和三次多项式拟合方法对道路场景数据中的定位信息进行拟合,在道路场景数据中形成行车轨迹;
[0173]
按照采集数据的时间线对场景切片数据中的障碍物感知信息进行跟踪,得到动态的障碍物感知信息;
[0174]
将动态的障碍物感知信息映射至包含行车轨迹的道路场景数据上,生成与场景对应的动态的虚拟场景。
[0175]
通过上述方式,结合智能摄像头提取的障碍物感知信息和推测的本车运动轨迹可形成动态虚拟场景。
[0176]
在得到虚拟场景后可以以openscenario格式进行场景数据的存储。
[0177]
采用本技术实施例提供的虚拟场景生成方法构建的虚拟场景,除了可以应用于智能驾驶测试之外,还可用于构建虚拟车辆运营地图、虚拟adas(advanced driving assistance system)系统仿真测试以及传感器测试等。
[0178]
参见图7,为本技术实施例提供的一种优选的,构建目标场景对应的虚拟场景时构建目标场景对应的道路场景数据的方法示意图,其中,目标场景为任意场景,如图7所示,构建过程大致可以分为三个部分:道路路网数据生成、路面信息数据生成和道路场景数据生成。
[0179]
其中,道路路网数据生成主要包括:
[0180]
根据场景对应的卫星影像数据,得到对应的路网栅格数据,对路网栅格数据进行角点检测得到道路交叉点,将道路交叉点与场景对应的osm地图数据中的定位坐标进行特征匹配,得到道路交叉点对应的定位信息,将定位信息与路网栅格数据进行数据融合,即可得到带有定位信息路网栅格数据,也即道路路网数据。
[0181]
参见图8,为路网栅格数据及与其匹配的osm地图数据的示意图,左侧表示路网栅格数据,右侧表示与路网栅格数据中小矩形框内的内容相匹配的osm地图数据。由此可以看
出,osm地图数据中存在与路网栅格数据相匹配的内容,因此可以从osm地图数据中找到与路网栅格数据中的道路交叉点对应的点,从而可以基于osm地图数据中与道路交叉点向匹配的点对应的定位坐标,确定道路交叉点对应的定位坐标。
[0182]
路面信息数据生成主要包括:
[0183]
基于车辆运行信息对智能摄像头输出的车道线感知信息进行补偿修正,生成详细道路信息,将详细道路信息与道路路网数据生成过程中得到的路网栅格数据和道路交叉点进行数据融合,得到路面信息数据。
[0184]
道路场景数据生成主要包括:
[0185]
对道路路网数据和路面信息数据进行数据融合,得到场景对应的道路场景数据,对道路场景数据进行opendrive格式转换,最后将格式转换后的数据进行存储。
[0186]
在得到的目标场景对应的道路场景数据之后,将道路场景数据与只能摄像头输出的目标场景中的障碍物感知信息进行拟合,即可得到目标场景对应的虚拟场景。
[0187]
基于上述实施例提供的虚拟场景生成方法,相应地,本技术还提供了虚拟场景生成装置的具体实现方式。请参见以下实施例。
[0188]
参见图9,为本技术实施例提供的一种虚拟场景生成装置的结构示意图,如图9所示,该装置可以包括如下模块:
[0189]
数据采集模块901,用于利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息;
[0190]
场景分类模块902,用于对多组数据进行场景分类,得到至少一个场景对应的场景切片数据;
[0191]
道路场景数据生成模块903,用于针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据;
[0192]
虚拟场景生成模块904,用于针对每个场景,将场景对应的道路场景数据与场景对应的场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。
[0193]
本技术实施例提供的一种虚拟场景生成装置,利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位装置采集的定位信息和前向智能摄像头记录的与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到场景对应的具备车道线细节的道路场景数据,将道路场景数据与场景切片数据中的障碍物感知信息进行拟合,得到场景对应的虚拟场景。根据本技术实施例,通过成本较低的智能摄像头和定位装置结合卫星地图和osm即可快速自动化构建虚拟场景,相比于现有技术,有效降低了成本。
[0194]
在一些实施例中,装置还可以包括(图中未示出):数据清洗模块,用于:
[0195]
在对多组数据进行场景分类,得到至少一个场景对应的场景切片数据之前,对多组数据进行数据清洗,得到多组有效数据;
[0196]
相应的,场景分类模块902可以用于:
[0197]
对多组有效数据进行场景分类,得到至少一个场景对应的场景切片数据。
[0198]
在一些实施例中,场景分类模块902,具体用于:
[0199]
针对每组数据,根据数据中的定位信息和/或车道线感知信息确定数据对应的道路类型;
[0200]
按照道路类型对多组数据进行分类划分,得到至少一个数据分组,其中相同数据分组中的数据对应同一道路类型,一种道路类型对应一个场景;
[0201]
针对每个场景,将场景对应的数据分组中的数据作为场景对应的场景切片数据。
[0202]
在一些实施例中,道路场景数据生成模块903,可以包括:
[0203]
卫星影像获取子模块,用于获取卫星地图中与场景切片数据中的定位信息对应的卫星影像数据;
[0204]
osm数据获取子模块,用于获取osm中与场景切片数据中的定位信息对应的osm地图数据;
[0205]
特征提取子模块,用于提取卫星影像数据中的道路特征信息,道路特征信息包含路网栅格数据和道路交叉点;
[0206]
道路路网数据生成子模块,用于根据道路特征信息和osm地图数据中的定位信息,生成具备定位信息的道路路网数据;
[0207]
路面信息数据生成子模块,用于基于场景切片数据中的车道线感知信息、道路特征信息和osm地图数据,生成路面信息数据;
[0208]
道路场景数据生成子模块,用于对道路路网数据和路面信息数据进行融合,得到场景对应的具备车道线细节的道路场景数据。
[0209]
在一些实施例中,特征提取子模块,用于:
[0210]
将卫星影像数据输入栅格数据提取模型,得到模型输出的与卫星影像数据对应的路网栅格数据;
[0211]
对栅格数据进行角点检测,得到道路交叉点。
[0212]
在一些实施例中,道路路网数据生成子模块,用于:
[0213]
获取osm地图数据中与道路交叉点对应的第二道路交叉点对应的定位坐标;
[0214]
将定位坐标映射至栅格数据,得到具备定位信息的道路路网数据。
[0215]
在一些实施例中,路面信息数据生成子模块,用于:
[0216]
获取与车道线感知信息对应的车辆运动信息;
[0217]
根据车辆运动信息对车道线感知信息进行补偿修正,得到详细道路信息;
[0218]
基于道路路网数据中的栅格数据和道路交叉点,将详细道路信息与道路路网数据进行匹配融合,得到路面信息数据。
[0219]
在一些实施例中,道路场景数据生成子模块,用于:
[0220]
对道路路网数据和路面信息数据进行时间对齐;
[0221]
时间对齐后,针对每两个相邻的时间点,确定两个相邻的时间点对应的定位信息之间的欧式距离和时间间隔;
[0222]
根据欧式距离和时间间隔,确定两个相邻的时间点对应的车速计算值;
[0223]
获取两个相邻的时间点对应的车速实际值;
[0224]
响应于车速计算值与车速实际值的差值大于第二阈值,确定两个相邻的时间点为
待剔除时间点;
[0225]
将道路路网数据和路面信息数据中与待剔除时间点对应的数据进行剔除后进行融合,得到场景对应的道路场景数据。
[0226]
在一些实施例中,虚拟场景生成模块904,用于:
[0227]
通过线性插值和三次多项式拟合方法对道路场景数据中的定位信息进行拟合,在道路场景数据中形成行车轨迹;
[0228]
按照采集数据的时间线对场景切片数据中的障碍物感知信息进行跟踪,得到动态的障碍物感知信息;
[0229]
将动态的障碍物感知信息映射至包含行车轨迹的道路场景数据上,生成与场景对应的动态的虚拟场景。
[0230]
本技术实施例提供的虚拟场景生成装置能够实现图1至图8的方法实施例实现的各个过程,为避免重复,这里不再赘述。
[0231]
图10示出了本技术实施例提供的电子设备的硬件结构示意图。
[0232]
电子设备可以包括处理器1001以及存储有计算机程序指令的存储器1002。
[0233]
具体地,上述处理器1001可以包括中央处理器(cpu),或者特定集成电路(application specific integrated circuit,asic),或者可以被配置成实施本技术实施例的一个或多个集成电路。
[0234]
存储器1002可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器1002可包括硬盘驱动器(hard disk drive,hdd)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(universal serial bus,usb)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器1002可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器1002可在综合网关容灾设备的内部或外部。在特定实施例中,存储器1002是非易失性固态存储器。
[0235]
存储器1002可包括只读存储器(rom),随机存取存储器(ram),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器1002包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可执行上述实施例中的任意一种虚拟场景生成方法所描述的操作。
[0236]
处理器1001通过读取并执行存储器1002中存储的计算机程序指令,以实现上述实施例中的任意一种虚拟场景生成方法。
[0237]
在一个示例中,电子设备还可包括通信接口1003和总线1010。其中,如图10所示,处理器1001、存储器1002、通信接口1003通过总线1010连接并完成相互间的通信。
[0238]
通信接口1003,主要用于实现本技术实施例中各模块、装置、单元和/或设备之间的通信。
[0239]
总线1010包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(agp)或其他图形总线、增强工业标准架构(eisa)总线、前端总线(fsb)、超传输(ht)互连、工业标准架构(isa)总线、无限带宽互连、低引脚数(lpc)总线、存储器总线、微信道架构(mca)总线、外围组件互连(pci)总线、pci-express(pci-x)总线、串行高级技术附件(sata)总线、视频电子标准协会局部(vlb)总线或
其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线1010可包括一个或多个总线。尽管本技术实施例描述和示出了特定的总线,但本技术考虑任何合适的总线或互连。
[0240]
另外,结合上述实施例中的虚拟场景生成方法,本技术实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种虚拟场景生成方法。
[0241]
需要明确的是,本技术并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本技术的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本技术的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
[0242]
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(asic)、适当的固件、插件、功能卡等等。当以软件方式实现时,本技术的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、rom、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘、光纤介质、射频(rf)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
[0243]
还需要说明的是,本技术中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本技术不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
[0244]
上面参考根据本公开的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
[0245]
以上所述,仅为本技术的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本技术的保护范围之内。

技术特征:
1.一种虚拟场景生成方法,其特征在于,包括:利用车辆上安装的前向智能摄像头和定位装置采集所述车辆行驶过程中的多组数据,每组所述数据包括所述定位装置采集的定位信息和所述前向智能摄像头记录的与所述定位信息对应的道路信息,所述道路信息包括车道线感知信息和障碍物感知信息;对多组所述数据进行场景分类,得到至少一个场景对应的场景切片数据;针对每个所述场景,将所述场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到所述场景对应的具备车道线细节的道路场景数据;针对每个所述场景,将所述场景对应的道路场景数据与所述场景对应的场景切片数据中的障碍物感知信息进行拟合,得到所述场景对应的虚拟场景。2.根据权利要求1所述的虚拟场景生成方法,其特征在于,所述对多组所述数据进行场景分类,得到至少一个场景对应的场景切片数据之前,所述方法还包括:对多组所述数据进行数据清洗,得到多组有效数据;所述对多组所述数据进行场景分类,得到至少一个场景对应的场景切片数据,包括:对多组所述有效数据进行场景分类,得到至少一个场景对应的场景切片数据。3.根据权利要求1或2所述的虚拟场景生成方法,其特征在于,所述对多组所述数据进行场景分类,得到至少一个场景对应的场景切片数据,包括:针对每组所述数据,根据所述数据中的定位信息和/或车道线感知信息确定所述数据对应的道路类型;按照道路类型对多组所述数据进行分类划分,得到至少一个数据分组,其中相同数据分组中的数据对应同一道路类型,一种道路类型对应一个场景;针对每个所述场景,将所述场景对应的数据分组中的数据作为所述场景对应的场景切片数据。4.根据权利要求1或2所述的虚拟场景生成方法,其特征在于,所述将所述场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到所述场景对应的具备车道线细节的道路场景数据,包括:获取所述卫星地图中与所述场景切片数据中的定位信息对应的卫星影像数据;获取所述osm中与所述场景切片数据中的定位信息对应的osm地图数据;提取所述卫星影像数据中的道路特征信息,所述道路特征信息包含路网栅格数据和所述路网栅格数据中的道路交叉点;根据所述道路特征信息和所述osm地图数据中的定位信息,生成具备定位信息的道路路网数据;基于所述场景切片数据中的车道线感知信息、所述道路特征信息和所述osm地图数据,生成路面信息数据;对所述道路路网数据和所述路面信息数据进行融合,得到所述场景对应的具备车道线细节的道路场景数据。5.根据权利要求4所述的虚拟场景生成方法,其特征在于,所述提取所述卫星影像数据中的道路特征信息,包括:将所述卫星影像数据输入栅格数据提取模型,得到所述模型输出的与所述卫星影像数据对应的路网栅格数据;
对所述路网栅格数据进行角点检测,得到所述路网栅格数据中的道路交叉点。6.根据权利要求4所述的虚拟场景生成方法,其特征在于,所述根据所述道路特征信息和所述osm地图数据中的定位信息,生成具备定位信息的道路路网数据,包括:从所述osm地图数据中获取与所述道路交叉点对应的定位坐标;将所述定位坐标映射至所述路网栅格数据,得到具备定位信息的道路路网数据。7.根据权利要求4所述的虚拟场景生成方法,其特征在于,所述基于所述场景切片数据中的车道线感知信息、所述道路特征信息和所述osm地图数据,生成路面信息数据,包括:获取与所述车道线感知信息对应的车辆运动信息;根据所述车辆运动信息对所述车道线感知信息进行补偿修正,得到详细道路信息;基于所述道路路网数据中的路网栅格数据和道路交叉点,将所述详细道路信息与所述道路路网数据进行匹配融合,得到路面信息数据。8.根据权利要求4所述的虚拟场景生成方法,其特征在于,所述对所述道路路网数据和所述路面信息数据进行融合,得到所述场景对应的具备车道线细节的道路场景数据,包括:对所述道路路网数据和所述路面信息数据进行时间对齐;时间对齐后,针对每两个相邻的时间点,确定所述两个相邻的时间点对应的定位信息之间的欧式距离和时间间隔;根据所述欧式距离和所述时间间隔,确定所述两个相邻的时间点对应的车速计算值;获取所述两个相邻的时间点对应的车速实际值;响应于所述车速计算值与所述车速实际值的差值大于第二阈值,将所述两个相邻的时间点确定为待剔除时间点;剔除所述道路路网数据和所述路面信息数据中与所述待剔除时间点对应的数据;对剔除完成后的所述道路路网数据和所述路面信息数据进行融合,得到所述场景对应的道路场景数据。9.根据权利要求4所述的虚拟场景生成方法,其特征在于,所述将所述场景对应的道路场景数据与所述场景对应的场景切片数据中的障碍物感知信息进行拟合,得到所述场景对应的虚拟场景,包括:通过线性插值和三次多项式拟合方法对所述道路场景数据中的定位信息进行拟合,在所述道路场景数据中形成行车轨迹;按照采集数据的时间线对所述场景切片数据中的障碍物感知信息进行跟踪,得到动态的障碍物感知信息;将所述动态的障碍物感知信息映射至包含所述行车轨迹的道路场景数据上,生成与所述场景对应的动态的虚拟场景。10.一种虚拟场景生成装置,其特征在于,包括:数据采集模块,用于利用车辆上安装的前向智能摄像头和定位装置采集所述车辆行驶过程中的多组数据,每组所述数据包括所述定位装置采集的定位信息和所述前向智能摄像头记录的与所述定位信息对应的道路信息,所述道路信息包括车道线感知信息和障碍物感知信息;场景分类模块,用于对多组所述数据进行场景分类,得到至少一个场景对应的场景切片数据;
道路场景数据生成模块,用于针对每个所述场景,将所述场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图osm进行数据融合,得到所述场景对应的具备车道线细节的道路场景数据;虚拟场景生成模块,用于针对每个所述场景,将所述场景对应的道路场景数据与所述场景对应的场景切片数据中的障碍物感知信息进行拟合,得到所述场景对应的虚拟场景。

技术总结
本申请公开了一种虚拟场景生成方法及装置,利用车辆上安装的前向智能摄像头和定位装置采集车辆行驶过程中的多组数据,每组数据包括定位信息和与定位信息对应的道路信息,道路信息包括车道线感知信息和障碍物感知信息,对多组数据进行场景分类,得到至少一个场景对应的场景切片数据,针对每个场景,将场景对应的场景切片数据中的车道线感知信息与卫星地图和公开地图OSM进行数据融合,得到场景对应的道路场景数据,将道路场景数据与障碍物感知信息进行拟合,得到场景对应的虚拟场景。根据本申请实施例,通过成本较低的智能摄像头和定位装置结合卫星地图和OSM即可快速自动化构建虚拟场景,相比于现有技术,有效降低了成本。有效降低了成本。有效降低了成本。


技术研发人员:石璐 罗佳瑞 张杨 钱振伟
受保护的技术使用者:北京经纬恒润科技股份有限公司
技术研发日:2023.06.25
技术公布日:2023/9/13
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐