面向自动驾驶的行人轨迹预测文献综述

 2022-11-27 16:46:29

文献综述

摘要

近些年,自主驾驶发展迅速,但城市环境下的自主驾驶任务仍面临很多挑战。这些挑战一方面来自于数据集,可用于行人轨迹预测研究的数据集寥寥无几;另一方面来自算法的设计、训练和优化。该毕设在学习前人研究方法的基础上,拟利用LSTM模型,根据行人的历史轨迹,结合行人的姿态等属性,对行人轨迹预测任务做进一步的研究。

相关工作

  1. 数据集

可用于自动驾驶任务的视觉数据集很多,首先可以将其按视角划分为两类。一类是采用了自顶向下的视角[10-17],这种视角来自无人机或监控摄像头。自顶向下的视角不可避免的损失了大量行人的属性信息,例如[10,12,13]中将行人视为质点,这种数据集不具备进一步研究行人姿势动作甚至意图的条件,短期来看也不能够很好地应用在无人驾驶中。另一类是来自驾驶车辆的视角[1-5],但这些数据集缺乏一些必要的特征,如Caltech[2]缺少驾驶车辆的信息,KITTI[3]缺乏足够长的行人轨迹样本,如表1所示,Caltech和KITTI中行人在图片中的比例较低,Cityperson[4]虽然包含了大量的都市行人标签,但缺乏时间对应关系和足够长的行人轨迹样本,这些因素使它们更适合行人检测任务而不是轨迹预测。

表1:三种数据集的多样性比较(仅训练子集),摘自[4]

表1.PIE 和JAAD各属性比较,摘自[1]

JAAD[5]和PIE[1]是两个专门设计用于自动驾驶中行人轨迹问题的数据集。JAAD含有大量的行人连续帧,并且其中一个子集注释了行人的行为信息,但该数据集缺少驾驶车辆的信息、行人序列较短且被划分成了不连续的块;PIE数据集是2019年由加拿大的一个研究小组新提出的,该数据集记录于加拿大多伦多市区的白天(包含晴天、阴天),记录了十字路口行人行为的多样性,包括行人流量大、街道狭窄的地方,也包括行人较少的宽阔林荫大道。

除了数据集本身,PIE数据集提供了大量种类丰富的注释,它对每一个可能与当前车辆产生交互的行人提供了以下注释[1]:含有遮挡标志的bounding box、行人的运动(站立或步行,看或不看,过马路或不过马路),以及过路意图的置信度,该置信度是通过人类实验获得的。每个行人有一个唯一的id,当行人出现在场景中就被跟踪,直到离开镜头。除了行人,该数据集还提供了场景中相关对象的标注,包括交通标志、交通灯、斑马线、道路边缘等,以及当前车辆的精确速度和航向。

该毕设打算基于PIE数据集做更多的实验。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。