全局检索与知识浏览
跨论文、博客、数据集线索、项目和工具统一检索。检索结果可以继续跳转到独立问答页,做语义追问和来源核验。
随着城市化进程加速及交通需求增长,混合交通流中弱势道路使用者(Vulnerable Road Users, VRUs,如行人与骑行者)的安全问题日益突出,亟需高精度、多样化的轨迹数据以支撑自动驾驶系统的研发与优化。然而,现有数据集在刻画VRU行为的多样性与动态性方面存在不足,难以满足复杂交通环境下的研究需求。为弥补这一缺口,本研究构建了OnSiteVRU数据集,覆盖交叉口、路段及城中村等多种场景,提供机动车、电动自行车与人力自行车的轨迹数据,总计约17,429条轨迹,时间分辨率达0.04秒。该数据集融合了俯视视角下的自然驾驶数据与车载实时动态检测数据,并整合交通信号灯、障碍物及实时地图等环境信息,支持交互事件的全面重建。结果表明,VRU_Data在VRU密度与场景覆盖度方面优于传统数据集,更全面地表征了VRU的行为特征,为交通流建模、轨迹预测及自动驾驶虚拟测试提供了关键支撑。该数据集已公开发布,可通过以下链接下载:https://www.kaggle.com/datasets/zcyan2/mixed-traffic-trajectory-dataset-in-from-shanghai。
随着城市化进程加速及交通需求增长,混合交通流中弱势道路使用者(Vulnerable Road Users, VRUs,如行人与骑行者)的安全问题日益突出,亟需高精度、多样化的轨迹数据以支撑自动驾驶系统的研发与优化。然而,现有数据集在刻画VRU行为的多样性与动态性方面存在不足,难以满足复杂交通环境下的研究需求。为弥补这一缺口,本研究构建了OnSiteVRU数据集,覆盖交叉口、路段及城中村等多种场景,提供机动车、电动自行车与人力自行车的轨迹数据,总计约17,429条轨迹,时间分辨率达0.04秒。该数据集融合了俯视视角下的自然驾驶数据与车载实时动态检测数据,并整合交通信号灯、障碍物及实时地图等环境信息,支持交互事件的全面重建。结果表明,VRU_Data在VRU密度与场景覆盖度方面优于传统数据集,更全面地表征了VRU的行为特征,为交通流建模、轨迹预测及自动驾驶虚拟测试提供了关键支撑。该数据集已公开发布,可通过以下链接下载:https://www.kaggle.com/datasets/zcyan2/mixed-traffic-trajectory-dataset-in-from-shanghai。
理解极端降雨事件中人类移动的韧性对于提升灾害应对能力与城市韧性至关重要。然而,现有研究大多忽视了韧性模式在不同尺度上的复杂性,未能揭示空间异常现象及其潜在成因。为弥补这一空白,本文提出一种基于大规模个体轨迹数据的框架,以解析多尺度下人类移动的韧性模式。通过动态网络模型量化人类移动流量,并利用韧性曲线分析都市圈与区域尺度下的韧性特征。本研究聚焦于台风玛娃引发的极端降雨事件,覆盖日本的大阪与名古屋地区。研究发现,尽管人类活动显著减少,但移动网络结构保持相对稳定。基于流入与流出量的象限分布分析,人类移动中异常与正常韧性模式的比例约为3:2,且该比例在两个尺度上均保持一致。有趣的是,异常韧性模式与建成环境的局部地理特征密切相关,呈现出收入、性别与年龄层面的差异。这些发现对政策制定者优化灾后恢复策略及指导未来城市基础设施建设以增强韧性具有重要价值。
出版日期:2026年7月;来源:《Cities》,第174卷;作者:前田修太、加藤春香
本文提供了一组公开可用的微观车辆轨迹(MVT)数据集,该数据集通过无人机(UAV)在异质性、区域化的城市交通条件下采集。传统路边视频采集方法在高密度混合交通场景中常因遮挡、视场角受限及车辆运动不规则等问题而失效。基于无人机的录制方式提供了俯视视角,可有效缓解上述问题,并更充分地捕捉空间与时间动态特征。本文所述数据集利用Data from Sky(DFS)平台提取,并在前期研究中通过人工计数、区间平均速度及浮动车轨迹进行了验证。每个数据集包含以每秒30帧分辨率记录的时间戳车辆位置、速度、纵向与横向加速度以及车辆分类信息。数据采集于印度国家首都辖区六个路段中部位置,覆盖多样化的交通组成与密度水平。探索性分析揭示了若干关键行为模式,包括车道保持偏好、速度分布特征以及异质性与区域化交通环境中典型的横向机动行为。本数据集旨在为全球研究界提供资源,以支持仿真建模、安全评估及区域化交通条件下的行为研究。通过公开发布这些实证数据集,本工作为研究人员提供了独特机会,以开发、测试并验证更能准确表征复杂城市交通环境的模型。
轨迹计算是一个关键研究领域,涵盖轨迹数据管理与挖掘,在位置服务、城市交通和公共安全等实际应用中具有重要作用,因而受到广泛关注。传统方法主要依赖简单的时空特征,面临计算复杂、可扩展性有限以及难以适应现实世界复杂性等挑战。本文全面综述了轨迹计算从深度学习到近期大语言模型(LLM)阶段的发展脉络与最新进展。首先,我们定义轨迹数据,并简要介绍常用的深度学习模型;继而系统梳理深度学习在轨迹管理(预处理、存储、分析与可视化)与轨迹挖掘(轨迹相关预测、轨迹相关推荐、轨迹分类、行程时间估计、异常检测及移动性生成)中的应用。此外,我们探讨了以基础模型(foundation models)和大语言模型为代表的大型模型在轨迹计算中的新兴研究方向与最新进展,这些进展有望重塑下一代轨迹计算范式。文中还总结了典型应用场景、公开数据集及工具包。最后,我们归纳了当前轨迹计算研究面临的主要挑战,并提出未来研究方向。相关论文与开源资源已整理汇总,并持续更新于:https://github.com/yoshall/Awesome-Trajectory-Computing。
主数据集为一个232 MB的轨迹数据文件(I395-final.csv),包含城市环境中一条快速路路段上非自动驾驶乘用车、卡车、公交车及自动驾驶车辆的位置、速度与加速度数据。配套文件包括一张航拍参考图像(I395_ref_image.png)、一份多边形边界列表(I395_boundaries.csv)以及一组关联图像(I395_lane-1、I395_lane-2、…、I395_lane-6),均存于名为“Annotation on Regions.zip”的压缩包中,用于将物理道路区段映射至轨迹数据集中所引用的数值化车道编号。在边界文件中,“x1”至“x5”列表示参考图像中的水平像素坐标,其中“x1”为最左侧边界线,“x5”为最右侧边界线;“y”列表示对应的垂直像素坐标;参考图像的坐标原点位于左上角。该数据集共定义五条车道及五条边界线:车道-6对应“x1”左侧区域;车道-5对应“x1”与“x2”之间区域;依此类推,最右侧车道为“x5”右侧区域(即车道-2);车道-1则指驶入汇入车道(车道-2)路肩的车辆,此类车辆系通过人工观看视频识别并单独标注。本数据集是‘第三代仿真数据(TGSIM):深入探究自动驾驶系统对人类行为影响’项目的一部分。该项目共采集并处理了六组轨迹数据集,旨在表征高速公路与城市环境下多样化场景中人类驾驶员与自动驾驶车辆之间的交互行为。更多信息请参阅项目报告:https://rosap.ntl.bts.gov/view/dot/74647。
在本系列配套论文的第一部分中,我们介绍了SWIFTraj——一种利用无人机(UAV)集群采集的新型开源车辆轨迹数据集。该数据集具有两个显著特征:其一,通过连接连续无人机视频中的轨迹,提供长距离连续轨迹,其中最长轨迹超过4.5 km;其二,覆盖包含高速公路及其相连城市道路的综合交通网络。由于需实现多段视频间的精确时间对齐,且无人机空间分布不规则,从无人机集群获取此类长距离连续轨迹面临挑战。为此,本文提出一种新颖的基于图的方法,用于连接无人机集群所捕获的车辆轨迹。该方法构建无向图以表征灵活的无人机布设布局,并开发了一种基于轨迹匹配代价最小化的自动时间对齐方法,以估计各视频间最优时间偏移量。为关联不同视频中同一车辆的轨迹,采用匈牙利算法构建车辆匹配表。所提方法在仿真数据与真实数据上均进行了评估。真实实验结果表明,时间对齐误差控制在三帧视频内(约0.1 s),车辆匹配F1分数约为0.99。这些结果验证了所提方法在解决基于无人机的轨迹连接关键挑战方面的有效性,并凸显其在大规模车辆轨迹采集中的应用潜力。
《科学数据》(Scientific Data),在线发表日期:2026年4月23日;doi:10.1038/s41597-026-07247-7 BikeZ-ETH——来自受控实验的大规模骑行轨迹数据集
出版日期:2026年7月;来源:《交通运输研究C辑:新兴技术》(Transportation Research Part C: Emerging Technologies),第188卷;作者:王灿、王伟杰、赵艳、李林恒、曲旭、冉斌
本文详细描述并表征了一个新型开源车辆轨迹数据集 SWIFTraj,该数据集由配备 5.4K 分辨率相机的 16 架无人机组成的机群所拍摄视频构建而成。该数据集在多个方面区别于现有开源轨迹数据集:其一,它提供了长达 4.5 公里的高速公路连续长距离轨迹,支持对交通现象及其时空演化进行深入研究;其二,数据采集地点覆盖一条长距离高速公路走廊及其相连的部分城市路网所构成的集成网络,有利于从网络视角开展交通分析与建模。本文全面探讨了该数据集在交通研究中的潜在应用,包括多尺度下的交通流分析、建模与控制,以及与自动驾驶相关的一系列课题。最后,SWIFTraj 作为完全免费开放的开源数据集发布,以支持并加速交通领域未来的研究进展。该数据集可通过 SWIFTraj 官方网站(https://www.swiftraj.com)公开获取。
本文详细描述并表征了一个新型开源车辆轨迹数据集 SWIFTraj,该数据集由配备 5.4K 分辨率相机的 16 架无人机组成的机群所拍摄视频构建而成。该数据集在多个方面区别于现有开源轨迹数据集:其一,它提供了长达 4.5 公里的高速公路连续长距离轨迹,支持对交通现象及其时空演化进行深入研究;其二,数据采集地点覆盖一条长距离高速公路走廊及其相连的部分城市路网所构成的集成网络,有利于从网络视角开展交通分析与建模。本文全面探讨了该数据集在交通研究中的潜在应用,包括多尺度下的交通流分析、建模与控制,以及与自动驾驶相关的一系列课题。最后,SWIFTraj 作为完全免费开放的开源数据集发布,以支持并加速交通领域未来的研究进展。该数据集可通过 SWIFTraj 官方网站(https://www.swiftraj.com)公开获取。
出版日期:2026年5月;来源:《交通研究D辑:运输与环境》(Transportation Research Part D: Transport and Environment),第154卷;作者:卢彦超、张润生、王若萱、付博晨、卢凯明、范鹏飞、于磊、宋国华
主数据集为一个232 MB的轨迹数据文件(I395-final.csv),包含城市环境中某快速路路段上非自动驾驶乘用车、卡车、公交车及自动驾驶车辆的位置、速度与加速度数据。配套文件包括一幅航拍参考图像(I395_ref_image.png)、一个多边形边界列表文件(I395_boundaries.csv)以及一组关联图像(I395_lane-1、I395_lane-2、…、I395_lane-6),均存于名为“Annotation on Regions.zip”的压缩包中,用于将物理道路区段映射至轨迹数据集中所引用的数字车道编号。在边界文件中,“x1”至“x5”列表示参考图像中的水平像素坐标,“x1”为最左侧边界线,“x5”为最右侧边界线;“y”列表示对应的垂直像素坐标;参考图像原点位于左上角。该数据集共定义五条车道及五条边界:车道-6对应“x1”左侧区域;车道-5对应“x1”与“x2”之间区域;依此类推,最右侧车道(车道-2)定义为“x5”右侧区域;车道-1指驶入汇入车道(即车道-2)路肩的车辆,此类车辆通过人工观看视频方式单独标注。本数据集系“第三代仿真数据(TGSIM):自动驾驶系统对人类行为影响的深入研究”项目成果之一。该项目共采集并处理了六个轨迹数据集,用以表征高速公路与城市环境下多样化场景中人类驾驶员与自动驾驶车辆之间的交互行为。更多信息详见项目报告:https://rosap.ntl.bts.gov/view/dot/74647。
扩散的随机模型被广泛用于研究各类种群(包括动物、植物、种子和细胞)的扩散过程。成像与野外测量技术的进步使得数据常在多尺度上采集:既包括在一系列固定采样区域内获取的计数数据,以表征种群尺度的扩散行为;也包括个体轨迹数据,以考察扩散种群中个体的运动特征。本研究采用基于格点的随机游走模型,分析仅利用计数数据、或结合轨迹数据时,模型参数的可确定程度。我们的分析整合了基于智能体的随机模拟、均场偏微分方程近似、基于似然的参数估计、可识别性分析以及基于模型的预测。这些综合工具表明,仅依赖计数数据有时会导致结构性不可识别问题,而引入轨迹数据可缓解该问题。此外,这些工具还支持我们探究不同实验设计对推断精度的影响,具体通过比较不同轨迹数据采集方案对实际可识别性的影响来实现。本研究中所用全部算法的开源实现可在 GitHub 获取。
统筹规划城镇化布局是新时期国土空间规划政策的重要组成部分。明确不同空间的主要功能并划分城市功能区,对于优化土地开发模式具有重要意义。本文从数据挖掘的角度识别与分析城市功能区,所得结果与实际情况相符。研究以代表性出租车轨迹数据为基础,选取成都绕城高速范围内的滴滴出行轨迹数据,首先生成轨迹时间序列数据,并利用动态时间规整(DTW)算法构建时间序列相似性矩阵;其次,采用K-中心点聚类算法生成土地聚类的初步结果,并选取分类精度较高的样本作为训练样本;随后,基于DTW的K近邻(KNN)分类算法用于城市功能区的分类与识别;最后,结合兴趣点(POI)辅助分析,获得成都市最终的功能布局。结果表明,成都市的空间结构复杂,城市功能相互交织,但仍遵循一定规律。此外,交通流量与人流数据相较于简单的出租车上下车数据更能反映居民出行规律。原始DTW计算方法具有较高的时间复杂度,可通过归一化及降低时间序列维度进行优化。半监督学习分类方法同样适用于轨迹数据,最佳选择应为
主数据集为一个304 MB的轨迹数据文件(I90_94_stationary_final.csv),包含城市环境中高速公路上小型与大型L2级自动驾驶车辆及非自动驾驶车辆的位置、速度与加速度数据。配套文件包括六次独立数据采集‘运行’(Runs)的航拍参考图像(文件名格式为I90_94_Stationary_Run_X_ref_image.png,其中X取值为1至6);以及每次‘运行’对应的中心线文件(I-90-stationary-Run_X-geometry-with-ramps.csv)。各中心线文件中提供了以米为单位的x、y坐标,用于标记各车道中心线;参考图像原点位于左上角。此外,各中心线文件中均包含一个指示变量,用于标识各车道所属路段类型:0=无匝道段,1=入口匝道段,2=出口匝道段,3=交织段。各列标题所附数字为对应车道分配的数值ID(详见《TGSIM – 中心线数据字典 – I90_94Stationary.csv》)。该数据集利用上述中心线文件定义了六条北行车道;根据具体‘运行’,共使用十二个不同数值ID(1、2、3、4、5、6、10、11、12、13、14、15)表示这六条北行车道。将感兴趣车道映射至轨迹数据集中所引用数值车道ID的图像存于‘Annotation on Regions.zip’文件夹中。各数据采集‘运行’的参考图像中,以红色文字标注了对应车道ID(文件名格式为I90_94_Stationary_Run_X_ref_image_annotated.jpg,其中X取值为1至6)。本数据集系‘第三代仿真数据(TGSIM):自动驾驶系统对人类行为影响的深入研究’项目的一部分。
主数据集为一个350 MB的轨迹数据文件(TGSIM-Foggy Bottom-Data.csv),包含行人、自行车、电动滑板车、非自动驾驶乘用车、自动驾驶车辆(AV)、摩托车、公交车及卡车在城市环境中的位置、速度和加速度数据。配套文件包括一张航拍参考图像(Reference_Image_Foggy Bottom.png)、一份多边形边界列表(Foggy_Bottom_boundaries.txt)以及与之对应的图像文件(i1.png、i2.png、…、i49.png,存于名为“Annotation on Regions.zip”的压缩包中),用于将物理道路区段映射至数值ID(该ID在轨迹数据集中被引用)。本数据集是‘第三代仿真数据(TGSIM):深入探究自动驾驶系统(ADS)对人类行为影响’项目的一部分。该项目共采集并处理了六个轨迹数据集,旨在表征高速公路与城市环境中多样化场景下人与自动驾驶车辆的交互行为。更多信息请参见项目报告:https://rosap.ntl.bts.gov/view/dot/74647。本数据集为TGSIM项目所采集的六个数据集之一,数据来源于安装在美国华盛顿特区雾谷(Foggy Bottom)社区的十二台4K固定式基础设施摄像头。这些摄像头覆盖四个交叉口、相邻的人行横道、交叉口之间的路段,以及从交叉口向外延伸的部分路段,总覆盖范围超过一个完整街区。上述路段以多边形形式表示,用以界定行车道、停车道、人行横道及交叉口,服务于目标检测与分析任务(详见Reference_Image_Foggy Bottom.png)。摄像头在工作日通勤时段持续拍摄视频,起始时间为下午3:
主数据集为一个9 MB的轨迹数据文件(I294_L2_final.csv),包含郊区高速公路环境下小型与大型L2级自动驾驶车辆及非自动驾驶车辆的位置、速度与加速度数据。配套文件包括十二次独立数据采集‘运行’(Runs)的航拍参考图像(文件名格式为I294_L2_Run_X_ref_image_with_lanes.png,其中X分别对应南向运行的5、28、30、36、38、42,以及北向运行的23、29、31、33、35、41)。每条‘运行’还附有对应的中心线文件(I-294-L2-Run_X-geometry-with-ramps.csv),其中以米为单位提供各车道中心线的x、y坐标;参考图像原点位于左上角。每个中心线文件中均设有一个指示变量,用于标识各车道所属路段类型:0=无匝道段,1=入口匝道段,2=出口匝道段,3=交织段。各列标题末尾所附数字为对应车道的数值ID(详见《TGSIM – 中心线数据字典 – I294 L2.csv》)。该数据集通过上述中心线文件定义了八条车道(双向各四条)。将感兴趣车道与轨迹数据集中所引用的数值车道ID进行映射的图像存于压缩包‘Annotation on Regions.zip’中:南向车道可视化图示为I294_L2_lane-2.png至I294_L2_lane-5.png,北向车道为I294_L2_lane2.png至I294_L2_lane5.png。本数据集系‘第三代仿真数据(TGSIM):自动驾驶系统对人类行为影响的深入研究’项目的一部分;该项目共采集了六组可表征人机交互行为的轨迹数据。
主数据集为一个130 MB的轨迹数据文件(I90_94_moving_final.csv),包含城市环境中高速公路上小型与大型L2级自动驾驶车辆及非自动驾驶车辆的位置、速度与加速度数据。配套文件包括四组独立数据采集‘Run’的航拍参考图像(I90_94_moving_RunX_with_lanes.png,其中X为1、2、3或4);每组‘Run’还提供对应的中心线文件(I-90-moving-Run_X-geometry-with-ramps.csv),其中以米为单位给出各车道中心线的x、y坐标,参考图像原点位于左上角。各中心线文件中另设指示变量,用于标识路段类型:0=无匝道段,1=入口匝道段,2=出口匝道段,3=交织段;列标题所附数字为对应车道的数值ID(详见《TGSIM – 中心线数据字典 – I90_94moving.csv》)。该数据集依据中心线文件定义六条北向车道。将感兴趣车道映射至轨迹数据集中所用数值车道ID的图像存于‘Annotation on Regions.zip’文件夹中;北向六条车道在I90_94_moving_lane1.png至I90_94_moving_lane6.png中由左至右依次可视化呈现。本数据集源自‘第三代仿真数据(TGSIM):自动驾驶系统对人类行为影响的深入研究’项目,该项目共采集并处理了六组轨迹数据集,旨在表征高速公路与城市环境中多种场景下人车交互行为。更多信息请参见项目报告。
主数据集为一个70 MB的轨迹数据文件(I294_L1_final.csv),包含郊区高速公路环境中小型与大型L1级自动驾驶车辆及非自动驾驶车辆的位置、速度与加速度数据。配套文件包括十次独立数据采集‘Run’的航拍参考图像(I294_L1_RunX_with_lanes.png,其中X=8、18、20对应南向行驶,X=1、3、7、9、11、19、21对应北向行驶);以及每次‘Run’对应的中心线文件(I-294-L1-Run_X-geometry-with-ramps.csv)。各中心线文件提供以米为单位的x、y坐标,用于标记每条车道中心线;参考图像原点位于左上角。此外,各中心线文件中均含一个指示变量,用于标识各车道所属路段类型:0=无匝道段,1=入口匝道段,2=出口匝道段,3=交织段。各列标题所附数字为对应车道的数值ID(详见《TGSIM – 中心线数据字典 – I294 L1.csv》)。该数据集通过上述中心线文件定义八条车道(双向各四条)。将感兴趣车道与轨迹数据集中引用的数值车道ID进行映射的图像存于‘Annotation on Regions.zip’文件夹中:南向车道可视化图示见I294_L1_Lane-2.png至I294_L1_Lane-5.png,北向车道见I294_L1_Lane2.png至I294_L1_Lane5.png。本数据集系‘第三代仿真数据(TGSIM):自动驾驶系统对人类行为影响的深入研究’项目的一部分;项目期间共采集六组可表征人车交互行为的轨迹数据集。
交通参与者(TPs)的轨迹数据是评估交通状况和优化管控策略的基础资源,尤其在城市交叉口场景中至关重要。尽管无人机采集方式效率较高,但现有数据集在场景代表性、信息丰富度及数据保真度方面仍存在局限。本研究提出 FLUID,包含一个细粒度轨迹数据集,用于捕获典型城市信号控制交叉口处的密集冲突轨迹;以及一个轻量级、端到端的无人机轨迹处理框架。
数据来源于多模态智能交通信号系统(MMITSS)研究。MMITSS 是下一代交通信号系统,旨在为所有交通方式提供全面的交通信息框架。车载轨迹文件包含在路边设备(RSE)通信范围内的联网车辆所发送的基本安全消息。数据还包含用于车辆安全应用的附加车辆信息元素,以及用于数据事件快照的特定车辆状态信息元素,这些快照被收集并定期上报至路边设备。数据传输速率为每秒10次。注:所有附加文件均位于《多模态智能交通信号系统基本安全消息》中。
轨迹生成近年来在隐私保护的城市移动性研究及基于位置的服务应用中受到日益增长的关注。尽管已有大量研究采用深度学习或生成式人工智能方法建模轨迹并取得了良好效果,但此类模型的鲁棒性与可解释性仍鲜有探索。这限制了轨迹生成算法在含噪真实世界数据上的适用性,也削弱了其在下游任务中的可信度。为应对该问题,我们利用城市轨迹中固有的规则结构,提出一种基于路径片段(pathlet)表示的深度生成模型;该表示将轨迹编码为二进制向量,其对应一个经学习所得的轨迹片段字典。具体而言,我们引入一个概率图模型来刻画轨迹生成过程,该模型包含变分自编码器(VAE)组件与线性解码器组件。训练过程中,模型可同步学习路径片段表示的隐空间嵌入以及捕获轨迹数据集中移动模式的路径片段字典。本模型的条件版本还可依据时空约束生成定制化轨迹。即使在含噪数据上,该模型亦能有效学习数据分布,在两个真实轨迹数据集上相较强基线分别取得35.4%和26.3%的相对性能提升。此外,所生成轨迹可便捷地用于多种下游任务,包括轨迹预测与数据去噪。最后,该框架设计具备显著效率优势,相较先前方法节省64.8%的运行时间与56.5%的GPU显存。