编辑推荐:
目前密集人群动力学研究多依赖控制实验数据,且缺乏实地研究。研究人员针对里昂灯光节开展多尺度实地研究,收集大量相关数据。这些数据可用于行人动力学模型的基准测试,为人群管理提供重要依据。
在生活中,大型活动上密集的人群总是让人印象深刻。当人们聚集在热闹的节日庆典、大型音乐会现场时,人潮涌动,大家都朝着不同的方向前行。但这样的密集人群场景,其实隐藏着诸多安全隐患。回顾那些令人痛心的事件,如德国杜伊斯堡的 “爱的大游行” 悲剧、韩国首尔万圣节街头的拥挤踩踏事故,都凸显出对密集人群动力学深入理解的迫切性。
过去,虽然研究人员一直致力于探索密集人群的运动规律,希望能找到预测行人轨迹的方法,从而更好地保障公众安全,但目前的研究主要依赖在控制环境下收集的数据。在实验室或者特定的模拟场景中,研究人员可以精准控制各种变量,观察一些不太常见的情况,像紧急疏散、高密度人流交汇等场景下人群的行为。不过,这些控制条件和现实场景有着很大的差异,参与者也知道自己处于研究环境中,行为可能并非完全自然。而且,这些实验往往忽略了人群所处的更广泛的现实背景。与此同时,用于训练机器学习算法等数据驱动方法的实地数据也非常匮乏。现有的一些实地数据集,要么人群密度低,像常用的 ETH 和 UCY 数据集;要么涵盖的场景复杂,数据混杂,如斯坦福无人机数据集(SDD)包含了各种道路使用者;还有的数据集虽然覆盖范围大,但平均密度低,如纽约中央车站数据集(GS)。
为了解决这些问题,来自法国、德国多所机构的研究人员针对 2022 年法国里昂灯光节开展了一项多尺度实地研究。里昂灯光节是一个为期四天的盛大活动,每年都吸引数百万游客前来观赏。在这个活动中,管理人群流动成为了组织者面临的一大难题。研究人员抓住这个机会,收集了大量与行人动力学和人群管理相关的数据。这项研究成果发表在《Scientific Data》上,为该领域的研究提供了新的方向和重要的数据支持。
研究人员采用了多种关键技术方法来开展这项研究。在数据收集方面,他们通过问卷调查、招募志愿者获取 GPS 数据和碰撞计数,以及安装多个摄像头(包括 TopView 摄像头和 LargeView 摄像头)拍摄人群活动场景。在视频处理和行人跟踪环节,针对不同类型的摄像头数据采用不同的处理方式,如利用 PeTrack 软件处理 TopView 摄像头数据,对于 LargeView 摄像头数据则主要通过手动跟踪的方式。最后,将所有轨迹数据映射到全球坐标,并计算各种定量指标来分析数据。
数据收集与处理
- 宏观数据收集:研究人员在灯光节现场,针对宏观层面的人群流动进行研究。他们在 Place des Terreaux 广场周围观察宏观人群流动的大致模式,通过调查路人,询问了诸如同行人数、同行儿童数量、上一场和下一场观看的演出等问题,力求全面了解人群的构成和流动意向。
- 中观数据收集:为获取中观层面的数据,研究人员招募了 24 名来自里昂 Institut Lumière Matière 的学生志愿者。志愿者按照规定路线,跟随人群流动,使用智能手机上的 GeoTracker 应用记录 GPS 位置,同时用秒表记录与其他行人的碰撞次数。最终,16 名学生提供了详细的身体接触列表,其中 8 人的数据能与 GPS 数据关联。
- 微观数据收集与处理 - TopView 摄像头:为了获取微观层面更精细的行人轨迹,研究人员在 Place des Terreaux 广场周围的关键位置部署了轻便的 SJCAM A10 摄像头。这些摄像头具有夜视功能和长电池寿命,从顶部拍摄特定区域。研究人员利用 PeTrack 软件从拍摄的视频中提取行人轨迹。在处理过程中,需要对摄像头进行校准,包括内部校准和外部校准,以将像素坐标转换为真实世界坐标。尽管由于行人身高差异等因素会存在一定误差,但通过将摄像头安装在较高位置并从天顶视角拍摄,可降低误差。不过,由于现场照明条件复杂,行人头部检测和跟踪存在困难,需要手动干预和修正。
- 微观数据收集与处理 - LargeView 摄像头:除了 TopView 摄像头,研究人员还收集了 LargeView 摄像头拍摄的视频。这些摄像头能提供整个广场的鸟瞰视角,但由于视野广阔、照明变化大,无法使用 PeTrack 软件进行自动跟踪,主要采用手动跟踪的方式。在跟踪前,对摄像头进行了外部校准,通过在广场上预设均匀分布的点,安排工作人员定位来完成。研究人员先手动识别特定时间点广场上所有人员的位置,然后随机跟踪部分个体,并重点关注广场上喷泉附近人员流动方向相反的区域,手动跟踪该区域内所有可观察到的行人轨迹。
数据转换与指标计算
- 坐标转换:研究人员将所有轨迹映射到 RGF93 Lambert - 93 坐标参考系统(EPSG:2154),通过调整视频和卫星图像中可见的多个地标位置,以及直接测量广场上的障碍物(如喷泉、临时人群屏障、护柱和 Buren 柱)的几何形状和位置,确保数据在全球定位上的精确性。
- 定量指标计算:为了深入分析行人动力学,研究人员计算了多种定量指标。通过在 Place des Terreaux 广场的两个主要出口绘制虚拟横截面线,人工统计经过的人数,以此测量广场疏散时的流出率。在密度场计算方面,将提取的微观轨迹通过与高斯核卷积,得到局部密度场ρ(r,t),并通过在短时间窗口Δt内平均,进一步平滑时间依赖性,得到ρ(r,t) 。对于速度场,根据行人在短时间间隔δt内的位置向量差估计微观速度vj(t),对轨迹进行平滑处理后,通过高斯卷积得到速度场v(r,t) ,并通过在有限时间间隔Δt内平均,得到v(r,t) 。此外,通过计算方差场Varv(r,t) ,可以了解速度场中的可能逆流和波动情况。
数据记录与平台发布
研究人员将此次研究中与 2022 年里昂灯光节密集行人动力学相关的数据集在 Zenodo 上公开,包括宏观人群流动、微观个体轨迹、GPS 轨迹、接触数据和人群交互统计数据等。同时,他们还发布了一个在线平台(
https://go.fzj.de/madras-app),方便用户可视化和绘制大部分收集到的数据。
技术验证
- TopView 轨迹数据集验证:研究人员对 TopView 录制的轨迹数据集进行了视觉检查和必要的手动校正。通过比较 TopView_1B 和 TopView_2C、TopView_1C 和 TopView_2D 视频录制的密度和平均速度的重叠时间序列,发现重叠序列之间的均方根差异相对较小(速度为 5 - 10%,密度为 5 - 7%),但存在系统偏差,可能是由于视角效应和光学几何畸变校正的部分偏差导致。
- LargeView 轨迹数据集验证:由于 LargeView 录制的分辨率较低,数据提取质量存在一定问题,如可能漏检较矮个体或交换相交轨迹。研究人员安排两名工作人员(编码员)独立提取轨迹并相互分析,发现他们在大部分数据上达成一致。通过联合分析,在 LargeView Zoom_O 数据集和 LargeView Zoom_A 数据集中分别检测到少量主要错误和次要错误,并进行了校正。在评估局部密度误差时,定义了两个矩形子区域,两名编码员分别计数区域内的人数,结果显示数据集给出的局部密度最多低估实际密度 9 - 30%。
- 坐标映射验证:在将行人像素坐标映射到真实世界坐标的过程中,研究人员通过让人员站在预设位置进行校准,并仔细测量预设位置之间的距离。在广场最远处,校准误差可能达到几米,但转换后,人群位置与从 Google Earth 数据获得的场地几何形状和独立定位的障碍物位置兼容。
- 调查验证:由六名不同的工作人员进行关于人群起源、目的地和群体规模的口头调查,并在现场被动观察群体规模,以确保调查数据的可靠性。
这项研究意义重大。它提供了首个全面描述不同尺度下密集行人动力学的实地数据集,涵盖了从宏观人群流到微观行人轨迹的丰富信息。这些数据可以作为基准,用于测试和改进现有的行人动力学模型,帮助研究人员更准确地理解和预测人群行为。对于活动组织者和城市规划者而言,该研究成果能为未来的大型活动人群管理和场地设计提供科学依据,有助于预防类似的人群安全事故,保障公众在密集人群场景下的安全。同时,研究中开发的方法和工具,以及公开的数据和代码,也为后续相关研究提供了重要的参考和资源,推动了该领域的进一步发展。