《Vehicles》:Multi-Task Seq2Seq Framework for Highway Incident Duration Prediction Incorporating Response Steps and Time Offsets
编辑推荐:
本文提出一种创新的多任务序列到序列(Seq2Seq)框架,结合BERT编码器与Transformer解码器,能够从事件报警文本中联合预测标准化响应步骤序列及其对应时间偏移。该模型通过响应步骤感知(response-step-aware)时序预测模块与自适应加权多任务损失函数,显著提升了事件总时长预测精度(RMSE=18.05,MAE=14.69),同时生成高质量响应流程文本(BLEU-4=62.33%,ROUGE-L=82.04%),为智能交通管理系统提供了可解释的决策支持。
引言
高速公路交通事件是影响道路通行效率与安全的主要因素,其持续时间是衡量事件影响规模与严重程度的关键变量。传统研究多集中于对事件总时长的单次估计或动态剩余时长预测,缺乏对响应过程细粒度建模。现有文本驱动方法往往将语义提取与时长回归作为独立过程,限制了深度联合优化。为解决上述局限,本研究提出一种端到端的多任务Seq2Seq框架,旨在联合预测事件响应步骤及其关联时间偏移,实现对事件管理过程的细粒度、可解释建模。
材料与方法
数据来源于云南省交通投资建设集团2024年1月1日至8月19日的内部应急事件处置记录。经过数据清洗与过滤,最终保留4128个有效事件样本,包括3072起交通事故(74.42%)、574起车辆故障(13.91%)和482起拥堵事件(11.68%)。事件持续时间定义为从事件发现到交通流完全恢复正常的总时间间隔。文本预处理阶段,利用正则表达式从报警描述和处置报告中提取时间信息,构建“时间-动作”序列对。所有文本字段均经过中文分词(Jieba)和去噪处理,生成包含3249个词条的全局词汇表。
模型架构核心为基于BERT编码器和Transformer解码器的多任务学习模型。BERT编码器负责对事件类型和报警描述文本进行深度语义编码,生成上下文相关的向量表示。Transformer解码器则以自回归方式生成响应步骤序列。创新性地引入了响应步骤感知时间预测模块,该模块利用当前预测步骤的索引嵌入作为查询,通过双重注意力机制从编码器输出与解码器历史隐藏状态的联合上下文矩阵中提取信息,进而预测每个步骤的时间偏移。采用自适应加权多任务损失函数(交叉熵损失用于动作分类,Smooth L1损失用于时间回归)来联合优化两个任务。训练时采用分层渐进微调策略,冻结BERT底层参数,仅微调最后两层,并为BERT和其他模块设置不同学习率(BERT: 2×10-5;其他: 1×10-4)。
结果与讨论
实验结果表明,所提出的多任务预测模型在持续时间预测方面全面优于基线模型(LoRA调优的大语言模型、BERT回归模型、BERT+GRU模型以及标准Seq2Seq模型),其RMSE、MAE、MAPE、MedAE和SMAPE分别达到18.05、14.69、37.13%、13.23和33.55%。在响应步骤生成方面,模型也取得了优异的性能(BLEU-4: 62.33%, ROUGE-L: 82.04%),表明其能有效学习文本数据中的程序逻辑和时间模式。对不同事件类型的性能分析显示,模型在机械故障事件上时间预测误差最小,而在拥堵事件上绝对误差较大,但相对误差较低,反映了不同事件类型固有的不确定性和持续时长分布差异。响应步骤生成质量在拥堵事件上最佳,可能与该类事件处置流程相对标准化有关。案例研究进一步证实了模型能够生成逻辑连贯的响应链条,尽管在细节层面(如具体车道管理决策)仍存在细微偏差。
结论与展望
本研究成功地将事件持续时间预测从传统的“黑箱”回归转变为过程可解释的细粒度预测范式。通过联合学习“采取何种行动”与“行动耗时多久”,模型不仅提升了预测精度,还为交通事件管理提供了结构化、透明的决策支持。该框架证明了过程级、步骤条件建模在智能交通系统中的实用价值。未来工作将致力于整合多源异构数据(如路网结构、实时交通状态、处置反馈),开发能够在线更新预测结果的动态框架,以提升模型在跨区域和罕见事件场景下的鲁棒性。
局限性包括模型仅基于初始报警文本进行一次性预测,缺乏对动态响应过程的在线更新机制;未充分利用空间结构等信息;数据集局限于特定区域和常见事件类型,可能影响泛化能力。