Deploying spatio-temporal forecasting models across many cities is difficult: traffic networks differ in size and topology, data availability can vary by orders of magnitude, and new cities may provide only a short history of logs. Existing deep traffic models are typically trained per city and backbone, creating high maintenance cost and poor transfer to data-scarce cities. We ask whether a single, backbone-agnostic layer can condition on "which city this sequence comes from", improve accuracy in full- and low-data regimes, and support better cross-city adaptation with minimal code changes. We propose CityCond, a light-weight city-conditioned memory layer that augments existing spatio-temporal backbones. CityCond combines a city-ID encoder with an optional shared memory bank (CityMem). Given a city index and backbone hidden states, it produces city-conditioned features fused through gated residual connections. We attach CityCond to five representative backbones (GRU, TCN, Transformer, GNN, STGCN) and evaluate three regimes: full-data, low-data, and cross-city few-shot transfer on METR-LA and PEMS-BAY. We also run auxiliary experiments on SIND, a drone-based multi-agent trajectory dataset from a signalized intersection in Tianjin (we focus on pedestrian tracks). Across more than fourteen model variants and three random seeds, CityCond yields consistent improvements, with the largest gains for high-capacity backbones such as Transformers and STGCNs. CityMem reduces Transformer error by roughly one third in full-data settings and brings substantial gains in low-data and cross-city transfer. On SIND, simple city-ID conditioning modestly improves low-data LSTM performance. CityCond can therefore serve as a reusable design pattern for scalable, multi-city forecasting under realistic data constraints.


翻译:跨多个城市部署时空预测模型面临诸多挑战:交通网络在规模和拓扑结构上存在差异,数据可用性可能相差数个数量级,而新城市可能仅提供较短的历史日志。现有的深度交通模型通常按城市和骨干网络分别训练,导致维护成本高昂且对数据稀缺城市的迁移效果不佳。我们探讨是否可以通过一个单一的、与骨干网络无关的层来条件化“序列来自哪个城市”,从而在完整数据和低数据条件下提升预测精度,并以最小的代码改动支持更好的跨城市适应。我们提出了CityCond,一种轻量级的城市条件记忆层,用于增强现有的时空骨干网络。CityCond结合了城市ID编码器与一个可选的共享记忆库(CityMem)。给定城市索引和骨干网络的隐藏状态,它通过门控残差连接融合生成城市条件特征。我们将CityCond附加到五个代表性骨干网络(GRU、TCN、Transformer、GNN、STGCN)上,并在METR-LA和PEMS-BAY数据集上评估了三种场景:完整数据、低数据以及跨城市少样本迁移。此外,我们在SIND数据集上进行了辅助实验,该数据集是基于无人机的多智能体轨迹数据,采集自天津的一个信号控制交叉口(我们重点关注行人轨迹)。在超过十四种模型变体和三个随机种子的测试中,CityCond均带来了一致的性能提升,其中对高容量骨干网络(如Transformer和STGCN)的提升最为显著。CityMem在完整数据设置下将Transformer的误差降低了约三分之一,并在低数据和跨城市迁移场景中带来了显著增益。在SIND数据集上,简单的城市ID条件化也适度提升了低数据条件下LSTM的性能。因此,CityCond可作为一种可复用的设计模式,用于在现实数据约束下实现可扩展的多城市预测。

0
下载
关闭预览

相关内容

数据集,又称为资料集、数据集合或资料集合,是一种由数据所组成的集合。
Data set(或dataset)是一个数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。它列出的价值观为每一个变量,如身高和体重的一个物体或价值的随机数。每个数值被称为数据资料。对应于行数,该数据集的数据可能包括一个或多个成员。
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
从HPO到NAS: 自动深度学习
专知会员服务
39+阅读 · 2020年6月15日
时空数据挖掘:综述
专知
34+阅读 · 2022年6月30日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关资讯
时空数据挖掘:综述
专知
34+阅读 · 2022年6月30日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
Pytorch多模态框架MMF
专知
50+阅读 · 2020年6月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员