Achieving both high accuracy and topological continuity in road segmentation from satellite imagery is a critical goal for applications ranging from urban planning to disaster response. State-of-the-art methods often rely on Vision Transformers, which excel at capturing global context, yet their quadratic complexity is a significant barrier to efficient deployment, particularly for on-board processing in resource-constrained platforms. In contrast, emerging State Space Models like Mamba offer linear-time efficiency and are inherently suited to modeling long, continuous structures. We posit that these architectures have complementary strengths. To this end, we introduce PathMamba, a novel hybrid architecture that integrates Mamba's sequential modeling with the Transformer's global reasoning. Our design strategically uses Mamba blocks to trace the continuous nature of road networks, preserving topological structure, while integrating Transformer blocks to refine features with global context. This approach yields topologically superior segmentation maps without the prohibitive scaling costs of pure attention-based models. Our experiments on the DeepGlobe Road Extraction and Massachusetts Roads datasets demonstrate that PathMamba sets a new state-of-the-art. Notably, it significantly improves topological continuity, as measured by the APLS metric, setting a new benchmark while remaining computationally competitive.


翻译:在卫星图像道路分割中同时实现高精度与拓扑连续性,对于从城市规划到灾害响应等应用至关重要。当前最先进的方法通常依赖于视觉Transformer,其在捕获全局上下文方面表现出色,但其二次复杂度是高效部署的重要障碍,特别是在资源受限平台上的机载处理中。相比之下,新兴的状态空间模型(如Mamba)提供了线性时间效率,且天生适合建模长而连续的结构。我们认为这些架构具有互补优势。为此,我们提出了PathMamba,一种新颖的混合架构,将Mamba的顺序建模能力与Transformer的全局推理能力相结合。我们的设计策略性地使用Mamba块来追踪道路网络的连续性,保持拓扑结构,同时集成Transformer块以利用全局上下文细化特征。这种方法在不引入纯基于注意力模型的过高扩展成本的前提下,产生了拓扑上更优的分割图。我们在DeepGlobe道路提取和Massachusetts道路数据集上的实验表明,PathMamba确立了新的最先进水平。值得注意的是,它在拓扑连续性方面显著提升(以APLS指标衡量),设立了新的基准,同时保持了计算竞争力。

0
下载
关闭预览

相关内容

国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员