While Vision-Language Models (VLMs) have achieved notable progress in computational pathology (CPath), the gigapixel scale and spatial heterogeneity of Whole Slide Images (WSIs) continue to pose challenges for multimodal understanding. Existing alignment methods struggle to capture fine-grained correspondences between textual descriptions and visual cues across thousands of patches from a slide, compromising their performance on downstream tasks. In this paper, we propose PathFLIP (Pathology Fine-grained Language-Image Pretraining), a novel framework for holistic WSI interpretation. PathFLIP decomposes slide-level captions into region-level subcaptions and generates text-conditioned region embeddings to facilitate precise visual-language grounding. By harnessing Large Language Models (LLMs), PathFLIP can seamlessly follow diverse clinical instructions and adapt to varied diagnostic contexts. Furthermore, it exhibits versatile capabilities across multiple paradigms, efficiently handling slide-level classification and retrieval, fine-grained lesion localization, and instruction following. Extensive experiments demonstrate that PathFLIP outperforms existing large-scale pathological VLMs on four representative benchmarks while requiring significantly less training data, paving the way for fine-grained, instruction-aware WSI interpretation in clinical practice.


翻译:尽管视觉语言模型(VLMs)在计算病理学(CPath)领域已取得显著进展,但全切片图像(WSIs)的十亿像素级尺度与空间异质性仍为多模态理解带来挑战。现有对齐方法难以捕捉文本描述与切片中数千个图像块之间细粒度的对应关系,从而影响其在下游任务中的性能。本文提出PathFLIP(病理学细粒度语言-图像预训练),一种用于整体WSI解析的新型框架。PathFLIP将切片级描述解构为区域级子描述,并生成文本条件化的区域嵌入以实现精准的视觉-语言对齐。通过利用大语言模型(LLMs),PathFLIP能够无缝遵循多样化的临床指令并适应不同诊断场景。此外,该框架展现出跨多任务范式的通用能力,可高效处理切片级分类与检索、细粒度病变定位及指令跟随等任务。大量实验表明,PathFLIP在四个代表性基准测试中均优于现有的大规模病理学VLMs,同时所需训练数据显著减少,为临床实践中实现细粒度、指令感知的WSI解析开辟了新途径。

0
下载
关闭预览

相关内容

【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
38+阅读 · 2021年4月9日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员