Pre-trained audio models excel at detecting acoustic patterns in auscultation sounds but often fail to grasp their clinical significance, limiting their use and performance in diagnostic tasks. To bridge this gap, we introduce AcuLa (Audio-Clinical Understanding via Language Alignment), a lightweight post-training framework that instills semantic understanding into any audio encoder by aligning it with a medical language model, which acts as a "semantic teacher." To enable alignment at scale, we construct a large-scale dataset by leveraging off-the-shelf large language models to translate the rich, structured metadata accompanying existing audio recordings into coherent clinical reports. Our alignment strategy combines a representation-level contrastive objective with a self-supervised modeling, ensuring that the model learns clinical semantics while preserving fine-grained temporal cues. AcuLa achieves state-of-the-art results across 18 diverse cardio-respiratory tasks from 10 different datasets, improving the mean AUROC on classification benchmarks from 0.68 to 0.79 and, on the most challenging COVID-19 cough detection task, boosting the AUROC from 0.55 to 0.89. Our work demonstrates that this audio-language alignment transforms purely acoustic models into clinically-aware diagnostic tools, establishing a novel paradigm for enhancing physiological understanding in audio-based health monitoring.


翻译:预训练的音频模型在听诊声音的声学模式检测方面表现出色,但往往难以把握其临床意义,这限制了其在诊断任务中的应用与性能。为弥合这一差距,我们提出了AcuLa(通过语言对齐实现音频-临床理解),一种轻量级的训练后框架,通过将任意音频编码器与作为“语义教师”的医学语言模型进行对齐,从而为其注入语义理解能力。为实现大规模对齐,我们利用现成的大型语言模型,将现有音频记录所附带的丰富结构化元数据转化为连贯的临床报告,从而构建了一个大规模数据集。我们的对齐策略结合了表示层对比目标与自监督建模,确保模型在保留细粒度时序线索的同时学习临床语义。AcuLa在来自10个不同数据集的18项多样化心肺任务中取得了最先进的结果,将分类基准的平均AUROC从0.68提升至0.79,并在最具挑战性的COVID-19咳嗽检测任务中,将AUROC从0.55显著提升至0.89。我们的工作表明,这种音频-语言对齐能够将纯声学模型转化为具备临床意识的诊断工具,为增强基于音频的健康监测中的生理理解建立了一种新颖的范式。

0
下载
关闭预览

相关内容

图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员