Unsupervised Domain Adaptation (UDA) is essential for adapting machine learning models to new, unlabeled environments where data distribution shifts can degrade performance. Existing UDA algorithms are designed for single-label tasks and rely on significant computational resources, limiting their use in multi-label scenarios and in resource-constrained IoT devices. Overcoming these limitations is particularly challenging in contexts such as urban sound classification, where overlapping sounds and varying acoustics require robust, adaptive multi-label capabilities on low-power, on-device systems. To address these limitations, we introduce Mote-scale Unsupervised Domain Adaptation for Sounds (MUDAS), a UDA framework developed for multi-label sound classification in resource-constrained IoT settings. MUDAS efficiently adapts models by selectively retraining the classifier in situ using high-confidence data, minimizing computational and memory requirements to suit on-device deployment. Additionally, MUDAS incorporates class-specific adaptive thresholds to generate reliable pseudo-labels and applies diversity regularization to improve multi-label classification accuracy. In evaluations on the SONYC Urban Sound Tagging (SONYC-UST) dataset recorded at various New York City locations, MUDAS demonstrates notable improvements in classification accuracy over existing UDA algorithms, achieving good performance in a resource-constrained IoT setting.


翻译:无监督域自适应(UDA)对于将机器学习模型适应于新的、无标签环境至关重要,在这些环境中,数据分布偏移可能导致性能下降。现有的UDA算法专为单标签任务设计,且依赖大量计算资源,限制了其在多标签场景及资源受限的物联网设备中的应用。在城市声音分类等场景中,克服这些限制尤为困难,因为重叠的声音和变化的声学特性要求低功耗、设备端系统具备鲁棒的自适应多标签能力。为解决这些限制,我们提出了节点级声音无监督域自适应(MUDAS),这是一个为资源受限物联网环境中的多标签声音分类开发的UDA框架。MUDAS通过使用高置信度数据在设备端有选择地重新训练分类器,高效地适应模型,同时最小化计算和内存需求以适合设备端部署。此外,MUDAS整合了类别特定的自适应阈值以生成可靠的伪标签,并应用多样性正则化以提高多标签分类的准确性。在基于纽约市多个地点记录的SONYC城市声音标注(SONYC-UST)数据集上的评估中,MUDAS相较于现有UDA算法在分类准确性上表现出显著提升,在资源受限的物联网环境中实现了良好的性能。

0
下载
关闭预览

相关内容

【CVPR2024】VidLA: 大规模视频-语言对齐
专知会员服务
20+阅读 · 2024年3月31日
ChatAug: 利用ChatGPT进行文本数据增强
专知会员服务
81+阅读 · 2023年3月4日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员