Despite the success of convolution- and attention-based models in vision tasks, their rigid receptive fields and complex architectures limit their ability to model irregular spatial patterns and hinder interpretability, therefore posing challenges for tasks requiring high model transparency. Clustering paradigms offer promising interpretability and flexible semantic modeling, but suffer from limited accuracy, low efficiency, and gradient vanishing during training. To address these issues, we propose CLUster attEntion Network (CLUENet), an transparent deep architecture for visual semantic understanding. We propose three key innovations include (i) a Global Soft Aggregation and Hard Assignment with a Temperature-Scaled Cosin Attention and gated residual connections for enhanced local modeling, (ii) inter-block Hard and Shared Feature Dispatching, and (iii) an improved cluster pooling strategy. These enhancements significantly improve both classification performance and visual interpretability. Experiments on CIFAR-100 and Mini-ImageNet demonstrate that CLUENet outperforms existing clustering methods and mainstream visual models, offering a compelling balance of accuracy, efficiency, and transparency.


翻译:尽管基于卷积和注意力的模型在视觉任务中取得了成功,但其固定的感受野和复杂的架构限制了它们对不规则空间模式的建模能力,并阻碍了可解释性,因此对需要高模型透明度的任务提出了挑战。聚类范式提供了有前景的可解释性和灵活的语义建模能力,但存在精度有限、效率低下以及训练过程中梯度消失等问题。为解决这些问题,我们提出了CLUster attEntion Network(CLUENet),一种用于视觉语义理解的透明深度架构。我们提出了三项关键创新,包括:(i)采用温度缩放余弦注意力和门控残差连接的全局软聚合与硬分配机制,以增强局部建模能力;(ii)块间硬分配与共享特征调度机制;(iii)改进的集群池化策略。这些改进显著提升了分类性能和视觉可解释性。在CIFAR-100和Mini-ImageNet数据集上的实验表明,CLUENet在准确率、效率和透明度方面实现了优越的平衡,其性能超越了现有聚类方法和主流视觉模型。

0
下载
关闭预览

相关内容

【CVPR2023】NS3D:3D对象和关系的神经符号Grounding
专知会员服务
22+阅读 · 2023年3月26日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
46+阅读 · 2020年9月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员