Compositional generalization-a key open challenge in modern machine learning-requires models to predict unknown combinations of known concepts. However, assessing compositional generalization remains a fundamental challenge due to the lack of standardized evaluation protocols and the limitations of current benchmarks, which often favor efficiency over rigor. At the same time, general-purpose vision architectures lack the necessary inductive biases, and existing approaches to endow them compromise scalability. As a remedy, this paper introduces: 1) a rigorous evaluation framework that unifies and extends previous approaches while reducing computational requirements from combinatorial to constant; 2) an extensive and modern evaluation on the status of compositional generalization in supervised vision backbones, training more than 5000 models; 3) Attribute Invariant Networks, a class of models establishing a new Pareto frontier in compositional generalization, achieving a 23.43% accuracy improvement over baselines while reducing parameter overhead from 600% to 16% compared to fully disentangled counterparts. Our code is available at https://github.com/IBM/scalable-compositional-generalization.


翻译:组合泛化——现代机器学习中的一个关键开放挑战——要求模型能够预测已知概念的未知组合。然而,由于缺乏标准化的评估协议以及当前基准测试的局限性(这些基准往往更注重效率而非严谨性),评估组合泛化仍然是一个根本性挑战。与此同时,通用视觉架构缺乏必要的归纳偏置,而现有的赋予这些架构组合泛化能力的方法又牺牲了可扩展性。作为解决方案,本文提出了:1)一个严谨的评估框架,该框架统一并扩展了先前的方法,同时将计算需求从组合级降低到常数级;2)在监督式视觉骨干网络中对组合泛化现状进行了广泛且现代化的评估,训练了超过5000个模型;3)属性不变网络,这是一类在组合泛化方面建立了新帕累托前沿的模型,与基线相比实现了23.43%的准确率提升,同时与完全解耦的对应模型相比,将参数开销从600%降低至16%。我们的代码可在 https://github.com/IBM/scalable-compositional-generalization 获取。

0
下载
关闭预览

相关内容

【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
专知会员服务
30+阅读 · 2020年9月18日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员