Variable importance is one of the most widely used measures for interpreting machine learning with significant interest from both statistics and machine learning communities. Recently, increasing attention has been directed toward uncertainty quantification in these metrics. Current approaches largely rely on one-step procedures, which, while asymptotically efficient, can present higher sensitivity and instability in finite sample settings. To address these limitations, we propose a novel method by employing the targeted learning (TL) framework, designed to enhance robustness in inference for variable importance metrics. Our approach is particularly suited for conditional permutation variable importance. We show that it (i) retains the asymptotic efficiency of traditional methods, (ii) maintains comparable computational complexity, and (iii) delivers improved accuracy, especially in finite sample contexts. We further support these findings with numerical experiments that illustrate the practical advantages of our method and validate the theoretical results.


翻译:变量重要性是解释机器学习模型最广泛使用的度量之一,在统计学和机器学习领域均受到极大关注。近年来,这些度量的不确定性量化问题日益受到重视。现有方法主要依赖一步式估计程序,虽然具有渐近有效性,但在有限样本条件下可能表现出更高的敏感性和不稳定性。为克服这些局限,我们提出一种基于目标学习框架的新方法,旨在增强变量重要性度量的推断鲁棒性。该方法特别适用于条件置换变量重要性分析。我们证明该方法具有以下特性:(i) 保持传统方法的渐近有效性,(ii) 维持相近的计算复杂度,(iii) 尤其在有限样本场景下提供更高的估计精度。我们通过数值实验进一步验证了这些结论,展示了所提方法的实际优势并支撑了理论结果。

0
下载
关闭预览

相关内容

国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员