Conformal prediction quantifies the uncertainty of machine learning models by augmenting point predictions with valid prediction sets. For complex scenarios involving multiple trials, models, or data sources, conformal prediction sets can be aggregated to create a prediction set that captures the overall uncertainty, often improving precision. However, aggregating multiple prediction sets with individual $1-α$ coverage inevitably weakens the overall guarantee, typically resulting in $1-2α$ worst-case coverage. In this work, we propose a framework for the weighted aggregation of prediction sets, where weights are assigned to each prediction set based on their contribution. Our framework offers flexible control over how the sets are aggregated, achieving tighter coverage bounds that interpolate between the $1-2α$ guarantee of the combined models and the $1-α$ guarantee of an individual model depending on the distribution of weights. Importantly, our framework generalizes to data-dependent weights, as we derive a procedure for weighted aggregation that maintains finite-sample validity even when the weights depend on the data. This extension makes our framework broadly applicable to settings where weights are learned, such as mixture-of-experts (MoE), and we demonstrate through experiments in the MoE setting that our methods achieve adaptive coverage.


翻译:保形预测通过为点预测附加有效的预测集来量化机器学习模型的不确定性。对于涉及多轮试验、多模型或多数据源的复杂场景,可将保形预测集进行聚合以构建能捕捉整体不确定性的预测集,这通常能提升预测精度。然而,聚合多个具有个体$1-α$覆盖度的预测集必然削弱整体保证,通常会导致$1-2α$的最坏情况覆盖度。本研究提出一种预测集的加权聚合框架,其中根据每个预测集的贡献为其分配权重。该框架可灵活控制集合聚合方式,实现更紧致的覆盖度边界——其介于组合模型的$1-2α$保证与单个模型的$1-α$保证之间,具体取决于权重分布。尤为重要的是,本框架可推广至数据依赖型权重:我们推导出加权聚合程序,即使权重依赖于数据时仍能保持有限样本有效性。这一扩展使本框架广泛适用于权重可学习的情境(如专家混合模型),我们在MoE场景下的实验表明,所提方法能够实现自适应覆盖度。

0
下载
关闭预览

相关内容

NeurIPS 2021 | 寻找用于变分布泛化的隐式因果因子
专知会员服务
17+阅读 · 2021年12月7日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员