Surrogate models (including deep neural networks and other machine learning algorithms in supervised learning) are capable of approximating arbitrarily complex, high-dimensional input-output problems in science and engineering, but require a thorough data-agnostic uncertainty quantification analysis before these can be deployed for any safety-critical application. The standard approach for data-agnostic uncertainty quantification is to use conformal prediction (CP), a well-established framework to build uncertainty models with proven statistical guarantees that do not assume any shape for the error distribution of the surrogate model. However, since the classic statistical guarantee offered by CP is given in terms of bounds for the marginal coverage, for small calibration set sizes (which are frequent in realistic surrogate modelling that aims to quantify error at different regions), the potentially strong dispersion of the coverage distribution around its average negatively impacts the relevance of the uncertainty model's statistical guarantee, often obtaining coverages below the expected value, resulting in a less applicable framework. After providing a gentle presentation of uncertainty quantification for surrogate models for machine learning practitioners, in this paper we bridge the gap by proposing a new statistical guarantee that offers probabilistic information for the coverage of a single conformal predictor. We show that the proposed framework converges to the standard solution offered by CP for large calibration set sizes and, unlike the classic guarantee, still offers relevant information about the coverage of a conformal predictor for small data sizes. We validate the methodology in a suite of examples, and implement an open access software solution that can be used alongside common conformal prediction libraries to obtain uncertainty models that fulfil the new guarantee.


翻译:代理模型(包括监督学习中的深度神经网络及其他机器学习算法)能够近似科学与工程中任意复杂的高维输入-输出问题,但在部署至任何安全关键应用前,需进行彻底的数据无关不确定性量化分析。数据无关不确定性量化的标准方法是采用保形预测(CP)——一个成熟的框架,可构建具有严格统计保证的不确定性模型,且无需假设代理模型误差分布的任何形态。然而,由于CP提供的经典统计保证是基于边际覆盖率的边界给出的,对于较小的校准集规模(这在旨在量化不同区域误差的现实代理建模中十分常见),覆盖率分布可能围绕其均值出现较大离散,从而削弱不确定性模型统计保证的实际意义,常导致覆盖率低于预期值,使得框架的适用性降低。本文首先为机器学习从业者简要介绍代理模型的不确定性量化,随后通过提出一种新的统计保证来弥合这一差距,该保证可为单个保形预测器的覆盖率提供概率信息。我们证明,所提框架在大规模校准集下收敛于CP提供的标准解,且与经典保证不同,其仍能为小数据规模下的保形预测器覆盖率提供有效信息。我们通过一系列案例验证了该方法,并实现了一个开源软件工具,可与常见保形预测库配合使用,以获得满足新统计保证的不确定性模型。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月19日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员