The classical paradigm of scoring rules is to discriminate between two different forecasts by comparing them with observations. The probability distribution of the observed record is assumed to be perfect as a verification benchmark. In practice, however, observations are almost always tainted by errors and uncertainties. If the yardstick used to compare forecasts is imprecise, one can wonder whether such types of errors may or may not have a strong influence on decisions based on classical scoring rules. We propose a new scoring rule scheme in the context of models that incorporate errors of the verification data. We rely on existing scoring rules and incorporate uncertainty and error of the verification data through a hidden variable and the conditional expectation of scores when they are viewed as a random variable. The proposed scoring framework is compared to scores used in practice, and is expressed in various setups, mainly an additive Gaussian noise model and a multiplicative Gamma noise model. By considering scores as random variables one can access the entire range of their distribution. In particular we illustrate that the commonly used mean score can be a misleading representative of the distribution when this latter is highly skewed or have heavy tails. In a simulation study, through the power of a statistical test and the computation of Wasserstein distances between scores distributions, we demonstrate the ability of the newly proposed score to better discriminate between forecasts when verification data are subject to uncertainty compared with the scores used in practice. Finally, we illustrate the benefit of accounting for the uncertainty of the verification data into the scoring procedure on a dataset of surface wind speed from measurements and numerical model outputs.


翻译:典型的评分规则范式是将两种不同的预测与观测进行比较,从而区分两种不同的预测。观察到的记录的概率分布假定是完美的,作为核查基准。但在实践中,观测几乎总是有错误和不确定因素的污点。如果用来比较预测的尺度不准确,人们会怀疑这类错误类型是否会对基于古典评分规则的决定产生强烈影响。我们提议在模型中采用新的评分规则,其中含有核查数据错误。我们依靠现有的评分规则,并将核查数据的不确定性和错误通过隐藏变量和有条件的评分预期(当它们被视为随机变量时)纳入。在实践中,提议的评分框架几乎总是被错误和不确定因素所覆盖。在各种设置中,主要是加加加加高的噪音模型和倍增的伽马噪音模型。通过将评分作为随机变量来考虑其分布的整个范围。我们特别要说明,当后者被高度扭曲或有重尾巴时,通常使用的评分可能是分配的误导性代表。在模拟研究中,通过统计测试的力量和计算卡列的比值能力,我们最后的评分数据在计算中显示,我们使用的比标的比前期数据的比值的比值数据在最后的比值中显示,我们使用的比值的比值的比值的比值的比值数据。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2021年8月8日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
专知会员服务
112+阅读 · 2019年12月24日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年6月10日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【重磅】100大产业链全景图
全球创新论坛
11+阅读 · 2018年12月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Arxiv
0+阅读 · 2021年10月2日
Arxiv
1+阅读 · 2021年10月1日
Arxiv
0+阅读 · 2021年9月30日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2021年8月8日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
专知会员服务
112+阅读 · 2019年12月24日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
相关资讯
已删除
将门创投
6+阅读 · 2019年6月10日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【重磅】100大产业链全景图
全球创新论坛
11+阅读 · 2018年12月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Top
微信扫码咨询专知VIP会员