We investigate the addition of constraints on the function image and its derivatives for the incorporation of prior knowledge in symbolic regression. The approach is called shape-constrained symbolic regression and allows us to enforce e.g. monotonicity of the function over selected inputs. The aim is to find models which conform to expected behaviour and which have improved extrapolation capabilities. We demonstrate the feasibility of the idea and propose and compare two evolutionary algorithms for shape-constrained symbolic regression: i) an extension of tree-based genetic programming which discards infeasible solutions in the selection step, and ii) a two population evolutionary algorithm that separates the feasible from the infeasible solutions. In both algorithms we use interval arithmetic to approximate bounds for models and their partial derivatives. The algorithms are tested on a set of 19 synthetic and four real-world regression problems. Both algorithms are able to identify models which conform to shape constraints which is not the case for the unmodified symbolic regression algorithms. However, the predictive accuracy of models with constraints is worse on the training set and the test set. Shape-constrained polynomial regression produces the best results for the test set but also significantly larger models.


翻译:我们调查了功能图像及其衍生物的附加限制,以便将先前的知识纳入象征性回归。这个方法被称为形状限制的象征性回归,使我们得以执行功能相对于选定投入的单一性。目的是找到符合预期行为且提高了外推能力的模型。我们展示了该想法的可行性,并提议和比较了两种受形状限制的象征性回归的进化算法:(一) 扩大了树基基因编程,在选择步骤中抛弃了不可行的解决方案,以及(二) 两种人口进化算法,将可行性与不可行的解决方案区分开来。在这两种算法中,我们使用间距算法来估计模型及其部分衍生物的界限。这些算法都是在一套19个合成和4个现实世界的回归问题上测试的。两种算法都能够确定符合各种制约的模型,而这种制约并不是未调整的象征性回归算法的情况。但是,具有制约的模型的预测准确性在培训组和测试组中更差。受限制的多元性回归模型为测试集出最佳结果,但规模也很大。

0
下载
关闭预览

相关内容

专知会员服务
36+阅读 · 2021年4月25日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年8月21日
Arxiv
0+阅读 · 2021年7月20日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
4+阅读 · 2018年7月4日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年4月25日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年8月21日
Top
微信扫码咨询专知VIP会员