Multi-objective symbolic regression has the advantage that while the accuracy of the learned models is maximized, the complexity is automatically adapted and need not be specified a-priori. The result of the optimization is not a single solution anymore, but a whole Pareto-front describing the trade-off between accuracy and complexity. In this contribution we study which complexity measures are most appropriately used in symbolic regression when performing multi- objective optimization with NSGA-II. Furthermore, we present a novel complexity measure that includes semantic information based on the function symbols occurring in the models and test its effects on several benchmark datasets. Results comparing multiple complexity measures are presented in terms of the achieved accuracy and model length to illustrate how the search direction of the algorithm is affected.


翻译:多目标象征性回归的优点是,虽然所学模型的准确性最大化,但复杂性是自动调整的,不需要优先指定。优化的结果不再是单一的解决方案,而是描述准确性和复杂性之间的权衡的全Pareto前奏。在这个贡献中,我们研究在与NSGA-II进行多目标优化时,哪些复杂度措施最适于用于象征性回归。此外,我们提出了一个新的复杂度度度量,包括基于模型中出现的函数符号的语义信息,并测试其对几个基准数据集的影响。对多种复杂度的比较结果以达到的准确度和模型长度表示,以说明算法的搜索方向是如何受到影响的。

0
下载
关闭预览

相关内容

机器学习系统设计系统评估标准
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
220+阅读 · 2020年6月5日
专知会员服务
139+阅读 · 2020年5月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Arxiv
0+阅读 · 2021年10月21日
Arxiv
0+阅读 · 2021年10月18日
Arxiv
0+阅读 · 2021年10月17日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Top
微信扫码咨询专知VIP会员