In Constraint Programming, constraints are usually represented as predicates allowing or forbidding combinations of values. However, some Constraint-Based Local Search algorithms exploit a finer representation: error functions. By associating a function to each constraint type to evaluate the quality of an assignment, it extends the expressiveness of regular Constraint Satisfaction Problem/Constrained Optimization Problem formalisms. This comes with a heavy price: it makes problem modeling significantly harder. Indeed, one must provide a set of error functions that are not always easy to define. Here, we propose a method to automatically learn an error function corresponding to a constraint, given a function deciding if assignments are valid or not. This is, to the best of our knowledge, the first attempt to automatically learn error functions for hard constraints. Our method aims to learn error functions in a supervised fashion, trying to reproduce the Hamming distance, by using a variant of neural networks we named Interpretable Compositional Networks, allowing us to get interpretable results, unlike regular artificial neural networks. We run experiments on 5 different constraints to show its versatility. Experiments show that functions learned on small dimensions scale on high dimensions, outputting a perfect or near-perfect Hamming distance for most tested constraints.


翻译:在约束性编程中,限制通常被表现为允许或禁止组合值的前提。然而,一些基于约束的本地搜索算法则利用了一种精细的表达方式:错误功能。通过将函数与每种约束类型联系起来来评估任务的质量,它扩大了常规约束性满意度问题/限制优化格式主义的清晰度。这带来了高昂的代价:它使得问题建模变得非常困难。事实上,我们必须提供一套不易定义的错误函数。这里,我们建议一种方法,以自动学习一个与限制相对应的错误函数,而这种函数则决定任务是否有效。根据我们的知识,这是为硬性制约自动学习错误函数的首次尝试。我们的方法旨在以有监督的方式学习错误功能,尝试复制断层的距离,方法是使用我们命名的内线网络变式结构网络,让我们获得可解释的结果,这与普通的人工神经网络不同。我们在5种不同的制约上进行实验,以显示其是否有效。根据我们的知识,实验显示在近距离范围内所学到的最先进的产出功能。

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
17+阅读 · 2019年3月28日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员