Machine learning models are widely used for real-world applications, such as document analysis and vision. Constrained machine learning problems are problems where learned models have to both be accurate and respect constraints. For continuous convex constraints, many works have been proposed, but learning under combinatorial constraints is still a hard problem. The goal of this paper is to broaden the modeling capacity of constrained machine learning problems by incorporating existing work from combinatorial optimization. We propose first a general framework called BaGeL (Branch, Generate and Learn) which applies Branch and Bound to constrained learning problems where a learning problem is generated and trained at each node until only valid models are obtained. Because machine learning has specific requirements, we also propose an extended table constraint to split the space of hypotheses. We validate the approach on two examples: a linear regression under configuration constraints and a non-negative matrix factorization with prior knowledge for latent semantics analysis.


翻译:机械学习模型被广泛用于真实世界的应用,例如文件分析和视觉。 受约束的机器学习问题是学习模型必须既准确又尊重限制的问题。 对于连续的组合制约,已经提出了许多工程,但在组合制约下学习仍然是一个棘手的问题。 本文的目标是通过纳入组合优化的现有工作,扩大受限制的机器学习问题的模型能力。 我们首先提议一个总框架,称为BaGel(Branch, Generate and Learning),它应用分支和Bound来限制学习问题,在每个节点产生学习问题并进行培训,直到只获得有效的模型。 由于机器学习有具体要求,我们还提议扩大表格限制,以分割假体的空间。 我们用两个例子来验证这一方法:配置制约下的线性回归,以及事先掌握潜在语法分析知识的非负式矩阵因素。

0
下载
关闭预览

相关内容

【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
12+阅读 · 2018年6月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Machine Learning:十大机器学习算法
开源中国
20+阅读 · 2018年3月1日
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
4+阅读 · 2020年3月19日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
18+阅读 · 2019年1月16日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
12+阅读 · 2018年6月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Machine Learning:十大机器学习算法
开源中国
20+阅读 · 2018年3月1日
相关论文
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
8+阅读 · 2021年5月21日
Arxiv
56+阅读 · 2021年5月3日
Arxiv
10+阅读 · 2021年3月30日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
4+阅读 · 2020年3月19日
Learning by Abstraction: The Neural State Machine
Arxiv
6+阅读 · 2019年7月11日
Arxiv
18+阅读 · 2019年1月16日
Top
微信扫码咨询专知VIP会员