Robust learning in expressive languages with real-world data continues to be a challenging task. Numerous conventional methods appeal to heuristics without any assurances of robustness. While probably approximately correct (PAC) Semantics offers strong guarantees, learning explicit representations is not tractable, even in propositional logic. However, recent work on so-called "implicit" learning has shown tremendous promise in terms of obtaining polynomial-time results for fragments of first-order logic. In this work, we extend implicit learning in PAC-Semantics to handle noisy data in the form of intervals and threshold uncertainty in the language of linear arithmetic. We prove that our extended framework keeps the existing polynomial-time complexity guarantees. Furthermore, we provide the first empirical investigation of this hitherto purely theoretical framework. Using benchmark problems, we show that our implicit approach to learning optimal linear programming objective constraints significantly outperforms an explicit approach in practice.


翻译:运用真实世界数据表达语言的有力学习仍然是一项具有挑战性的任务。许多传统方法都对超自然学有吸引力,而没有任何强健的保证。虽然大概是相当正确的(PAC)语义学提供了有力的保证,但学习明确的表述是无法做到的,即使是在假设逻辑上也是如此。然而,最近关于所谓“隐含”语义的学习工作显示,在获得第一阶逻辑碎片的多元时间结果方面,我们有着巨大的希望。在这项工作中,我们将PAC-语言学的隐含学习扩大到以线性算术语言的间隔和临界不确定性形式处理吵闹的数据。我们证明,我们的扩展框架保留了现有的多时复杂程度的保证。此外,我们提供了迄今为止这一纯理论框架的第一次实验性调查。我们使用基准问题,表明我们学习最佳线性编程目标的隐含方法大大超越了实践中的明确方法。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2020年11月4日
专知会员服务
17+阅读 · 2020年9月6日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
已删除
将门创投
11+阅读 · 2019年7月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年10月27日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
7+阅读 · 2020年3月1日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Learning to Importance Sample in Primary Sample Space
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
浅谈主动学习(Active Learning)
凡人机器学习
31+阅读 · 2020年6月18日
已删除
将门创投
11+阅读 · 2019年7月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2021年10月27日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
7+阅读 · 2020年3月1日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Learning to Importance Sample in Primary Sample Space
Arxiv
5+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员