Learning from positive and negative information, so-called \emph{informants}, being one of the models for human and machine learning introduced by E.~M.~Gold, is investigated. Particularly, naturally arising questions about this learning setting, originating in results on learning from solely positive information, are answered. By a carefully arranged argument learners can be assumed to only change their hypothesis in case it is inconsistent with the data (such a learning behavior is called \emph{conservative}). The deduced main theorem states the relations between the most important delayable learning success criteria, being the ones not ruined by a delayed in time hypothesis output. Additionally, our investigations concerning the non-delayable requirement of consistent learning underpin the claim for \emph{delayability} being the right structural property to gain a deeper understanding concerning the nature of learning success criteria. Moreover, we obtain an anomalous \emph{hierarchy} when allowing for an increasing finite number of \emph{anomalies} of the hypothesized language by the learner compared with the language to be learned. In contrast to the vacillatory hierarchy for learning from solely positive information, we observe a \emph{duality} depending on whether infinitely many \emph{vacillations} between different (almost) correct hypotheses are still considered a successful learning behavior.


翻译:从积极和消极的信息中学习,所谓的 emph{ informaties}, 所谓的 emph{ informants} 是 E. ~ M. ~ ~ Gold 引入的人类和机器学习模式之一, 受到调查。 特别是, 自然产生的关于这种学习环境的问题, 源于纯粹正面信息学习的结果, 得到了回答。 通过精心安排的参数, 学习者只能假定在不符合数据的情况下改变他们的假设( 这种学习行为被称为 emph{ conformative} ) 。 所推导的主要理论显示最重要的学习成功标准之间的关系, 即没有被时间假设产出延误所破坏的标准。 此外, 我们对不可拖延的一致学习要求的调查, 支持了对学习成功标准性质有更深入了解的正确结构属性。 此外, 当允许学习者与学习语言相比, 所考虑的虚构的语言数量越来越有限时, 我们得到的虚构语言的关系, 与所要学习的正确性相比, 完全取决于我们学习的不同层次 。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
15+阅读 · 2020年12月17日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
相关资讯
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
49+阅读 · 2021年5月9日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
15+阅读 · 2020年12月17日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Top
微信扫码咨询专知VIP会员