An effective weighting scheme for training samples is essential for learning tasks. Numerous weighting schemes have been proposed. Some schemes take the easy-first mode, whereas some others take the hard-first one. Naturally, an interesting yet realistic question is raised. Which samples should be learned first given a new learning task, easy or hard? To answer this question, both theoretical analyses and experimental verification are conducted. First, a general optimized objective function is proposed, revealing the relationship between the difficulty distribution and the difficulty-based sample weights. Second, on the basis of the optimized objective function, theoretical answers are obtained. Besides the easy-first and hard-first modes, there are two other priority modes, namely, medium-first and two-ends-first. The prior mode does not necessarily remain unchanged during the training process. Third, an effective and universal solution is proposed to select the optimal priority mode when there is no prior knowledge or theoretical clues. The four modes, namely, easy/medium/hard/two-ends-first, can be flexibly switched in the proposed solution. Fourth, a wide range of experiments is conducted under various scenarios to further compare the weighting schemes in different modes. On the basis of these works, reasonable and comprehensive answers are obtained. Factors including the distribution of samples' learning difficulties and the validation data determine which samples should be learned first in a learning task.


翻译:培训样本的有效加权办法对于学习任务至关重要。许多加权办法已经提出。有些方案采用简单第一和硬第一模式,而另一些方案则采用简单第一模式。自然,提出一个有趣但现实的问题。在新的学习任务(容易或困难)中,哪些样本应该首先学习?为了回答这个问题,进行了理论分析和实验性核查。首先,提出了一个总体优化的目标功能,揭示困难分布和困难抽样加权之间的关系。第二,根据优化的客观功能,获得了理论答案。除了简单第一和硬第一模式外,还有另外两种优先模式,即中一级和两端第一模式。在培训过程中,前一种模式不一定保持不变。第三,提出一个有效而普遍的解决办法,在没有事先知识或理论线索的情况下选择最佳优先模式。四种模式,即简单/中/硬/两端第一模式,可以在拟议解决方案中灵活地转换。第四,在各种假设下进行广泛的实验,进一步比较加权办法的中期和二端第一模式。前一种模式不一定保持不变。在培训过程中,前一种模式不一定保持不变。第三,提出一个有效和普遍的解决办法是选择最佳的优先模式,即简单/中/硬/两端/两端-端-端-端-端-先,在拟议解决办法中可以灵活地转换。第四,在各种假设下进行广泛的试验,进一步比较加权办法的处理办法,在不同的分析,包括所学的抽样分析。在不同的分析中,学习方法中,然后是学习困难。在分析中,首先是学习过程的学习。

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
111+阅读 · 2020年5月15日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月12日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2022年1月31日
Arxiv
0+阅读 · 2022年1月31日
Arxiv
0+阅读 · 2022年1月28日
Arxiv
38+阅读 · 2021年8月31日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
VIP会员
相关VIP内容
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
111+阅读 · 2020年5月15日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
3+阅读 · 2019年4月12日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2022年1月31日
Arxiv
0+阅读 · 2022年1月31日
Arxiv
0+阅读 · 2022年1月28日
Arxiv
38+阅读 · 2021年8月31日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Top
微信扫码咨询专知VIP会员