In machine learning, classifiers are typically susceptible to noise in the training data. In this work, we aim at reducing intra-class noise with the help of graph filtering to improve the classification performance. Considered graphs are obtained by connecting samples of the training set that belong to a same class depending on the similarity of their representation in a latent space. As a matter of fact, by looking at the features in latent representations of samples as graph signals, it is possible to filter them in order to remove high frequencies, thus improving the signal-to-noise ratio. A consequence is that intra-class variance gets smaller, while mean remains the same, as shown theoretically in this article. We support this analysis through experimental evaluation of the graph filtering impact on the accuracy of multiple standard benchmarks of the field. While our approach applies to all classification problems in general, it is particularly useful in few-shot settings, where intra-class noise has a huge impact due to initial sample selection.


翻译:在机器学习中,分类员通常容易在培训数据中出现噪音。 在这项工作中,我们的目标是通过图表过滤来帮助减少阶级内部噪音,以提高分类性能。考虑的图表是通过将属于同一阶级的培训成套样本连接起来获得的,这些样本取决于其在潜在空间的相似性。事实上,通过将样本潜在表现形式的特征作为图示信号来观察,可以过滤它们,以便去除高频率,从而改善信号对噪音的比例。其结果是,阶级内部差异会缩小,而平均值则与本条的理论中显示的相同。我们通过实验性评估图形过滤对多个标准基准的准确性的影响来支持这一分析。我们的方法虽然适用于所有分类问题,但在少数情况下,由于初步抽样选择,类内噪音会产生巨大影响,因此特别有用。

0
下载
关闭预览

相关内容

迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
已删除
将门创投
4+阅读 · 2019年8月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Arxiv
8+阅读 · 2020年10月12日
Arxiv
14+阅读 · 2019年9月11日
Simplifying Graph Convolutional Networks
Arxiv
7+阅读 · 2019年6月20日
Arxiv
11+阅读 · 2018年10月17日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年8月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Top
微信扫码咨询专知VIP会员