This paper introduces a new ensemble-based approach to reduce the data and computation costs of accurate classification. When faced with a new test case, a low cost classifier is used first, only moving to a higher cost approach if the initial classifier does not have a high degree of confidence in its projection. This multi-stage strategy can be used with any set of classifiers and does not require additional training. The approach is first applied to reduce the amount of data required to classify test images; it is found to be effective for problems in which at least some fraction of cases can be correctly classified based upon coarser data than are typically used. For neural networks performing digit recognition, for example, the proposed approach reduces the number of bytes of data read by 60% to 85% with less than 5% reduction in accuracy. For the ImageNet data, the number of bytes read by the typical network is reduced by 20% with less than 5% reduction in accuracy -- and in some cases, the resource savings reach 40%. The second application is to reduce computational complexity, with simpler neural networks used for test cases that are easier to classify and complex networks used for more difficult cases. For classification both of digits and of ImageNet images, computation cost is reduced by as much as 82% to 89% with less than 5% reduction in accuracy. The results also show that, for situations in which computational cost is not a concern, calculating multiple models' projections and selecting the one from the most confident classifier can increase classification accuracy on ImageNet by as much as two percent over the best standalone classifier considered here.


翻译:本文引入了新的全套方法, 以减少准确分类的数据和计算成本。 在面对新的测试案例时, 首先使用低成本分类器, 只有在初始分类器对其预测没有高度信心的情况下, 才会使用更高的成本方法。 这个多阶段战略可以对任何一组分类器使用, 不需要额外的培训。 这个方法首先用来减少测试图像分类所需的数据数量; 发现这种方法对一些问题有效: 至少部分案例的准确性可以根据粗皮数据进行正确分类, 比通常使用的情况要简单。 例如, 对于进行数字识别的神经网络, 提议的方法只有在初始分类器对其预测没有高度信心的情况下, 才会将数据小节数减少60%到85%, 而准确性降低不到5%。 对于图像网络的数据, 典型网络所读的小节数减少了20%, 精确性降低不到5% -- 在某些情况下, 资源节省率达到40%。 第二个应用是降低计算复杂性, 使用较简单的神经网络来测试案例, 不易进行数字识别和复杂的网络, 将成本降低为89 %, 计算结果降低成本降低为89%,, 计算结果降低为计算成本降低89%,, 降低成本, 降低为计算 降低成本, 降低成本, 降低 降低 降低 降低 降低, 降低 降低 降低 降低 降低 降低 降低, 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低, 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低, 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低, 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低 降低

0
下载
关闭预览

相关内容

机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年3月15日
VIP会员
相关资讯
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员