Whether what you see in Figure 1 is a "labrador" or a "dog", is the question we ask in this paper. While fine-grained visual classification (FGVC) strives to arrive at the former, for the majority of us non-experts just "dog" would probably suffice. The real question is therefore -- how can we tailor for different fine-grained definitions under divergent levels of expertise. For that, we re-envisage the traditional setting of FGVC, from single-label classification, to that of top-down traversal of a pre-defined coarse-to-fine label hierarchy -- so that our answer becomes "dog"-->"gun dog"-->"retriever"-->"labrador". To approach this new problem, we first conduct a comprehensive human study where we confirm that most participants prefer multi-granularity labels, regardless whether they consider themselves experts. We then discover the key intuition that: coarse-level label prediction exacerbates fine-grained feature learning, yet fine-level feature betters the learning of coarse-level classifier. This discovery enables us to design a very simple albeit surprisingly effective solution to our new problem, where we (i) leverage level-specific classification heads to disentangle coarse-level features with fine-grained ones, and (ii) allow finer-grained features to participate in coarser-grained label predictions, which in turn helps with better disentanglement. Experiments show that our method achieves superior performance in the new FGVC setting, and performs better than state-of-the-art on traditional single-label FGVC problem as well. Thanks to its simplicity, our method can be easily implemented on top of any existing FGVC frameworks and is parameter-free.

24
下载
关闭预览

相关内容

【Facebook】人工智能基准(Benchmarking)测试再思考,55页ppt
专知会员服务
22+阅读 · 2020年12月20日
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
41+阅读 · 2020年4月19日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
24+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
57+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
68+阅读 · 2019年10月9日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
5+阅读 · 2019年6月17日
Hierarchically Structured Meta-learning
CreateAMind
14+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
10+阅读 · 2019年5月18日
已删除
将门创投
10+阅读 · 2019年4月26日
逆强化学习-学习人先验的动机
CreateAMind
6+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
10+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
3+阅读 · 2018年4月15日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
11+阅读 · 2017年11月16日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【推荐】SVM实例教程
机器学习研究会
16+阅读 · 2017年8月26日
Arxiv
0+阅读 · 2021年4月9日
Arxiv
1+阅读 · 2021年4月8日
小贴士
相关资讯
计算机 | IUI 2020等国际会议信息4条
Call4Papers
5+阅读 · 2019年6月17日
Hierarchically Structured Meta-learning
CreateAMind
14+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
10+阅读 · 2019年5月18日
已删除
将门创投
10+阅读 · 2019年4月26日
逆强化学习-学习人先验的动机
CreateAMind
6+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
10+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
3+阅读 · 2018年4月15日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
11+阅读 · 2017年11月16日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
【推荐】SVM实例教程
机器学习研究会
16+阅读 · 2017年8月26日
Top
微信扫码咨询专知VIP会员