Texture-based classification solutions have proven their significance in many domains, from industrial inspections to health-related applications. New methods have been developed based on texture feature learning and CNN-based architectures to address computer vision use cases for images with rich texture-based features. In recent years, architectures solving texture-based classification problems and demonstrating state-of-the-art results have emerged. Yet, one limitation of these approaches is that they cannot claim to be suitable for all types of image texture patterns. Each technique has an advantage for a specific texture type only. To address this shortcoming, we propose a framework that combines more than one texture-based techniques together, uniquely, with a CNN backbone to extract the most relevant texture features. This enables the model to be trained in a self-selective manner and produce improved results over current published benchmarks -- with almost same number of model parameters. Our proposed framework works well on most texture types simultaneously and allows flexibility for additional texture-based methods to be accommodated to achieve better results than existing architectures. In this work, firstly, we present an analysis on the relative importance of existing techniques when used alone and in combination with other TE methods on benchmark datasets. Secondly, we show that Global Average Pooling which represents the spatial information -- is of less significance in comparison to the TE method(s) applied in the network while training for texture-based classification tasks. Finally, we present state-of-the-art results for several texture-based benchmark datasets by combining three existing texture-based techniques using our proposed framework.


翻译:在从工业检查到与健康有关的应用等许多领域,基于纹理的分类方法已证明了它们的重要性,从工业检查到与健康有关的应用,已经根据质地特征学习和CNN的架构制定了新的方法,以便处理计算机视觉使用案例用于具有丰富的质地特征的图像的问题;近年来,出现了解决基于质地分类问题的架构,并展示了最新成果;然而,这些方法的一个局限性是,它们不能同时声称适合所有类型的图像纹理模式。每一种技术都只有利于特定的纹理类型。为了解决这一缺陷,我们提出了一个框架,将不止一种基于纹理的技术一起,具有独特性,由CNN的骨干用来提取最相关的纹理特征。这使得该模型能够以自我选择的方式培训,并产生比目前公布的基准更好的结果 -- -- 几乎是相同的模型参数。我们提议的框架在大多数基于纹理的方法上都无法同时运作,因此能够灵活地适应基于结果的更多基于纹理的方法。在这项工作中,首先,我们提出了一个框架,在单独使用一种基于质地基的技术时,与CNN的骨质基础结合起来,从而,在使用现有文本的三种方法中,我们使用现有文本的模型在使用现有文本的模型中,然后在使用现有数据库中,在使用前的模型中,在使用现有数据库中以现有数据中,在使用现有数据中,在使用现有数据库中,在使用现有数据库中,在使用现有数据中,在使用现有数据中,在使用现有数据中,在使用现有数据中,在使用比较中,在使用三种方法中,在使用,在使用现有方法中,在使用,在使用,在使用现有文本的模型中,在使用现有数据中,在使用,在使用现有数据中,在使用,在使用,在使用,在使用,在使用,在使用,在使用其他方法中,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用中,在使用中,在使用,在使用中,在使用中,在使用中,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用,在使用中,在使用,在使用,在使用,在使用,在

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年12月2日
Arxiv
15+阅读 · 2019年6月25日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
12+阅读 · 2018年9月15日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员