Deep Convolutional Neural Networks (CNN) have evolved as popular machine learning models for image classification during the past few years, due to their ability to learn the problem-specific features directly from the input images. The success of deep learning models solicits architecture engineering rather than hand-engineering the features. However, designing state-of-the-art CNN for a given task remains a non-trivial and challenging task. While transferring the learned knowledge from one task to another, fine-tuning with the target-dependent fully connected layers produces better results over the target task. In this paper, the proposed AutoFCL model attempts to learn the structure of Fully Connected (FC) layers of a CNN automatically using Bayesian optimization. To evaluate the performance of the proposed AutoFCL, we utilize five popular CNN models such as VGG-16, ResNet, DenseNet, MobileNet, and NASNetMobile. The experiments are conducted on three benchmark datasets, namely CalTech-101, Oxford-102 Flowers, and UC Merced Land Use datasets. Fine-tuning the newly learned (target-dependent) FC layers leads to state-of-the-art performance, according to the experiments carried out in this research. The proposed AutoFCL method outperforms the existing methods over CalTech-101 and Oxford-102 Flowers datasets by achieving the accuracy of 94.38% and 98.89%, respectively. However, our method achieves comparable performance on the UC Merced Land Use dataset with 96.83% accuracy.


翻译:深革命神经网络(CNN)在过去几年中演变为广受欢迎的机器学习模型,用于图像分类,在过去几年中,由于能够直接从输入图像中学习特定问题的特性。深层次学习模型的成功需要的是建筑工程而不是手工设计这些特性。然而,为某项任务设计最先进的CNN仍然是一项非边际和具有挑战性的任务。在将学到的知识从一个任务转移到另一个任务的同时,与完全依赖目标的层进行微调,在目标任务上产生更好的结果。在本文中,AutoFCL模型试图利用Bayesian优化来学习CNN自动的完全连通层(FC)的准确性结构。为了评估拟议的AutoFCL的性能,我们使用了五种受欢迎的CNN模型,如VGG-16、ResNet、DesenseNet、MolvetNet和NASNetMobile。在三个基准数据集上进行了实验,即Caltech-101、Ox-102 flowers和UC Mercland use数据集。精细化新学的完全精确性(目标) 101) 和FC-C-Cchde-Lde-lax-lax-lax-lax-lax-lax-lax-lax-lax-mod-rod-rod-mod-mod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rod-rods-mocs-mocs-mocs-rod-mods-mod-mod-mod-rod-rod-rod-mod-mod-mod-mod-mod-mod-rod-mod-rod-rod-lax-lax-lax-lax-ro

0
下载
关闭预览

相关内容

加州大学 Merced 分校地理位置优越,2 小时到硅谷和旧金山(旧金山可以直飞中国很多地方,回家方便),2 小时到加州黄金海岸,1 小时到优胜美地国家公园。由于离硅谷近,工作和实习机会很多,还可以从硅谷及时获得业界的最新动态。UC Merced 的 HPC 方向排名是全美第 7(CSRankings)。虽然仅仅成立 16 年,上升势头迅猛,继 2018 年 U.S.News 公立排名上升 29 名后,2019 年再次上升 32 名与其他 UC 兄弟院校携手进入前 50 名(UC Merced 44 名,UC Riverside 39 名,UCSC 34 名),到达这一成绩从无到有只用了 16 年。在 2021 年 US News 最新排名,UC Merced 在美国所有大学(包括公立和私立)排名 93,在过去 4 年内上升 72 个排名。
商业数据分析,39页ppt
专知会员服务
159+阅读 · 2020年6月2日
Python数据分析:过去、现在和未来,52页ppt
专知会员服务
99+阅读 · 2020年3月9日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
VIP会员
相关VIP内容
商业数据分析,39页ppt
专知会员服务
159+阅读 · 2020年6月2日
Python数据分析:过去、现在和未来,52页ppt
专知会员服务
99+阅读 · 2020年3月9日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员