项目名称: 深度学习理论及在图像识别中的应用研究

项目编号: No.61273364

项目类型: 面上项目

立项/批准年度: 2013

项目学科: 自动化技术、计算机技术

项目作者: 黄雅平

作者单位: 北京交通大学

项目金额: 81万元

中文摘要: 深度学习(Deep Learning)理论是机器学习领域的研究热点,其核心思想在于建立一种具有多层次结构、非线性特性的学习模型。与传统的浅模型(Shallow Model)相比,它能够学习复杂变化的特征,推广能力强,有望解决Transfer Learning等人工智能领域的根本性问题。但是,深度学习理论及算法复杂度较高,并且在图像识别等视觉任务中,与浅模型相比,性能并不突出。因此,本项目从图像识别任务出发,拟深入探索深度学习理论,主要研究:(1)、在生物视觉信息处理机制的启发下,构建符合人类感知系统的深度学习模型,并研究快速收敛算法;(2)、提出具有超完备能力的快速学习算法,解决小样本学习的难题;(3)、将深度学习模型应用到大规模的图像识别任务中,研究半监督学习算法从而提高性能;(4)、针对基于视频的图像识别任务,引入时间相干性准则,研究视频数据的深度学习算法,争取取得实际应用成果。

中文关键词: 深度学习;特征提取;图像识别;机器视觉;神经网络

英文摘要: Deep learning has gained significant interest as a way of building hierarchical representations in machine learning. Deep architectures are composed of multiple levels of non-linear operations, and can learn complex and high-vary function and obtain good generalization compared with shallow architectures. It is more promising that deep architectures may be beneficial to solve some fundamental problems in AI, such as transfer learning. However, current deep learning approaches always suffer from computational complexity due to non-convex optimization. Moreover, they do not work well in vision tasks, e.g., image classification, in contrast to some state-of-art shallow architectures. Therefore, this project aims to present a novel deep learning model and then apply the model to image classification tasks. The main works include four aspects: (1). developing a novel bio-inspired deep learning architecture and proposing the corresponding fast-convergence algorithm; (2). learning overcomplete representations to deal with the situation where the number of outputs of the layer is greater than the number of inputs; (3). combining unsupervised and supervised strategies to boost the performance for large-scale image data set; (4). employing temporal coherence principle to learn more robust features from a video. The perfor

英文关键词: Deep Learning;Feature Extraction;Image Classification;Machine Vision;Neural Networks

成为VIP会员查看完整内容
5

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
2021->2022必看的十篇「深度学习领域综述」论文
专知会员服务
112+阅读 · 2022年1月1日
细粒度图像分类的深度学习方法
专知会员服务
40+阅读 · 2021年10月18日
专知会员服务
28+阅读 · 2021年8月27日
专知会员服务
96+阅读 · 2021年8月13日
专知会员服务
43+阅读 · 2021年8月5日
专知会员服务
120+阅读 · 2021年6月19日
专知会员服务
60+阅读 · 2021年2月22日
2020->2021必看的十篇「深度学习领域综述」论文
专知会员服务
134+阅读 · 2021年1月1日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
基于TensorFlow和Keras的图像识别
Python程序员
16+阅读 · 2019年6月24日
【深度学习】深度学习技术发展趋势浅析
产业智能官
11+阅读 · 2019年4月13日
详解谷歌最强NLP模型BERT(理论+实战)
AI100
11+阅读 · 2019年1月18日
PRCV 2018论坛:深度学习理论理解
CSIG机器视觉专委会
0+阅读 · 2018年11月20日
深度学习循环神经网络详解
七月在线实验室
15+阅读 · 2018年5月28日
深度学习在推荐系统上的应用
架构文摘
13+阅读 · 2018年2月22日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
28+阅读 · 2021年9月26日
Arxiv
26+阅读 · 2021年5月17日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
135+阅读 · 2018年10月8日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
16+阅读 · 2018年2月7日
小贴士
相关VIP内容
2021->2022必看的十篇「深度学习领域综述」论文
专知会员服务
112+阅读 · 2022年1月1日
细粒度图像分类的深度学习方法
专知会员服务
40+阅读 · 2021年10月18日
专知会员服务
28+阅读 · 2021年8月27日
专知会员服务
96+阅读 · 2021年8月13日
专知会员服务
43+阅读 · 2021年8月5日
专知会员服务
120+阅读 · 2021年6月19日
专知会员服务
60+阅读 · 2021年2月22日
2020->2021必看的十篇「深度学习领域综述」论文
专知会员服务
134+阅读 · 2021年1月1日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
相关资讯
基于TensorFlow和Keras的图像识别
Python程序员
16+阅读 · 2019年6月24日
【深度学习】深度学习技术发展趋势浅析
产业智能官
11+阅读 · 2019年4月13日
详解谷歌最强NLP模型BERT(理论+实战)
AI100
11+阅读 · 2019年1月18日
PRCV 2018论坛:深度学习理论理解
CSIG机器视觉专委会
0+阅读 · 2018年11月20日
深度学习循环神经网络详解
七月在线实验室
15+阅读 · 2018年5月28日
深度学习在推荐系统上的应用
架构文摘
13+阅读 · 2018年2月22日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
28+阅读 · 2021年9月26日
Arxiv
26+阅读 · 2021年5月17日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Meta-Learning to Cluster
Arxiv
17+阅读 · 2019年10月30日
Arxiv
135+阅读 · 2018年10月8日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
16+阅读 · 2018年2月7日
微信扫码咨询专知VIP会员