项目名称: 基于迁移学习的Web挖掘研究

项目编号: No.60873211

项目类型: 面上项目

立项/批准年度: 2009

项目学科: 矿业工程

项目作者: 薛贵荣

作者单位: 上海交通大学

项目金额: 26万元

中文摘要: 传统的Web挖掘算法需要标定大量训练数据,这将会耗费大量的人力与物力。而没有大量的标注数据,会使得很多与学习相关研究与应用无法开展。针对Web 挖掘中训练数据获取难、训练数据过期以及大量富余数据无法充分利用等问题与挑战,本课题研究了迁移学习的基本原理,提出了谱迁移、翻译学习和结构化迁移学习等迁移学习理论研究,并针对Web 环境中排序、多语言学习、跨媒体学习以及分类等Web 挖掘研究中的关键问题,研究了新的迁移算法来解决上述Web 挖掘中的问题与挑战。本课题的研究推进了大范围Web 挖掘研究应用,减少Web 上数据标定人力与财力上的消耗,提高Web 挖掘研究的性能等方面都有非常重要的意义。进一步,机器学习的适应能力也达到了到一个新的层面,拓宽机器学习算法的普适化程度。

中文关键词: 迁移学习;翻译学习;异构迁移学习;Web挖掘;跨媒体学习

英文摘要: The traditional Web mining needs a lot of training data, as a result, it will cost a significant amount of manpower and material resources. Without such labeling data, the traditional learning tasks cannot be carried out. According to the challenges such as difficulty in acquiring training data, out-of-date of training data and wasting of the old training data the issues, in this research project, we developed a transfer learning framework, which utilizes the related but different domains of knowledge, to solve above Web mining issues and challenges. Three algorithms on transfer learning are developed, including eigentransfer, translated learning and stractured transfer learning. Then, we focused on the key research topics including transfer classification on the Web, multilingual transfer learning, cross-media transfer learning and transfer learning to rank. The research significantly helped to promote more Web mining applications, to reduce human efforts and financial resources consumption, and to improve the performance of Web Mining Research. Furthermore, transfer learning also promoted machine learning to a new application level, to broaden the application of machine learning algorithm capacity.

英文关键词: Transfer Learning;Translated Learning; Heterogenous Transfer Learning; Web Mining; Cross-Media Learning

成为VIP会员查看完整内容
1

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
贝叶斯迁移学习: 迁移学习的概率图模型概述
专知会员服务
67+阅读 · 2021年10月17日
专知会员服务
87+阅读 · 2021年9月4日
元学习-生物医学中连接标记和未标记数据
专知会员服务
29+阅读 · 2021年8月3日
领域自适应研究综述
专知会员服务
54+阅读 · 2021年5月5日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
专知会员服务
31+阅读 · 2020年9月2日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
【教程】自然语言处理中的迁移学习原理,41 页PPT
专知会员服务
95+阅读 · 2020年2月8日
领域自适应研究综述
专知
6+阅读 · 2021年5月5日
基于深度迁移学习进行时间序列分类
PaperWeekly
14+阅读 · 2018年11月15日
基于Keras进行迁移学习
论智
12+阅读 · 2018年5月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
【推荐】伪标签学习导论 - 一种半监督学习方法
机器学习研究会
12+阅读 · 2017年10月5日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
102+阅读 · 2020年3月4日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
136+阅读 · 2018年10月8日
小贴士
相关VIP内容
贝叶斯迁移学习: 迁移学习的概率图模型概述
专知会员服务
67+阅读 · 2021年10月17日
专知会员服务
87+阅读 · 2021年9月4日
元学习-生物医学中连接标记和未标记数据
专知会员服务
29+阅读 · 2021年8月3日
领域自适应研究综述
专知会员服务
54+阅读 · 2021年5月5日
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
153+阅读 · 2020年9月20日
专知会员服务
31+阅读 · 2020年9月2日
基于深度神经网络的少样本学习综述
专知会员服务
170+阅读 · 2020年4月22日
【教程】自然语言处理中的迁移学习原理,41 页PPT
专知会员服务
95+阅读 · 2020年2月8日
相关资讯
领域自适应研究综述
专知
6+阅读 · 2021年5月5日
基于深度迁移学习进行时间序列分类
PaperWeekly
14+阅读 · 2018年11月15日
基于Keras进行迁移学习
论智
12+阅读 · 2018年5月6日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
迁移学习在深度学习中的应用
专知
23+阅读 · 2017年12月24日
【推荐】伪标签学习导论 - 一种半监督学习方法
机器学习研究会
12+阅读 · 2017年10月5日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
27+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
4+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月20日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
102+阅读 · 2020年3月4日
AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Arxiv
136+阅读 · 2018年10月8日
微信扫码咨询专知VIP会员