To leverage machine learning in any decision-making process, one must convert the given knowledge (for example, natural language, unstructured text) into representation vectors that can be understood and processed by machine learning model in their compatible language and data format. The frequently encountered difficulty is, however, the given knowledge is not rich or reliable enough in the first place. In such cases, one seeks to fuse side information from a separate domain to mitigate the gap between good representation learning and the scarce knowledge in the domain of interest. This approach is named Cross-Domain Knowledge Transfer. It is crucial to study the problem because of the commonality of scarce knowledge in many scenarios, from online healthcare platform analyses to financial market risk quantification, leaving an obstacle in front of us benefiting from automated decision making. From the machine learning perspective, the paradigm of semi-supervised learning takes advantage of large amount of data without ground truth and achieves impressive learning performance improvement. It is adopted in this dissertation for cross-domain knowledge transfer. (to be continued)


翻译:为了在任何决策过程中利用机器学习,必须将给定的知识(例如,自然语言,非结构化文本)转换为表示向量,以便机器学习模型理解和处理其兼容的语言和数据格式。然而,经常遇到的困难是,给定的知识本身不够丰富或可靠。在这种情况下,人们寻求融合来自另一个领域的侧面信息,以减轻好的表示学习与感兴趣领域中稀缺知识之间的差距。这种方法被称为跨领域知识转移。研究这个问题是十分重要的,因为稀缺知识在许多场景中很常见,从在线医疗平台分析到金融市场风险量化,留下了一个障碍在我们从自动化决策中获益。从机器学习的角度来看,半监督学习的范例利用没有地面真相的大量数据,并实现了令人印象深刻的学习性能提升。本论文采用半监督学习用于跨领域知识转移。(未完待续)

0
下载
关闭预览

相关内容

领域知识:特定行业,方向的专业知识。
【2022新书】机器学习中的统计建模:概念和应用,398页pdf
专知会员服务
136+阅读 · 2022年11月5日
专知会员服务
24+阅读 · 2021年9月19日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
39+阅读 · 2020年8月25日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
21+阅读 · 2021年12月31日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关VIP内容
相关论文
Arxiv
13+阅读 · 2022年1月20日
Arxiv
21+阅读 · 2021年12月31日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
15+阅读 · 2018年4月5日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员