直播预告 1.13 | 结构化知识的统一建模和多任务学习

2022 年 1 月 11 日 THU数据派


  
  
    
来源:AI TIME论道

  本文约811字,建议阅读2分钟

本文介绍 了1月13日晚 7:30香港大学计算机系助理教授余涛带来的主题分享:《结构化知识的统一建模和多任务学习》


1月13日晚 7:30-8:30

AI TIME 特别邀请香港大学计算机系助理教授——余涛,给大家带来分享:《结构化知识的统一建模和多任务学习》

哔哩哔哩直播通道


★ 嘉宾简介 ★


余涛:

香港大学计算机系助理教授,博士毕业于耶鲁大学,目前在华盛顿大学自然语言处理实验室访问。他的研究兴趣在自然语言处理(NLP)。具体研究方向和兴趣包括但不限于对话问答系统,语义解析,自然语言界面,和人机交互。


分享内容:

结构化知识的统一建模和多任务学习

报告简介:

基于结构化知识的任务(SKG)利用结构化知识来完成用户请求,例如对数据库的语义解析和对知识库的问答。由于SKG任务的输入和输出是异构的,它们在历史上被不同的社区分开研究,这限制了对SKG的系统和兼容研究。在本文中,我们通过提出UnifiedSKG框架来克服这一限制,该框架将21个SKG 任务统一为文本到文本格式,旨在促进系统的 SKG 研究,而不是仅限于单个任务,领域,或数据集。我们展示了像 T5 这样的大型语言模型,在必要时进行简单的修改,在所有 21个 任务上实现了最先进的性能。UnifiedSKG有助于研究多任务、零样本和少样本学习。我们证明了使用 UnifiedSKG进行多任务前缀调整可以提高大多数任务的性能,并展示 T0、GPT-3 和 Codex 在 SKG 的零样本和少样本学习中的不足。UnifiedSKG还支持对跨 SKG 任务的结构化知识编码变体进行一系列受控实验。我们发现 T5 对结构化知识编码变化的敏感性因任务而异。UnifiedSKG很容易扩展到更多任务,并将开源在https://github.com/hkunlp/unifiedskg

直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“PhD-3”,将拉您进“AI TIME PhD 交流群-3”!

AI TIME微信小助手


—— END ——

登录查看更多
1

相关内容

多任务学习(MTL)是机器学习的一个子领域,可以同时解决多个学习任务,同时利用各个任务之间的共性和差异。与单独训练模型相比,这可以提高特定任务模型的学习效率和预测准确性。多任务学习是归纳传递的一种方法,它通过将相关任务的训练信号中包含的域信息用作归纳偏差来提高泛化能力。通过使用共享表示形式并行学习任务来实现,每个任务所学的知识可以帮助更好地学习其它任务。
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
38+阅读 · 2021年6月6日
【EMNLP2020】序列知识蒸馏进展,44页ppt
专知会员服务
38+阅读 · 2020年11月21日
直播预告 | 推荐系统中的异构关系学习
THU数据派
0+阅读 · 2021年12月28日
直播预告 | 迈向常识知识的高级语义理解
THU数据派
2+阅读 · 2021年12月10日
直播预告 | 从GNN的视角出发,重新审视推荐系统
图与推荐
0+阅读 · 2021年10月6日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2022年4月20日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
13+阅读 · 2021年5月3日
Multi-Domain Multi-Task Rehearsal for Lifelong Learning
Arxiv
12+阅读 · 2020年12月14日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员