经典自然语言处理(NLP)的进展主要受到机器学习的推动,这种机器学习通过优化在大规模任务特定的标记示例集上的系统来实现。这种学习范式限制了机器在处理新任务时与人类具有相同能力的能力,因为人类通常可以通过一些示例和任务说明来解决未知任务。此外,对于新任务,我们可能没有机会准备大量的任务特定示例,因为我们无法预测下一个需要解决的任务以及为此任务进行复杂标注的需求。因此,任务说明充当了一种新颖且有前景的监督资源。本教程呈现了一系列以任务指令为驱动的多样化NLP研究,试图回答以下问题:(i) 什么是任务指令?(ii) 如何创建数据集和评估系统的过程是如何进行的?(iii) 如何编码任务指令?(iv) 有时候为什么会有一些指令效果更好?(v) 在以LLM为驱动的任务遵循中还存在哪些关切?我们将讨论一些处理这些挑战的前沿研究方向,并通过勾画进一步研究的方向来总结本教程。

介绍(幻灯片) 为什么“从指令中学习”很重要? 什么是“指令”?(面向LLM的指令与面向人的指令) 具有代表性的指令遵循研究 指令遵循的数据集和评估(幻灯片) 人工生成数据集LLM-generated数据集 自动评价与人工评价 方法——促使(幻灯片) 人类启发的提示技术(推理、增强、验证、反馈和细化) llm驱动的自动提示工程 方法论——llm中的对齐 人类的价值观表现为多种形式 LLM不同阶段的对齐技术(预训练,监督微调,基于奖励的调优,测试时间,部署,工具使用) 指令遵循的挑战和问题 llm处理否定时的逆标度律 llm很难像人类一样掌握指令 对抗性指令攻击 结论和未来方向

成为VIP会员查看完整内容
66

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
《Transformer压缩》综述
专知会员服务
47+阅读 · 2月14日
《终身学习森林》霍普金斯大学21页技术报告
专知会员服务
37+阅读 · 2023年5月14日
【干货书】机器学习—工程师和科学家的第一课,348页pdf
专知会员服务
72+阅读 · 2021年7月3日
专知会员服务
82+阅读 · 2021年6月20日
专知会员服务
77+阅读 · 2021年5月30日
【AAAI2021】知识迁移的机器学习成员隐私保护,57页ppt
专知会员服务
27+阅读 · 2021年2月9日
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
27+阅读 · 2021年1月10日
【KDD2020】图神经网络:基础与应用,322页ppt
多模态深度学习综述,18页pdf
专知
48+阅读 · 2020年3月29日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月13日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
《Transformer压缩》综述
专知会员服务
47+阅读 · 2月14日
《终身学习森林》霍普金斯大学21页技术报告
专知会员服务
37+阅读 · 2023年5月14日
【干货书】机器学习—工程师和科学家的第一课,348页pdf
专知会员服务
72+阅读 · 2021年7月3日
专知会员服务
82+阅读 · 2021年6月20日
专知会员服务
77+阅读 · 2021年5月30日
【AAAI2021】知识迁移的机器学习成员隐私保护,57页ppt
专知会员服务
27+阅读 · 2021年2月9日
【IJCAI】大规模可扩展深度学习,82页ppt
专知会员服务
27+阅读 · 2021年1月10日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员