近年来,深度神经网络架构在自然语言处理(NLP)领域取得了显著成就。通过放大模型大小并在互联网上可用的大量文本数据上进行自监督预训练,即使在提供少量具体示例时,也解锁了泛化和复杂推理能力。然而,NLP的大部分进展都是基于静态学习范例进行的,其中模型在固定数据集上进行一次训练以学习特定技能,并在此后保持固定。在本论文中,我们将注意力转向NLP的交互式智能体,即与动态环境或用户互动的基于语言的模型。在三个不同的应用领域,(i)基于文本的游戏,(ii)查询重构,以及(iii)对话,我们调查并开发与不同形式的自适应环境互动的智能体。论文分为三部分,反映了三个应用领域。在第一部分,我们为基于文本的游戏开发了一个深度强化学习(RL)智能体,该智能体能够在结构相似但带有新对象和指令的游戏家族中进行泛化。第二部分重点关注查询重构,我们从两个角度进行研究。首先,我们考虑学习搜索问题,其中智能体被训练为使用自然语言与信息检索(IR)系统互动。观察IR组件的结果,它调整初始用户查询并收集一个改进的证据文档集。在此设置中,我们开发了两个学习成功的交互式搜索策略的智能体:一个通过纯强化学习训练的模型,另一个通过(自我)监督学习。在随后的章节中,我们将注意力转向神经检索模型,并为交互式查询建议开发智能体。为此,我们训练了一个查询解码器模型,该模型在共享段落-查询嵌入空间中的给定点生成相应的文本形式的查询。我们使用此解码器生成方向性查询细化的合成数据集,我们使用它来训练一个强大的重构模型。在论文的最后部分,我们提出了不同的方法来开发对话智能体。我们建议模块化对话模型的架构,以输出随后的模块所基于的中间文本序列。首先,我们表明,在对话响应之前生成知识输出作为中间步骤可以增加在开放域对话中的知识利用和事实正确性。接下来,我们开发了一个依次生成(i)搜索引擎查询,(ii)知识输出,以及(iii)最终响应的单一模型。我们表明,它在知识为基础的对话上超越了先前的最先进的对话模型,并在主题提示完成上超越了具有大量参数的模型。最后,我们探讨在部署后如何改进对话模型,并提出了一个目标,该目标允许在其生成的二进制标记示例上迭代训练语言模型。

成为VIP会员查看完整内容
39

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【NUS博士论文】深度表示学习的视频基础模型,236页pdf
专知会员服务
30+阅读 · 2023年12月26日
【MIT博士论文】实用机器学习的高效鲁棒算法,142页pdf
专知会员服务
56+阅读 · 2022年9月7日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
【MIT博士论文】数据高效强化学习,176页pdf
【KDD2020】图神经网络:基础与应用,322页ppt
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
399+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员