We propose a method to efficiently learn diverse strategies in reinforcement learning for query reformulation in the tasks of document retrieval and question answering. In the proposed framework an agent consists of multiple specialized sub-agents and a meta-agent that learns to aggregate the answers from sub-agents to produce a final answer. Sub-agents are trained on disjoint partitions of the training data, while the meta-agent is trained on the full training set. Our method makes learning faster, because it is highly parallelizable, and has better generalization performance than strong baselines, such as an ensemble of agents trained on the full data. We show that the improved performance is due to the increased diversity of reformulation strategies.

3
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
87+阅读 · 2020年5月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
131+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
66+阅读 · 2019年12月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
33+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
40+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
96+阅读 · 2019年10月11日
TensorFlow 2.0 学习资源汇总
专知会员服务
56+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
10+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
9+阅读 · 2019年4月17日
逆强化学习-学习人先验的动机
CreateAMind
6+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
8+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
33+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
48+阅读 · 2018年8月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
5+阅读 · 2019年1月8日
Arxiv
6+阅读 · 2018年12月26日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
3+阅读 · 2018年9月12日
Learning to Focus when Ranking Answers
Arxiv
3+阅读 · 2018年8月8日
Relational Deep Reinforcement Learning
Arxiv
6+阅读 · 2018年6月28日
小贴士
相关VIP内容
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
87+阅读 · 2020年5月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
131+阅读 · 2020年2月1日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
66+阅读 · 2019年12月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
33+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
40+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
96+阅读 · 2019年10月11日
TensorFlow 2.0 学习资源汇总
专知会员服务
56+阅读 · 2019年10月9日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
10+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
9+阅读 · 2019年4月17日
逆强化学习-学习人先验的动机
CreateAMind
6+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
8+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
33+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
LibRec 精选:基于LSTM的序列推荐实现(PyTorch)
LibRec智能推荐
48+阅读 · 2018年8月27日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
Top
微信扫码咨询专知VIP会员