在不确定的情况下做出决策,往往要权衡现有选择方案的预期成本和收益。成本与收益的权衡会使决策变得容易或困难,尤其是在成本与收益不确定的情况下。在这项研究中,我们评估了基于实例学习理论(IBLT)的认知模型和两种著名的强化学习(RL)算法如何在不确定和决策复杂度不断增加的情况下,学会在寻求目标的网格世界任务中做出更好的选择。我们还使用随机代理作为基础比较。我们的结果表明,IBL 模型和 RL 模型在简单设置下的准确度相当,尽管 RL 模型比 IBL 模型更有效。然而,随着决策复杂度的增加,IBL 模型不仅比 RL 模型更准确,而且更高效。我们的结果表明,即使成本增加,IBL 模型也能追求高回报的目标;而 RL 模型似乎会被较低的成本 "分散注意力",从而达到较低回报的目标。

成为VIP会员查看完整内容
22

相关内容

【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
77+阅读 · 2022年10月19日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
20+阅读 · 2022年10月8日
「深度学习注意力机制 」最新TKDE2022研究综述
专知会员服务
100+阅读 · 2022年3月29日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
基于模型的强化学习综述
专知
18+阅读 · 2022年7月13日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
115+阅读 · 2023年3月24日
VIP会员
相关基金
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员