We present a method of generating a collection of neural cellular automata (NCA) to design video game levels. While NCAs have so far only been trained via supervised learning, we present a quality diversity (QD) approach to generating a collection of NCA level generators. By framing the problem as a QD problem, our approach can train diverse level generators, whose output levels vary based on aesthetic or functional criteria. To efficiently generate NCAs, we train generators via Covariance Matrix Adaptation MAP-Elites (CMA-ME), a quality diversity algorithm which specializes in continuous search spaces. We apply our new method to generate level generators for several 2D tile-based games: a maze game, Sokoban, and Zelda. Our results show that CMA-ME can generate small NCAs that are diverse yet capable, often satisfying complex solvability criteria for deterministic agents. We compare against a Compositional Pattern-Producing Network (CPPN) baseline trained to produce diverse collections of generators and show that the NCA representation yields a better exploration of level-space.


翻译:我们提出了一个生成神经细胞自动成像(NCA)集集的方法,以设计视频游戏水平。虽然NCA迄今仅通过监督学习得到培训,但我们展示了一种质量多样性(QD)方法,以收集NCA级发电机。通过将问题描述为QD问题,我们的方法可以培训不同级别的发电机,其产出水平因审美或功能标准而不同。为了高效生成NCA,我们通过Covariance 矩阵适应适应MAP-Elites(CMA-ME)来培训发电机,这是一种高质量的多样性算法,专门用于连续搜索空间。我们运用了我们的新方法,为若干个基于2D级瓷盘的游戏(Maze游戏、Sokoban和Zelda)生成了级发电机。我们的结果显示,CMA-ME可以生成一个多样化的小型NCA,但能力却往往满足确定剂的复杂溶性标准。我们比较了为生成各种发电机收集而经过培训的组合模式化网络基线,并显示NCNA代表对水平空间进行更好的探索。

0
下载
关闭预览

相关内容

神经计算与应用(Neural Computing & Applications)是一份国际期刊,发表神经计算和相关技术(如遗传算法、模糊逻辑和神经模糊系统)的实际应用领域的原始研究和其他信息。 官网地址:http://dblp.uni-trier.de/db/journals/nca/
专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
76+阅读 · 2021年3月16日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
68+阅读 · 2020年10月24日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
IJCAI2020接受论文列表,592篇论文pdf都在这了!
专知会员服务
63+阅读 · 2020年7月16日
顶会论文 || 65篇"IJCAI"深度强化学习论文汇总
深度强化学习实验室
3+阅读 · 2020年3月15日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年11月1日
Paraphrase Generation with Deep Reinforcement Learning
Arxiv
5+阅读 · 2018年5月1日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关VIP内容
相关资讯
顶会论文 || 65篇"IJCAI"深度强化学习论文汇总
深度强化学习实验室
3+阅读 · 2020年3月15日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员