Deterministic Implementations for Reproducibility in Deep Reinforcement Learning
虽然深度强化学习近几年在很多任务上都取得了成功,但是像重新复盘还是非常困难的。深度强化学习复盘过程中最大的挑战之一就是训练过程中的非决定性(nondeterminism),会严重影响结果。针对这一问题,我们研究了在训练中删除非决定性机制后,决定方法的积极影响。我们以深度Q-learning算法为例,通过在训练过程中确定并控制所有的非决定性机制,生成一种决定性方法。我们发现这样的确会影响智能体的性能。
地址:https://arxiv.org/abs/1809.05676
ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
超级像素生成对抗网络(SRGAN)是一项重要的研究,它能用单一图片的超像素生成现实结构。但是,生成的结果总有人工痕迹。为了进一步提高视觉效果,我们研究了SRGAN的网络结构、对抗损失和感知损失,对其分别进行了改善,并提出了ESRGAN。
地址:https://arxiv.org/abs/1809.00219
Commonsense for Generative Multi-Hop Question Answering Tasks
最近有很多有关阅读理解的QA任务,但大多数研究都只关注提取信息。而我们转而关注更有挑战性的“多跳生成任务”,这就需要模型进行推理、总结、合成信息,生成答案。这就需要了解潜在的关系,通过背景知识进行推理。
地址:https://arxiv.org/abs/1809.06309