Poetry generation has long been a challenge for artificial intelligence. In the scope of Japanese poetry generation, many researchers have paid attention to Haiku generation, but few have focused on Waka generation. To further explore the creative potential of natural language generation systems in Japanese poetry creation, we propose a novel Waka generation model, WakaVT, which automatically produces Waka poems given user-specified keywords. Firstly, an additive mask-based approach is presented to satisfy the form constraint. Secondly, the structures of Transformer and variational autoencoder are integrated to enhance the quality of generated content. Specifically, to obtain novelty and diversity, WakaVT employs a sequence of latent variables, which effectively captures word-level variability in Waka data. To improve linguistic quality in terms of fluency, coherence, and meaningfulness, we further propose the fused multilevel self-attention mechanism, which properly models the hierarchical linguistic structure of Waka. To the best of our knowledge, we are the first to investigate Waka generation with models based on Transformer and/or variational autoencoder. Both objective and subjective evaluation results demonstrate that our model outperforms baselines significantly.


翻译:长期以来,诗歌的生成一直是人工智能的挑战。在日本诗歌生成的范围内,许多研究人员关注海库一代,但很少有人关注瓦卡一代。为了进一步探索日本诗创作中自然语言生成系统的创造潜力,我们提议了一个新颖的瓦卡一代模式,即WakaVT,该模式自动制作Waka诗词,给用户指定关键词。首先,提出了一种基于添加面罩的方法,以满足形式限制。第二,将变异器和变异自动编码器的结构整合在一起,以提高生成内容的质量。具体地说,为了获得新颖性和多样性,WakaVT使用了一系列潜在变量,有效地捕捉到瓦卡数据中的字级变异。为了提高语言的流畅性、一致性和有意义的程度,我们进一步提议了结合多层次自省机制,以适当的方式模拟Wakaka的等级语言结构。我们最了解的是,我们首先用基于变异器和/或变异形自动co的模型来调查Wakaka的生成情况。两种客观和主观的评价结果都表明,我们的模型大大超越了基准。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
291+阅读 · 2020年11月26日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
4+阅读 · 2019年9月26日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
6+阅读 · 2018年2月24日
VIP会员
相关VIP内容
最新《Transformers模型》教程,64页ppt
专知会员服务
291+阅读 · 2020年11月26日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
67+阅读 · 2020年10月24日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Top
微信扫码咨询专知VIP会员