多方面可控文本生成旨在控制生成文本在多个方面的属性(例如,情感中的“积极”和话题中的“体育”)。为了便于获取训练样本,现有的工作忽略了由不同属性交织形成的属性相关性。特别是,由不平衡属性相关性形成的刻板印象显著影响多方面控制。在本文中,我们提出了一种新的多方面可控文本生成方法MAGIC,通过解耦反事实增强来实现。我们通过在属性潜在空间中使用反事实特征向量进行解耦,缓解训练过程中不平衡属性相关性的问题。在推理过程中,我们通过目标导向的反事实增强来增强属性相关性,从而进一步改进多方面控制。实验表明,MAGIC在不平衡和平衡属性相关性场景中都优于最新的基准方法。我们的源代码和数据可在https://github.com/nju-websoft/MAGIC获取。

成为VIP会员查看完整内容
17

相关内容

【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
19+阅读 · 3月30日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
15+阅读 · 2021年7月7日
专知会员服务
14+阅读 · 2021年6月26日
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【CVPR2020】视觉推理-可微自适应计算时间
专知会员服务
12+阅读 · 2020年4月28日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2008年12月31日
Arxiv
159+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
148+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【CVPR2024】视觉-语言模型的高效测试时间调整
专知会员服务
19+阅读 · 3月30日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
15+阅读 · 2021年7月7日
专知会员服务
14+阅读 · 2021年6月26日
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【ACMMM2020】零样本语义分割的上下文感知特征生成
专知会员服务
15+阅读 · 2020年8月21日
【CVPR2020】视觉推理-可微自适应计算时间
专知会员服务
12+阅读 · 2020年4月28日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
38+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员