论文分享 论文分享环节也分为上、下午两场。在上午的分享中,腾讯 QQ 浏览器搜索技术部高级工程师唐萌、阿里达摩院算法工程师魏相鹏、清华交叉信息研究院博士生周璟、香港中文大学计算机系博士生 / 腾讯 AI Lab 研究员王文轩以及清华大学博士生泰禹嘉分享了他们的最新成果。 唐萌的分享主题是「基于区分开关键词和意图词的文本语义匹配」,主要围绕他们的 ACL 2022 接收论文《Divide and Conquer: Text Semantic Matching with Disentangled Keywords and Intents》展开。在这项工作中,他们提出了一种简单而有效的文本语义匹配训练策略,采用分而治之的方法将关键词和意图词区分开来。他们的方法可以很容易地与预训练语言模型结合在一起,而不会影响它们的推理效率。
魏相鹏的分享主题是「基于连续语义增强的神经机器翻译」,主要围绕他们的 ACL 2022 接收论文《Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation》展开,该论文也获得了今年 ACL 杰出论文奖。在这篇论文中,他们提出了一种新的数据增强范式连续语义增强(CSANMT),它为每个训练实例增加一个邻接语义区域,该语义区域可以覆盖足够的相同含义下的文字表达变体。
周璟的分享主题是「面向小样本学习的高效、鲁棒的数据增强」,主要围绕他们的 ACL 2022 接收论文《FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning》展开。在这篇论文中,他们提出了一种用于小样本学习的数据增强方法——FlipDA,它联合使用生成模型和分类器来生成标签翻转数据。FlipDA 的核心思想是发现生成标签翻转的数据比生成 label-preserved 的数据对性能更重要。
泰禹嘉的分享主题是「面向新数据的语言模型持续高效预训练」,主要围绕他们的 ACL 2022 接收论文《ELLE: Efficient Lifelong Pre-training for Emerging Data》展开。在这篇论文中,他们提出了 ELLE,旨在利用新出现的数据对模型进行有效的终身预训练。具体而言,ELLE 包括:(1) function preserved model expansion,灵活扩展现有 PLM 的宽度和深度,提高知识获取效率;(2)pretrained domain prompts ,将预训练过程中学习到的通用知识进行分解,激发出适合下游任务的知识。
在下午的分享中,小米人工智能实验室高级算法工程师李嫣然、字节跳动 AI Lab 研究员鲍宇、西安大略大学 / 矢量人工智能研究所博士生王馨頔、中科院自动化所模式识别国家重点实验室博士生林海涛、北京航空航天大学博士生王冰分享了他们的最新成果。 李嫣然的分享主题是「基于混合策略和常识图谱的情绪疏导对话」,主要围绕他们的 ACL 2022 接收论文《MISC: A Mixed Strategy-Aware Model integrating COMET for Emotional Support Conversation》展开。在这篇论文中,他们提出了一种新的情绪疏导对话模型——MISC,该模型首先推断用户的细粒度情绪状态,然后使用混合策略巧妙地做出反应。
鲍宇的分享主题是「一种基于隐变量建模的并行文本生成模型」,主要围绕他们的 ACL 2022 接收论文《latent-GLAT: Glancing at Latent Variables for Parallel Text Generation》展开。在这篇论文中,他们提出了一种名为 latent-GLAT 的模型,它利用离散隐变量来捕获词的分类信息,并调用一种高级课程学习技术,缓解了多模态问题。