引用量 TOP 10 的ACL历届会议”最佳论文“

2020 年 7 月 1 日 学术头条


ACL 会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言学协会主办,每年一届。ACL 会议论文的接受率一直维持在 25% 左右,其中会经过严格的筛选和评审选出本届会议最佳论文,一般只有一篇。人工智能在近 20 年来获得了爆炸式的发展,而作为人工智能领域之一的自然语言处理,在 20 年来受研究人员关注和看好的发展趋势是怎么样的呢?我们对近 20 年来的 ACL 历届最佳论文按引用量给出了 2001-2018 年高被引的 ACL 最佳论文,以管窥一豹自然语言处理领域的发展和变迁。



AMiner  开发的 ACL 2020 论文查询工具:https://www.aminer.cn/conf/acl2020/?s=ar

Accurate Unlexicalized Parsing (2003)                                       
精确非词汇化解析  引用:3046
作者:Dan Klein、Christopher D.Manning
机构:斯坦福大学
简介:作者在本文中展示了非词汇化的 PCFG(概率上下文语法无关)能比以往展示的解析的更精确。通过使用简单的、语言学驱动的状态分解,它打破了传统 treebank 语法中潜在的错误独立性假设,其性能达到了 86.36%(LP/LR F PCFG 机型),并且惊人地接近了目前的最新水平。这个结果有潜在的用途,除了建立一个关于非词汇化模型最大可能精度的强下限之外:非词汇化的 PCFG 比更复杂的词汇模型更紧凑、更容易复制、更容易解释,而且解析算法更简单、更广为理解、渐近复杂度更低,更容易优化。
论文地址:https://www.aminer.cn/pub/53e997f1b7602d9701ff4b51/

A hierarchical phrase-based model for statistical machine translation(2005)

统计机器翻译基于短语的层次模型   引用:1291
作者:David Chiang
机构:马里兰大学 
简介:分层短语对模型,可以学习没有任何语法注释的训练数据,与现有的基于短语的系统相比,显著提高了翻译的准确性。
本文介绍了一个基于统计短语的翻译模型,该模型使用层次短语-包含子短语的短语。该模型在形式上是同步的上下文无关文法,但可从没有任何语法信息的 bitext 中学习。因此,可以将其视为向没有语言学承诺的基于语法的翻译系统形式机器的转变。在作者的实验中,使用 BLEU 作为度量标准,基于分层短语的模型比基于最先进的系统 Pharoah 实现了 7.5% 的相对改进。
论文地址:https://www.aminer.cn/pub/53e9a0fbb7602d97029e84fc/

Discriminative training and maximum entropy models for statistical machine translation (2002)

统计机器翻译中的差异化训练与最大熵模型     引用:1259
作者:Franz Josef Och、Hermann Ney
机构:亚琛工业大学
简介:作者提出了一个基于直接最大熵模型的自然语言统计机器翻译的框架,其中包含了广泛使用的源-信道方法作为特例。所有知识源都被视为特征函数,它取决于源语言语句、目标语言语句和可能的隐藏变量。这种方法允许通过添加新特征轻松扩展基准机器翻译系统。作者表明使用这种方法可以显着改善基准统计机器翻译系统。
论文地址:https://www.aminer.cn/pub/53e9be72b7602d9704b35ae7/


Semantic taxonomy induction from heterogenous evidence(2006)
归纳自异类证据的语义分类学     引用:487
作者 :Rion Snow、Daniel Jurafsky、Andrew Y.Ng
机构 :斯坦福大学
简介 :作者提出了一种新的归纳语义分类法的算法。先前用于分类归纳的算法通常集中于独立的分类器,基于手工构造或自动发现的文本模式来发现新的单一关系。相比之下,本文的算法可以灵活地结合来自异类关系的多个分类器的证据,从而利用单词的坐标项知识来确定其上位词,从而优化分类法的整个结构,反之亦然。作者将此算法应用于消除语义歧义的名词下位词获取的问题,在该问题中,作者将上位词的预测和术语分类器与现有知识分类法(WordNet 2.1)中的知识相结合。以 84% 的精度将 10,000 个新的同义词集添加到 WordNet 2.1,与使用相同组件分类器的非联合算法相比,相对误差减少了 70%。最后,文中证明,使用此算法构建的分类法在独立的上位词对测试集上显示出比 WordNet 2.1 相对 F 分数提高了 23%。
论文地址 :https://www.aminer.cn/pub/53e9bd9fb7602d9704a4b6e4/

Fast and Robust Neural Network Joint Models for Statistical Machine Translation(2014) 
统计机器翻译的快速且鲁棒的神经网络联合模型     引用:437
作者 :Jacob Devlin,、Rabih Zbib,、Zhongqiang Huang、Thomas Lamar,、Richard Schwartz、John Makhoul
机构 :雷神 BBN 技术公司
简介 :作者提出了一个神经网络联合模型(NNJM)的新公式,在原先的神经网络语言模型(NNLM)增加了源上下文窗口,提出的模型的纯词汇化的且能被集成到 MT 解码器,另外作者提供了具有更多显著附加提升的模型变种。尽管该模型非常简单,但是却获得了丰富的经验结果。在 NIST OpenMT12 阿拉伯语-英语条件下,NNJM 功能在功能强大、功能丰富的基准(已经包含仅目标NNLM)的基础上产生了+3.0 BLEU 的增益。在与 Chi-ang(2007)最初的 Hiero 实现相当的简单基准之上,NNJM 功能还产生了 +6.3 BLEU 的增益。此外,作者描述了两种新颖的技术来克服 MT 解码中使用 NNLM 样式模型的历史高成本。这些技术使NNJM的计算速度提高了 10,000 倍,使模型的速度与标准后退 LM 一样快。
论文地址 :https://www.aminer.cn/pub/5550446645ce0a409eb4d55a/

6  Finding predominant word senses in untagged text(2004)
在未标记的文本中寻找主要的词义      引用:412
作者 :Diana McCarthy、RobKoeling、JulieWeeds、JohnCarroll
机构 :  苏塞克斯大学
简介 :在词义歧义消除(WSD)中,选择最常识的启发式方法非常有用,因为一个词义的分布通常会偏斜。除了不考虑语境这一事实之外,使用主要的或第一感觉启发式方法的问题还在于,它假设了一些手工标记的数据。尽管有些语言提供了一些带有手工标记的语料库,但人们希望单词(尤其是主题词)的感觉频率分布取决于所考虑文本的体裁和领域。作者介绍了使用从原始文本语料库和 WordNet 相似性软件包中获取的同义词库来自动查找主要名词意义的工作。在 SENSEVAL-2 英语全单词任务的名词中,获得的主要感官可提供 64% 的精度。本文的方法不需要任何带有手工标记的文本,例如 SemCor,因此是一个非常有希望的结果。此外,作者证明了他们的方法从两个特定领域的语料库中发现了合适的词义。
论文地址 :https://www.aminer.cn/pub/53e9a9f0b7602d9703358242/

Immediate-head parsing for language models (2001)
语言模型的瞬时头部解析
   引用:397
作者:Eugene Charniak
机构:布朗大学
简介:作者基于“瞬时头部”解析器提供了两种语言模型,该解析器将所有事件都限制在 c 的头部下方。尽管所有最准确的统计解析器都是瞬时头部解析的,但以前的语法语言模型都没有使用此技术。这两种模型的困惑都大大改善了 Trigram 模型的基线以及以前最好的基于语法的语言模型。对作者的模型这些改进分别为 24% 和 14% 达到了更好的水平。作者的研究还表明,对基础解析器的改进应该可以显着改善模型的困惑度,并且即使在短期内,瞬时头部语言模型也有很大的改进潜力
论文地址:https://www.aminer.cn/pub/53e9be0eb7602d9704ac4bc3/

8 Fast decoding and optimal decoding for machine translation(2001)
机器翻译的快速解码和最优解码  
 引用:320
作者:Ulrich Germann、Michael Jahr、Kevin Knight、Daniel Marcu
机构:南加利福利亚大学、斯坦福大学
简介:良好的解码算法对于任何统计机器翻译系统的成功都是至关重要的。解码器的工作是根据先前学习的参数集(以及用于组合它们的公式)来找到最有可能的翻译。由于可能的翻译空间非常大,典型的解码算法只能检查其中的一部分,因此有可能错过良好的解决方案。在本文中,作者将传统的基于堆栈的解码算法的速度和输出质量与两个新的解码器进行了比较:快速贪婪解码器和将解码视为整数编程优化问题的慢速最优解码器。
论文地址:https://www.aminer.cn/pub/53e9bb01b7602d9704736c13/

Learning Synchronous Grammars for Semantic Parsing with Lambda Calculus(2007)

用 Lambda 演算学习语义解析的同步语法    引用:292

作者:Yuk Wah Wong 、Raymond J. Mooney
机构:德克萨斯大学奥斯汀分校
简介:本文给出了对能生成逻辑形式的同步语法的学习第一个实证结果。使用统计机器翻译技术,在给定一组训练语句及其正确逻辑形式的情况下,可以学习基于以-运算符增强的同步上下文无关语法的语义解析器。结果表明,解析器是迄今为止数据库查询域中性能最佳的系统。
论文地址:https://www.aminer.cn/pub/53e9b6cab7602d97042529b9/

10 A New String-to-Dependency Machine Translation Algorithm with a Target Dependency Language Model (2008)
目标依赖语言模型的一个新的字符串到依赖的机器翻译算法 
     引用:280
作者:LibinShen、JinxiXu、RalphWeischedel
机构:BBN 技术公司
简介:在本文中,作者提出了一种用于统计机器翻译的新型字符串到依赖的算法。在这个新框架下,本文在解码过程中采用了目标依赖语言模型来开发长距离单词关系,而传统的 n-gram 语言模型则无法提供这种功能。作者的实验表明,与 NIST 04 中英文评估套件上的标准分层字符串到字符串系统相比,字符串到依赖解码器在 BLEU 方面提高了 1.48 分,在 TER 上提高了 2.53 点。
论文地址:https://www.aminer.cn/pub/53e9ad99b7602d9703796f83/


点击 阅读原文 ,查看更多精彩!
喜欢本篇内容,请点在看
登录查看更多
0

相关内容

(ICML 2020 Tutorial)贝叶斯深度学习与概率模型构建,134页ppt
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
34+阅读 · 2020年6月17日
必读的7篇 IJCAI 2019【图神经网络(GNN)】相关论文
专知会员服务
91+阅读 · 2020年1月10日
ACL 2019年度回顾:自然语言处理发展趋势
人工智能学家
5+阅读 · 2019年8月19日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
2012-2018-CS顶会历届最佳论文大列表
深度学习与NLP
6+阅读 · 2019年2月1日
自然语言处理顶会EMNLP2018接受论文列表!
专知
87+阅读 · 2018年8月26日
AAAI 2018论文预讲会邀请函
哈工大SCIR
3+阅读 · 2017年12月18日
【C4P推荐】人工智能领域顶级会议AAAI
Call4Papers
3+阅读 · 2017年9月6日
Arxiv
5+阅读 · 2019年11月22日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关资讯
ACL 2019年度回顾:自然语言处理发展趋势
人工智能学家
5+阅读 · 2019年8月19日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
2012-2018-CS顶会历届最佳论文大列表
深度学习与NLP
6+阅读 · 2019年2月1日
自然语言处理顶会EMNLP2018接受论文列表!
专知
87+阅读 · 2018年8月26日
AAAI 2018论文预讲会邀请函
哈工大SCIR
3+阅读 · 2017年12月18日
【C4P推荐】人工智能领域顶级会议AAAI
Call4Papers
3+阅读 · 2017年9月6日
Top
微信扫码咨询专知VIP会员