NLP领域,哪些综述性的文章值得推荐?

2019 年 12 月 13 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要14分钟

跟随小博主,每天进步一丢丢

zenRRan整理


知乎问题:

NLP领域,你推荐哪些综述性的文章?

https://www.zhihu.com/question/355125622


纯属学术分享,若侵权则马上删除!


优秀回答者:Y.Shu


1. 《Neural Reading Comprehension And Beyond》

Danqi Chen 的斯坦福博士论文,前段时间很火。 其中提出的关于 MRC 的开放问题洞察得非常深,是一些现有研究几乎没有触及到的问题。


2.《Tackling Graphical NLP problems with Graph Recurrent Networks》图神经网络在图相关 NLP 问题中的应用
这同样是一篇博士论文,GNN 与图数据最近也很有热度。


3.《Core techniques of question answering systems over knowledge bases: a survey》知识库问答的关键技术
这篇文章稍微比较老了,而且算是前深度学习时代的综述,不过能理解该领域的一些基本问题,例如可以看到 lexical gap 这样的基本问题在深度学习之前的解决方法; KBQA 进入深度学习的阶段之后,也分为端到端模型和使用 DL 对传统方法做改进的模型,传统方法并不能完全抛弃。


4.《Introduction to Neural Network based Approaches for Question Answering over Knowledge Graphs》知识图谱问答系统的神经网络方法介绍
今年的一篇 KGQA 的综述,个人感觉 KGQA/KBQA 的研究热度总体上还是不如 MRC,相关综述比较少,因而也值得关注。


5.《Speech and Language Processing (3rd ed. draft)》自然语言处理综论
比起说是综述,更像一本不断更新的 NLP 教材,免费公布在互联网上,内容比较新,框架比较大,虽然写得很厚了,细节上肯定还是不足,按其参考文献应当能对一个子领域了解得比较多。


6.《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》Google 在 2019 年 10 月发布的迁移学习在自然语言处理中的综述。
T5 是该文对现有迁移学习在 NLP 中的应用进行深入洞察和反复试验后,所提出的模型。 读该文的前面一部分能对迁移学习在 NLP 中的最新应用有非常清晰的认识,文章的大部分描述了 T5 模型的实验过程,实验细节非常复杂,数据集和参数数量规模之大令人叹为观止,不过其对 Transformer 的进一步改进能给研究者一些启示。


7.《Semantic search on text and knowledge bases》文本与知识库语义搜索
2016 年的综述,主要包括语义搜索的基本任务: 词性标注、命名实体识别等; 关键字搜索、结构化搜索、问答系统等方面的语义搜索方法。


8.《Neural Machine Reading Comprehension: Methods and Trends》神经网络方法的机器阅读理解: 方法与趋势
arXiv 上比较新的文章,重点是近年来的神经网络方法,其中阐述了 MRC 系统的一般结构。


优秀回答者:debuluoyi


比较成熟的 子领域就不说了,这里主要介绍NLP领域内几个尚需继续更好地解决的子领域和一些较新较好的综述文.


1.零样本学习

这个其实不管是CV还是NLP领域其实都在研究,也都待进一步解决。 强烈推荐 2019年来自新加坡南洋理工大学的综述长文:
Wei Wang, Vincent W. Zheng, Han Yu, and Chunyan Miao.(2019). A Survey of Zero-Shot Learning: Settings, Methods, and Applications. ACM Trans. Intell. Syst. Technol.10, 2, Article 13 (January 2019), 37 pages.
本人自己也写过一篇零样本的综述文章,可以参考下。 (一种解决范式):
https://zhuanlan.zhihu.com/p/82397000


2 小样本学习

推荐 来自港科大和第四范式的Few-shot learning综述长文: Generalizing from a Few Examples: A Survey on Few-Shot Learning
https://arxiv.org/abs/1904.05046


3.迁移学习

推荐 迁移学习领域最具代表性的综述是A survey on transfer learning,杨强老师署名的论文,虽然比较早,发表于2009-2010年,对迁移学习进行了比较权威的定义。
Pan, S. J., & Yang, Q. (2009). A survey on transfer learning. IEEE Transactions on knowledge and data engineering, 22(10), 1345-1359.


另外还有一些比较新的综述Latest survey,在这里随手介绍几篇:
[1] 2019 一篇新survey: Transfer Adaptation Learning: A Decade Survey
Zhang, L. (2019). Transfer Adaptation Learning: A Decade Survey. arXiv preprint arXiv:1903.04687.
[2] 2018 一篇迁移度量学习的综述: Transfer Metric Learning: Algorithms, Applications and Outlooks
Luo, Y., Wen, Y., Duan, L., & Tao, D. (2018). Transfer metric learning: Algorithms, applications and outlooks. arXiv preprint arXiv:1810.03944.


另外这个领域 戴老板的论文也是非常有必要读的(非综述,个人强推)
[3] 戴文渊. (2009). 基于实例和特征的迁移学习算法研究 (Doctoral dissertation, 上海: 上海交通大学).


4.弱监督学习

这个比较推荐 南京大学周志华老师 的综述论文
Zhou, Z. H. (2017). A brief introduction to weakly supervised learning. National Science Review, 5(1), 44-53.


5.预训练模型

2019 google的T5模型论文,把它当成综述来看就介绍的挺好:
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., ... & Liu, P. J. (2019). Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683.
bert后还有一些改进模型比如华为刘群/百度的ERNIE,XLNet等相关非综述文章,可以自行阅读。


6 其他方向

还有一些比较新的不同方向的综述文:
[1] 注意力机制: Hu, D. (2019, September). An introductory survey on attention mechanisms in nlp problems. In Proceedings of SAI Intelligent Systems Conference (pp. 432-448). Springer, Cham.
[2] Elvis Saravia and Soujanya: PoriaElvis Saravia and Soujanya Poria: NLP方方面面都有涉及,颇有一些横贯全局的意思。
网址:
https://nlpoverview.com/index.html


这里只是分不同研究方向列举了一些,其余相关论文可以参考本文文章:
https://zhuanlan.zhihu.com/p/91408237



优秀回答者:paiisall


跨语言Embedding综述,19年作者也在arxiv上进行了版本更新(以及ACL19的tutorial)。
  • A Survey Of Cross-lingual Word Embedding Models

  • Unsupervised Cross-Lingual Representation Learning

GNN
  • Graph Neural Networks: A Review of Methods and Applications

Seq2Seq摘要综述。
  • Neural Abstractive Text Summarization with Sequence-to-Sequence Models

Domain Adaption
  • A Survey of Domain Adaptation for Neural Machine Translation

IJCAI19 survey track
  • https://www.ijcai19.org/accepted-papers.html



优秀回答者:小川Ryan



  • 预训练模型

基于神经网络的词和文档语义向量表示方法研究
这是中科院一位师兄的博士论文,全面而不失深度


  • 命名实体识别

A Survey on Recent Advances in Named Entity Recognition from Deep Learning models
  • 注意力机制

An Attentive Survey of Attention Models
今年4月份出的attention综述,相当全面
  • 图神经网络

https://github.com/thunlp/GNNPapers?tdsourcetag=s_pctim_aiomsg
清华nlp组推荐的一些GNN必读论文


上述都是非常精彩的综述类文章,也正好符合初学者的学习顺序



优秀回答者:tianchi7


  • Knowledge Embedding

    • 刘知远, 孙茂松, 林衍凯, et al. 知识表示学习研究进展[J]. 计算机研究与发展, 2016, 53(2):247-261.

    • Wang Q , Mao Z , Wang B , et al. Knowledge Graph Embedding: A Survey of Approaches and Applications. IEEE Transactions on Knowledge and Data Engineering, 2017, PP(99):1-1.

  • Name Entity Recognition

    • Li J , Sun A , Han J , et al. A Survey on Deep Learning for Named Entity Recognition[J]. 2018.

    • Vikas Yadav,Steven Bethard. A Survey on Recent Advances in Named Entity Recognition from Deep Learning models. COLING 2018

    • Jie Yang,Shuailong Liang,Yue Zhang. Design Challenges and Misconceptions in Neural Sequence Labeling. COLING 2018

  • Sentiment Analysis

    • 赵妍妍,秦兵,刘挺. 文本情感分析 软件学报 2010.

    • Lei Zhang,Shuai Wang,Bing Liu. Deep Learning for Sentiment Analysis: A Survey.

  • Text Match

    • 庞亮,兰艳艳等. 深度文本匹配综述 计算机学报 2017.

    • Wuwei Lan,Wei Xu. Neural Network Models for Paraphrase Identification, Semantic Textual Similarity, Natural Language Inference, and Question Answering COLING 2018

  • Others

    • Sebastian Ruder.An Overview of Multi-Task Learning in Deep Neural Networks

    • Sebastian Ruder.Neural Transfer Learning for Natural Language Processing. PhD thesis. National University of Ireland, Galway.




方便交流学习,备注: 昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多: 机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等
记得备注呦


推荐阅读:
【ACL 2019】腾讯AI Lab解读三大前沿方向及20篇入选论文
【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency  Parsing
【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译
【一分钟论文】Semi-supervised Sequence Learning半监督序列学习
【一分钟论文】Deep Biaffine Attention for Neural Dependency Parsing
详解Transition-based Dependency parser基于转移的依存句法解析器
经验 | 初入NLP领域的一些小建议
学术 | 如何写一篇合格的NLP论文
干货 | 那些高产的学者都是怎样工作的?
一个简单有效的联合模型
近年来NLP在法律领域的相关研究工作




让更多的人知道你“在看”


登录查看更多
2

相关内容

迁移学习(Transfer Learning)是一种机器学习方法,是把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。迁移学习(TL)是机器学习(ML)中的一个研究问题,着重于存储在解决一个问题时获得的知识并将其应用于另一个但相关的问题。例如,在学习识别汽车时获得的知识可以在尝试识别卡车时应用。尽管这两个领域之间的正式联系是有限的,但这一领域的研究与心理学文献关于学习转移的悠久历史有关。从实践的角度来看,为学习新任务而重用或转移先前学习的任务中的信息可能会显着提高强化学习代理的样本效率。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
103+阅读 · 2020年3月12日
机器翻译深度学习最新综述
专知会员服务
98+阅读 · 2020年2月20日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
初入NLP领域的一些小建议
AINLP
21+阅读 · 2019年3月15日
自然语言处理精品资料
平均机器
8+阅读 · 2019年3月6日
NLP圣经《自然语言处理综述》2018最新版推荐
深度学习与NLP
16+阅读 · 2018年9月26日
近期有哪些值得读的QA论文?| 专题论文解读
PaperWeekly
4+阅读 · 2018年6月5日
论文荐读 | NLP之Attention从入门到精通
人工智能前沿讲习班
5+阅读 · 2018年5月14日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
干货 | NLP 书单推荐!
翻译技术沙龙
11+阅读 · 2017年12月21日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月25日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
4+阅读 · 2017年10月30日
VIP会员
相关VIP内容
专知会员服务
103+阅读 · 2020年3月12日
机器翻译深度学习最新综述
专知会员服务
98+阅读 · 2020年2月20日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
229+阅读 · 2019年10月12日
周志华教授:如何做研究与写论文?
专知会员服务
153+阅读 · 2019年10月9日
相关资讯
初入NLP领域的一些小建议
AINLP
21+阅读 · 2019年3月15日
自然语言处理精品资料
平均机器
8+阅读 · 2019年3月6日
NLP圣经《自然语言处理综述》2018最新版推荐
深度学习与NLP
16+阅读 · 2018年9月26日
近期有哪些值得读的QA论文?| 专题论文解读
PaperWeekly
4+阅读 · 2018年6月5日
论文荐读 | NLP之Attention从入门到精通
人工智能前沿讲习班
5+阅读 · 2018年5月14日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
干货 | NLP 书单推荐!
翻译技术沙龙
11+阅读 · 2017年12月21日
相关论文
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月25日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
4+阅读 · 2017年10月30日
Top
微信扫码咨询专知VIP会员