【导读】Github 上有许多成熟的 PyTorch NLP 代码和模型, 可以直接用于科研和工程中。本文介绍其中一下 Star 过千的时下热点项目。
AllenNLP,是AI2公司家的开源项目,致力于成为 PyTorch 下 NLP 算法研究和实现的全能平台。AllenNLP 的设计理念是: 模块化 和 轻量级。 它将 NLP中个各种需求进行了非常好的封装, 包括:padding, masking 等等。 特别的,AllenNLP 对实验非常友好, 实验流程和参数有 Json 文件配置,并行、重现完全不是问题,而且每一步都有丰富的 log 记录你想记录的一切。
AllenNLP 自身实现了包括:命名实体识别、语义角色标注、阅读理解在内的多种常用算法。AllenNLP是由艾伦人工智能研究所(Allen Institute for Artificial Intelligence)与华盛顿大学(University of Washington)和其他机构的研究人员密切合作建立和维护的。
DrQA 是 facebook 开源的开放式阅读理解智能问答算法。原论文发布在 ACL2016上, 名字是:Reading Wikipedia to Answer Open-Domain Questions
链接:
http://www.zhuanzhi.ai/paper/ec2483da392a7e054eeb0f0a58d3ddee。
DrQA是一个用于阅读理解的系统,适用于开放领域的问答。特别是,DrQA致力于解决大规模机器阅读理解。在这种情况下,算法在一个非常大的非结构化文档语料库中寻找问题的答案。因此,系统必须将文档检索(查找相关文档)与文本的机器理解(识别来自这些文档的答案)结合起来。
fairseq是facebook 开源的一个序列建模工具包,而并不是单纯的某个模型的实现。
它允许研究人员和开发人员为机器翻译、自动摘要、语言模型和其他文本生成任务训练自定义模型。它提供了各种Seq2seq 的模型的实现,包括:
Convolutional Neural Networks (CNN)
Dauphin et al. (2017): Language Modeling with Gated Convolutional Networks
Gehring et al. (2017): Convolutional Sequence to Sequence Learning
New Edunov et al. (2018): Classical Structured Prediction Losses for Sequence to Sequence Learning
New Fan et al. (2018): Hierarchical Neural Story Generation
Long Short-Term Memory (LSTM) networks
Luong et al. (2015): Effective Approaches to Attention-based Neural Machine Translation
Wiseman and Rush (2016): Sequence-to-Sequence Learning as Beam-Search Optimization
Transformer (self-attention) networks
Vaswani et al. (2017): Attention Is All You Need
New Ott et al. (2018): Scaling Neural Machine Translation
OpenNMT 全称是Open Source Neural Machine Translation in PyTorch (PyTorch 开源神经翻译模型), 致力于它旨在研究促进新idea 在神经翻译,自动摘要,看图说话,语言形态学和许多其他领域的发展。
作为自动翻译的平台型项目, OpenNMT 当然也支持各种文本数据预处理,包括各种 RNN 单元, 各种 attention机制,花式日志,语音转文本,看图说话等等。
-END-
专 · 知
人工智能领域主题知识资料查看与加入专知人工智能服务群:
【专知AI服务计划】专知AI知识技术服务会员群加入与人工智能领域26个主题知识资料全集获取。欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询!
请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!
请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~
请关注专知公众号,获取人工智能的专业知识!
点击“阅读原文”,使用专知