报告主题:Natural language processing using transformer architectures

报告摘要

无论是否需要自动判断用户评论的观点、总结长文档、翻译文本还是构建聊天机器人,都需要最佳的语言模型。在2018年,几乎每一个NLP基准都被新的基于变压器的架构所击垮,取代了长期存在的基于递归神经网络的架构。简而言之,如果你喜欢NLP,你需要变形金刚。但是要使用transformer,您需要知道它们是什么,基于transformer的架构是什么样子的,以及如何在项目中实现它们。

Aurélien Géron深入复发性神经网络及其限制,transformer的发明,注意力机制,transformer架构,subword标记使用SentencePiece, 自我监督预训练-从巨大的corpor、语言模型,、BERT,、GPT学习和如何使用这些语言在你的项目中使用TensorFlow模型。

邀请嘉宾

Aurélien Géron是Kiwisoft的机器学习顾问,也是畅销书《与Scikit-Learn、Keras和TensorFlow一起进行机器学习》的作者。此前,他曾领导YouTube的视频分类团队,是Wifirst的创始人和首席技术官,并在多个领域担任顾问:金融(摩根大楼和法国兴业银行)、国防(加拿大国防部)和医疗(输血)。他还出版了一些技术书籍(关于c++、WiFi和互联网架构),他是巴黎多芬大学的讲师。

成为VIP会员查看完整内容
Natural language processing using transformer architectures Presentation.pdf
16

相关内容

语义分析的最终目的是理解句子表达的真实语义。但是,语义应该采用什么表示形式一直困扰着研究者们,至今这个问题也没有一个统一的答案。语义角色标注(semantic role labeling)是目前比较成熟的浅层语义分析技术。基于逻辑表达的语义分析也得到学术界的长期关注。
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
【教程】TensorFlow2 最新迁移学习教程和实战
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
程序员精选:TensorFlow和ML前5名的课程
云栖社区
8+阅读 · 2018年8月27日
AutoKeras:谷歌 AutoML 的杀手!
云头条
3+阅读 · 2018年8月2日
Arxiv
6+阅读 · 2020年4月14日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关VIP内容
相关资讯
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
【教程】TensorFlow2 最新迁移学习教程和实战
【赠书】TensorFlow自然语言处理
AINLP
17+阅读 · 2019年7月14日
干货 | 谷歌2019最火NLP模型Bert应用详解
全球人工智能
7+阅读 · 2019年4月3日
Auto-Keras与AutoML:入门指南
云栖社区
16+阅读 · 2019年2月9日
EMNLP 2018 | 为什么使用自注意力机制?
机器之心
8+阅读 · 2018年9月17日
程序员精选:TensorFlow和ML前5名的课程
云栖社区
8+阅读 · 2018年8月27日
AutoKeras:谷歌 AutoML 的杀手!
云头条
3+阅读 · 2018年8月2日
微信扫码咨询专知VIP会员