成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
已删除
2019 年 4 月 26 日
将门创投
已删除
登录查看更多
点赞并收藏
0
暂时没有读者
11
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
【ICML2020-伯克利】反直觉!大模型重压缩提升Transformer的训练和推理效率,47页ppt
专知会员服务
69+阅读 · 2020年7月1日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【伯克利】自回归模型的局部掩卷积,Locally Masked Convolution for Autoregressive Models
专知会员服务
19+阅读 · 2020年6月23日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
【CVPR2020】用于图像超分辨率的深度展开网络,Deep Unfolding Network for Image Super-Resolution
专知会员服务
43+阅读 · 2020年3月26日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
谷歌提出“T5” 新NLP模型,突破迁移学习局限,多基准测试达SOTA!
专知会员服务
40+阅读 · 2020年2月26日
【上海交大-ICASSP2020】Transformer端到端的多说话人语音识别
专知会员服务
50+阅读 · 2020年2月16日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
【论文笔记】用于深度时空图建模的Geaph WaveNet
专知
106+阅读 · 2019年11月4日
谷歌NIPS论文Transformer模型解读:只要Attention就够了
AI100
14+阅读 · 2019年9月9日
长文本表示学习概述
云栖社区
15+阅读 · 2019年5月9日
OpenAI新研究补齐Transformer短板,将可预测序列长度提高30倍
机器之心
6+阅读 · 2019年4月24日
解密:OpenAI和DeepMind都用的Transformer是如何工作的
机器之心
4+阅读 · 2019年4月7日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
谷歌、CMU重磅论文:Transformer升级版,评估速度提升超1800倍!
新智元
11+阅读 · 2019年1月12日
MSRA视觉组可变形卷积网络升级!更高性能,更强建模能力
未来产业促进会
6+阅读 · 2018年11月29日
利用RNN训练Seq2Seq已经成为过去,CNN才是未来?
AI100
7+阅读 · 2017年10月31日
Language Modeling with Deep Transformers
Arxiv
6+阅读 · 2019年7月11日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
11+阅读 · 2019年6月2日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Close to Human Quality TTS with Transformer
Arxiv
3+阅读 · 2018年11月13日
Improving the Transformer Translation Model with Document-Level Context
Arxiv
4+阅读 · 2018年10月8日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Deep Convolutional Networks as shallow Gaussian Processes
Arxiv
4+阅读 · 2018年8月16日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
相关VIP内容
【ICML2020-伯克利】反直觉!大模型重压缩提升Transformer的训练和推理效率,47页ppt
专知会员服务
69+阅读 · 2020年7月1日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【伯克利】自回归模型的局部掩卷积,Locally Masked Convolution for Autoregressive Models
专知会员服务
19+阅读 · 2020年6月23日
【CVPR2020】图神经网络中的几何原理连接
专知会员服务
56+阅读 · 2020年4月8日
【CVPR2020】用于图像超分辨率的深度展开网络,Deep Unfolding Network for Image Super-Resolution
专知会员服务
43+阅读 · 2020年3月26日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
谷歌提出“T5” 新NLP模型,突破迁移学习局限,多基准测试达SOTA!
专知会员服务
40+阅读 · 2020年2月26日
【上海交大-ICASSP2020】Transformer端到端的多说话人语音识别
专知会员服务
50+阅读 · 2020年2月16日
Google AI博客解读论文《Reformer: The Efficient Transformer》,百万量级注意力机制
专知会员服务
69+阅读 · 2020年1月17日
热门VIP内容
开通专知VIP会员 享更多权益服务
《综述:无人机蜂群的最新技术和未来研究挑战》最新23页
《面向多计算系统的人工智能自主决策》330页
蜂群风暴:人工智能赋能无人机部署
《美国核部署战略报告》最新文件
相关资讯
Reformer:一个高效的 Transformer
TensorFlow
9+阅读 · 2020年2月13日
【论文笔记】用于深度时空图建模的Geaph WaveNet
专知
106+阅读 · 2019年11月4日
谷歌NIPS论文Transformer模型解读:只要Attention就够了
AI100
14+阅读 · 2019年9月9日
长文本表示学习概述
云栖社区
15+阅读 · 2019年5月9日
OpenAI新研究补齐Transformer短板,将可预测序列长度提高30倍
机器之心
6+阅读 · 2019年4月24日
解密:OpenAI和DeepMind都用的Transformer是如何工作的
机器之心
4+阅读 · 2019年4月7日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
谷歌、CMU重磅论文:Transformer升级版,评估速度提升超1800倍!
新智元
11+阅读 · 2019年1月12日
MSRA视觉组可变形卷积网络升级!更高性能,更强建模能力
未来产业促进会
6+阅读 · 2018年11月29日
利用RNN训练Seq2Seq已经成为过去,CNN才是未来?
AI100
7+阅读 · 2017年10月31日
相关论文
Language Modeling with Deep Transformers
Arxiv
6+阅读 · 2019年7月11日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
11+阅读 · 2019年6月2日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Close to Human Quality TTS with Transformer
Arxiv
3+阅读 · 2018年11月13日
Improving the Transformer Translation Model with Document-Level Context
Arxiv
4+阅读 · 2018年10月8日
Symbolic Priors for RNN-based Semantic Parsing
Arxiv
3+阅读 · 2018年9月20日
Deep Convolutional Networks as shallow Gaussian Processes
Arxiv
4+阅读 · 2018年8月16日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
大家都在搜
笛卡尔
壁画
强化学习方法
空战战术
全面综述
无人艇
汽车智能化
大模型
洛克菲勒
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top