成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
编码器-解码器架构
关注
0
综合
百科
VIP
热门
动态
论文
精华
图像描述生成研究进展
专知
1+阅读 · 2021年3月29日
【CVPR2021】用Transformers无监督预训练进行目标检测
专知
4+阅读 · 2021年3月3日
理解卷积神经网络中的自注意力机制
极市平台
5+阅读 · 2020年10月1日
原地踏步还是“第二春”?知乎热议:如何评价DETR,基于Transformer的目标检测
极市平台
9+阅读 · 2020年5月28日
npj: 有机光电子学—深度学习帮你设计出高效分子
知社学术圈
0+阅读 · 2018年12月17日
基础 | 从各种注意力机制窥探深度学习在NLP中的神威
黑龙江大学自然语言处理实验室
0+阅读 · 2018年10月15日
深度 | 从各种注意力机制窥探深度学习在NLP中的神威
全球人工智能
1+阅读 · 2018年10月8日
深度 | 从各种注意力机制窥探深度学习在NLP中的神威
机器之心
1+阅读 · 2018年10月8日
【前沿】机器翻译新突破!“普适注意力”模型:概念简单参数少,性能大增
中国自动化学会
0+阅读 · 2018年8月29日
学界 | 普适注意力:用于机器翻译的2D卷积神经网络,显著优于编码器-解码器架构
机器之心
2+阅读 · 2018年8月29日
机器翻译新突破!“普适注意力”模型:概念简单参数少,性能大增
全球人工智能
0+阅读 · 2018年8月27日
机器翻译新突破!“普适注意力”模型:概念简单参数少,性能大增
未来产业促进会
0+阅读 · 2018年8月26日
机器翻译新突破!“普适注意力”模型:概念简单参数少,性能大增
新智元
1+阅读 · 2018年8月26日
【泡泡一分钟】Bonnet: 一种使用CNNs进行机器人语义分割的开源训练和部署框架
泡泡机器人SLAM
0+阅读 · 2018年4月16日
观点 | 从信息论的角度理解与可视化神经网络
机器之心
2+阅读 · 2018年4月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top