成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
已删除
2019 年 9 月 10 日
将门创投
已删除
登录查看更多
点赞并收藏
0
暂时没有读者
4
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
【DeepMind深度学习课程】序列循环神经网络,141页ppt,Sequences and Recurrent Network
专知会员服务
84+阅读 · 2020年6月23日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
【北京大学】动态异构图神经网络建模情感,Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
专知会员服务
54+阅读 · 2020年4月15日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
【CAAI 2019】XLNet and Beyond,杨植麟,联合创始人,循环智能(Recurrent AI)
专知会员服务
13+阅读 · 2019年12月4日
【NLP| 推荐文章】用图递归网络解决图的NLP问题(Tackling Graphical NLP problems with Graph Recurrent Networks)
专知会员服务
32+阅读 · 2019年11月24日
【MLA 2019】自然语言处理中的表示学习进展:从Transfomer到BERT,复旦大学邱锡鹏
专知会员服务
98+阅读 · 2019年11月15日
【CCL 2019】社会媒体处理前沿综述,哈尔滨工业大学助理研究员丁效
专知会员服务
41+阅读 · 2019年11月12日
【CCL 2019】ATT-第19期:预训练模型--自然语言处理的新范式 (车万翔 )
专知会员服务
40+阅读 · 2019年11月12日
【南洋理工大学课程】注意力神经网络,Attention Neural Networks,附78页PPT
专知会员服务
156+阅读 · 2019年11月9日
今晚直播 | 清华大学王晓智:事件抽取的进展与挑战
PaperWeekly
11+阅读 · 2020年3月26日
哈工大讯飞联合实验室发布中文XLNet预训练模型
哈工大SCIR
13+阅读 · 2019年8月20日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
谷歌更强 NLP 模型 XLNet 开源:20 项任务全面碾压 BERT!
雷锋网
5+阅读 · 2019年6月20日
开发 | 谷歌更强NLP模型XLNet开源:20项任务全面碾压BERT!
AI科技评论
6+阅读 · 2019年6月20日
斯坦福新模型刷新纪录:自然语言理解 GLUE 排行榜最高分!
新智元
4+阅读 · 2019年3月23日
已删除
将门创投
3+阅读 · 2018年11月20日
直播 | 自然语言处理中的多任务学习 & 复旦大学NLP实验室介绍
AI科技评论
6+阅读 · 2018年10月22日
干货 | CMU博士生杨植麟:如何让AI像人类一样学习自然语言?
AI科技评论
3+阅读 · 2018年4月12日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Multi-Stage Document Ranking with BERT
Arxiv
5+阅读 · 2019年10月31日
Latent Relation Language Models
Arxiv
21+阅读 · 2019年8月21日
XLNet: Generalized Autoregressive Pretraining for Language Understanding
Arxiv
14+阅读 · 2019年6月19日
Investigating the Successes and Failures of BERT for Passage Re-Ranking
Arxiv
3+阅读 · 2019年5月5日
Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks
Arxiv
4+阅读 · 2018年11月21日
Reversible Recurrent Neural Networks
Arxiv
3+阅读 · 2018年10月25日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Recurrent Autoregressive Networks for Online Multi-Object Tracking
Arxiv
8+阅读 · 2018年3月4日
Dual Recurrent Attention Units for Visual Question Answering
Arxiv
7+阅读 · 2018年2月1日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
相关VIP内容
【DeepMind深度学习课程】序列循环神经网络,141页ppt,Sequences and Recurrent Network
专知会员服务
84+阅读 · 2020年6月23日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
【北京大学】动态异构图神经网络建模情感,Jointly Modeling Aspect and Sentiment with Dynamic Heterogeneous Graph Neural Networks
专知会员服务
54+阅读 · 2020年4月15日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
【CAAI 2019】XLNet and Beyond,杨植麟,联合创始人,循环智能(Recurrent AI)
专知会员服务
13+阅读 · 2019年12月4日
【NLP| 推荐文章】用图递归网络解决图的NLP问题(Tackling Graphical NLP problems with Graph Recurrent Networks)
专知会员服务
32+阅读 · 2019年11月24日
【MLA 2019】自然语言处理中的表示学习进展:从Transfomer到BERT,复旦大学邱锡鹏
专知会员服务
98+阅读 · 2019年11月15日
【CCL 2019】社会媒体处理前沿综述,哈尔滨工业大学助理研究员丁效
专知会员服务
41+阅读 · 2019年11月12日
【CCL 2019】ATT-第19期:预训练模型--自然语言处理的新范式 (车万翔 )
专知会员服务
40+阅读 · 2019年11月12日
【南洋理工大学课程】注意力神经网络,Attention Neural Networks,附78页PPT
专知会员服务
156+阅读 · 2019年11月9日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
今晚直播 | 清华大学王晓智:事件抽取的进展与挑战
PaperWeekly
11+阅读 · 2020年3月26日
哈工大讯飞联合实验室发布中文XLNet预训练模型
哈工大SCIR
13+阅读 · 2019年8月20日
20项任务全面碾压BERT,全新XLNet预训练模型
机器学习算法与Python学习
15+阅读 · 2019年6月20日
谷歌更强 NLP 模型 XLNet 开源:20 项任务全面碾压 BERT!
雷锋网
5+阅读 · 2019年6月20日
开发 | 谷歌更强NLP模型XLNet开源:20项任务全面碾压BERT!
AI科技评论
6+阅读 · 2019年6月20日
斯坦福新模型刷新纪录:自然语言理解 GLUE 排行榜最高分!
新智元
4+阅读 · 2019年3月23日
已删除
将门创投
3+阅读 · 2018年11月20日
直播 | 自然语言处理中的多任务学习 & 复旦大学NLP实验室介绍
AI科技评论
6+阅读 · 2018年10月22日
干货 | CMU博士生杨植麟:如何让AI像人类一样学习自然语言?
AI科技评论
3+阅读 · 2018年4月12日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
相关论文
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Multi-Stage Document Ranking with BERT
Arxiv
5+阅读 · 2019年10月31日
Latent Relation Language Models
Arxiv
21+阅读 · 2019年8月21日
XLNet: Generalized Autoregressive Pretraining for Language Understanding
Arxiv
14+阅读 · 2019年6月19日
Investigating the Successes and Failures of BERT for Passage Re-Ranking
Arxiv
3+阅读 · 2019年5月5日
Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks
Arxiv
4+阅读 · 2018年11月21日
Reversible Recurrent Neural Networks
Arxiv
3+阅读 · 2018年10月25日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Recurrent Autoregressive Networks for Online Multi-Object Tracking
Arxiv
8+阅读 · 2018年3月4日
Dual Recurrent Attention Units for Visual Question Answering
Arxiv
7+阅读 · 2018年2月1日
大家都在搜
PRML
壁画
大型语言模型
ETHZ博士论文
时间序列
智能推荐
洛克菲勒
汽车智能化
无人艇
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top