成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
0
学术搜索调查问卷中奖名公布单
2020 年 3 月 30 日
学术头条
感谢所有参与“学术搜索调查问卷”活动的热心网友。本次活动共有32名网友积极参与。凡参与填写调查问卷并成功提交者,均获得了参与抽奖资格。
目前活动已经结束。根据中奖规则:我们从答题者中筛选出提供最有参考价值信息的微信号作为中奖者。中奖的微信号名单如下:
中奖名单
13476489616
wxid_8ijbpqsobze011
w736262201
以上获奖者均可获取精美礼品一份。
请以上中奖者于4月3日前提供收件人的姓名、详细地址、联系电话,至
miao.zhang@aminer.cn
过期不提供者,视为自动放弃奖品。
再次感谢您的大力支持!
也请关注我们即将发布的
TR 系列报告。
2020年3月26日
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
学术搜索
关注
0
商业数据分析,39页ppt
专知会员服务
165+阅读 · 2020年6月2日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
67+阅读 · 2020年5月19日
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
51+阅读 · 2020年5月16日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
100+阅读 · 2020年1月12日
2019中国硬科技发展白皮书 193页
专知会员服务
86+阅读 · 2019年12月13日
医药零售行业报告
医谷
9+阅读 · 2019年7月8日
日本研究确认世界首个iPS细胞异体移植手术安全性,但未大幅改善视力
医谷
4+阅读 · 2019年4月20日
正式公布:2019年度博新计划名单,共400人!
材料科学与工程
21+阅读 · 2019年4月18日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
KDD 2017奖项全公布,华人成最大赢家
AI科技评论
9+阅读 · 2017年8月15日
Attention Forcing for Sequence-to-sequence Model Training
Arxiv
7+阅读 · 2019年9月26日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
11+阅读 · 2019年6月2日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Testing Matrix Rank, Optimally
Arxiv
3+阅读 · 2018年10月18日
Text classification using capsules
Arxiv
5+阅读 · 2018年8月12日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
学术搜索
搜索
微信
CN
TR
相关VIP内容
商业数据分析,39页ppt
专知会员服务
165+阅读 · 2020年6月2日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
67+阅读 · 2020年5月19日
【快讯】KDD2020论文出炉,216篇上榜, 你的paper中了吗?
专知会员服务
51+阅读 · 2020年5月16日
AAAI2020接受论文列表,1591篇论文目录全集
专知会员服务
100+阅读 · 2020年1月12日
2019中国硬科技发展白皮书 193页
专知会员服务
86+阅读 · 2019年12月13日
热门VIP内容
开通专知VIP会员 享更多权益服务
【MIT博士论文】弱监督学习:理论、方法与应用
Andrej Karpathy:2025 年 LLM 年度回顾(2025 LLM Year in Review)
锚定情报:合成欺骗时代的地面真相
NeurIPS 2025 | NMKE:基于神经元归因与动态稀疏掩码的终身知识编辑
相关资讯
医药零售行业报告
医谷
9+阅读 · 2019年7月8日
日本研究确认世界首个iPS细胞异体移植手术安全性,但未大幅改善视力
医谷
4+阅读 · 2019年4月20日
正式公布:2019年度博新计划名单,共400人!
材料科学与工程
21+阅读 · 2019年4月18日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
KDD 2017奖项全公布,华人成最大赢家
AI科技评论
9+阅读 · 2017年8月15日
相关论文
Attention Forcing for Sequence-to-sequence Model Training
Arxiv
7+阅读 · 2019年9月26日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
11+阅读 · 2019年6月2日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Testing Matrix Rank, Optimally
Arxiv
3+阅读 · 2018年10月18日
Text classification using capsules
Arxiv
5+阅读 · 2018年8月12日
大家都在搜
Palantir
突防
大型语言模型
多域作战
未来战争
机场
蓝牙安全攻防
朱克爱德华兹家族
反恐
模型压缩 | 知识蒸馏经典解读
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top