成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
MS MARCO
关注
0
综合
百科
VIP
热门
动态
论文
精华
EMNLP 2021 | 大道至简:微软提出可生成高质量文本表示的预训练语言模型
PaperWeekly
0+阅读 · 2022年1月10日
用于稠密检索的无监督领域适应方法—Generative Pseudo Labeling (GPL)
PaperWeekly
0+阅读 · 2021年12月25日
MT-BERT在文本检索任务中的实践
深度学习自然语言处理
0+阅读 · 2020年8月22日
MT-BERT在文本检索任务中的实践
AINLP
1+阅读 · 2020年8月21日
专访清华“00后”SIGIR2020 最佳短论文一作:大三就发最佳论文,背后有何秘诀?
AI科技评论
6+阅读 · 2020年8月11日
速度×6,模型缩小20倍:用华为&华科的TinyBERT做搜索,性能达BERT 90%
量子位
1+阅读 · 2020年1月23日
TinyBERT搜索: 比BERT快10倍,小20倍
专知
4+阅读 · 2020年1月18日
神经机器阅读理解最新综述:方法和趋势
PaperWeekly
15+阅读 · 2019年7月25日
4300万字的《大英百科全书》 阿里AI可以在毫秒内读懂
阿里云
0+阅读 · 2018年12月25日
Facebook开源全卷积语音识别工具包 欧盟发布AI道德准则草案
智东西
0+阅读 · 2018年12月25日
直播 | CMRC2018 评测任务冠军队伍分享: 如何从数据、模型和训练角度提升阅读理解系统性能?
AI科技评论
3+阅读 · 2018年11月8日
微软研究院发布开放数据项目,公开内部研究数据集
微软研究院AI头条
0+阅读 · 2018年6月25日
重磅!微软内部研究数据集正式对外开放,覆盖NLP、CV等9个领域
InfoQ
0+阅读 · 2018年6月25日
重磅!微软内部研究数据集正式对外开放,覆盖NLP、CV等9个领域
AI前线
0+阅读 · 2018年6月23日
DeepMind论文解读:让机器更深入地理解文本
PaperWeekly
9+阅读 · 2018年6月8日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top