成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
监督预训练
关注
2
综合
百科
VIP
热门
动态
论文
精华
通用模型、全新框架,WavLM语音预训练模型全解
PaperWeekly
1+阅读 · 2021年12月24日
CVPR 2022 | CNN自监督预训练新SOTA!上交等联合提出HCSC:具有层级结构的图像表征自学习新框架
极市平台
0+阅读 · 2022年3月12日
谷歌开源“穷人版”摘要生成NLP模型:训练成本低,只要1000个样本就能打败人类
量子位
1+阅读 · 2020年6月14日
解读人工智能的2021:超大规模预训练模型爆发,自动驾驶迎来商业化前夜
InfoQ
1+阅读 · 2021年12月31日
预训练还需要监督信息吗?一文了解无监督训练的优势
机器之心
3+阅读 · 2020年7月3日
【AAAI2021】图神经网路自监督预训练策略
专知
0+阅读 · 2021年1月9日
无需contrastive学习,微软亚研提出基于实例分类的无监督预训练方法
机器之心
0+阅读 · 2020年7月9日
香港中大-商汤科技联合实验室AAAI录用论文详解:自监督语义分割的混合与匹配调节
商汤科技
3+阅读 · 2018年2月26日
超越ImageNet预训练,Meta AI提出SplitMask,小数据集也能自监督预训练
PaperWeekly
0+阅读 · 2022年1月17日
预训练后性能反而变差,自训练要取代预训练了吗?
AI科技评论
0+阅读 · 2020年7月18日
如何加速训练和预测?增大模型吧
AINLP
0+阅读 · 2020年5月11日
通过增加模型的大小来加速Transformer的训练和推理
AINLP
0+阅读 · 2020年3月17日
MIM方法为什么简单高效?可视化和大规模实验给出了答案
机器之心
0+阅读 · 2022年5月31日
中文任务全面超 BERT,NLP 无监督预训练模型 ERNIE 真有官方说的那么好?
前端之巅
2+阅读 · 2019年9月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top