成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
自训练
关注
0
综合
百科
VIP
热门
动态
论文
精华
ECCV22|美团&上海交大开源PromptDet:无需手动标注,迈向开放词汇的目标检测
极市平台
0+阅读 · 2022年7月31日
【论文导读】2022年论文导读第九期
CCF多媒体专委会
4+阅读 · 2022年5月3日
CVPR 2022 | ST++: 半监督语义分割中更优的自训练范式
极市平台
0+阅读 · 2022年3月11日
CVPR 2022 | 南大&腾出提出ST++: 半监督语义分割中更优的自训练范式
CVer
0+阅读 · 2022年3月8日
WWW2022 | 迷途知返:分布迁移下的图神经网络自训练方法
专知
0+阅读 · 2022年2月19日
OCR自训练平台的天花板!它来了…
CVer
0+阅读 · 2021年12月17日
NeurIPS2021 | 领域自适应的循环自训练方法与理论
专知
3+阅读 · 2021年11月13日
ICML2021 | Self-Tuning: 如何减少对标记数据的需求?
夕小瑶的卖萌屋
0+阅读 · 2021年7月27日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
专知
0+阅读 · 2021年2月22日
韩家炜课题组重磅发文:文本分类只需标签名称,不需要任何标注数据!
深度学习自然语言处理
0+阅读 · 2021年1月20日
如何兼容自训练与预训练:更高效的半监督文本分类模型
PaperWeekly
0+阅读 · 2020年11月21日
自训练 + 预训练 = 更好的自然语言理解模型
AI科技评论
0+阅读 · 2020年11月11日
10分钟标注数据胜过一年前的960h,FAIR新研究实现语音识别大进展(模型已开源)
机器之心
0+阅读 · 2020年11月5日
自训练 + 预训练 = 更好的自然语言理解模型
PaperWeekly
0+阅读 · 2020年10月28日
【EMNLP 2020】融合自训练和自监督方法的无监督文本顺滑研究
专知
2+阅读 · 2020年10月18日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top