成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
软标签
关注
99
软标签,在AI领域中,多指采用以概率为基础的标签编码,多用于标签平滑,可以一定程度抑制过拟合,与之相反的是硬标签。
综合
百科
VIP
热门
动态
论文
精华
一次中稿10篇EMNLP22,达摩院对话智能团队在研究什么
阿里技术
2+阅读 · 2022年11月15日
ECCV 2022 | 首个快速知识蒸馏视觉框架:ResNet50 80.1%精度,训练加速30%
PaperWeekly
0+阅读 · 2022年9月1日
ECCV 2022 | CMU提出首个快速知识蒸馏的视觉框架:ResNet50 80.1%精度,训练加速30%
机器之心
0+阅读 · 2022年8月30日
ICLR 2022 | 图与主动学习:软标签情况下如何设计图上主动学习策略?
PaperWeekly
3+阅读 · 2022年5月22日
AAAI2022@腾讯 | 多任务推荐系统中的跨任务知识蒸馏
机器学习与推荐算法
1+阅读 · 2022年3月29日
知识图谱还有哪些方向值得深入研究?这 6 篇最新论文给你答案
PaperWeekly
5+阅读 · 2022年3月18日
WSDM2022 | DualDE:基于知识图谱蒸馏的低成本推理
专知
2+阅读 · 2022年1月20日
AAAI21 | 基于块(Block)建模理论图神经网络
图与推荐
0+阅读 · 2021年12月28日
【WWW2021】图神经网络知识蒸馏框架
专知
0+阅读 · 2021年3月10日
【AAAI2021】对比聚类,Contrastive Clustering
专知
25+阅读 · 2021年1月30日
神经网络中的蒸馏技术,从Softmax开始说起
极市平台
0+阅读 · 2020年9月26日
神经网络中的蒸馏技术,从Softmax开始说起
深度学习自然语言处理
1+阅读 · 2020年9月22日
Kaggle知识点:伪标签Pseudo Label
AINLP
40+阅读 · 2020年8月9日
BERT 瘦身之路:Distillation,Quantization,Pruning
AINLP
10+阅读 · 2019年10月22日
BERT 瘦身之路:Distillation,Quantization,Pruning
AINLP
0+阅读 · 2019年10月22日
参考链接
父主题
机器学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top