成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
重参数化
关注
1
综合
百科
VIP
热门
动态
论文
精华
深度学习中的不可导操作(次梯度和重参数化)
图与推荐
0+阅读 · 2020年1月17日
深度并非一切:普林斯顿、英特尔提出ParNet,速度和准确性显著优于ResNet
PaperWeekly
1+阅读 · 2021年11月13日
PRL导读-2018年120卷12期
中科院物理所
0+阅读 · 2018年4月2日
WSDM‘21 | 如何增加GNN的鲁棒性?
图与推荐
1+阅读 · 2021年12月10日
7 Papers & Radios | MIT深度学习框架登Nature封面;2010年以来,ML算力需求增100亿倍
机器之心
0+阅读 · 2022年3月20日
资源 | 对比ResNet: 超深层网络DiracNet的PyTorch实现
机器之心
1+阅读 · 2017年11月14日
深度学习中的不可导操作(次梯度和重参数化)
AINLP
0+阅读 · 2020年5月21日
给RepVGG填坑?其实是RepVGG2的RepOptimizer开源
极市平台
1+阅读 · 2022年6月22日
CVPR 2022 | DyRep让重参数化机制动态调整,涨点同时还减少训练耗时
极市平台
2+阅读 · 2022年3月28日
揭秘大模型背后的机理,清华49页长文全方位分析参数高效微调方案Delta Tuning
机器之心
1+阅读 · 2022年4月7日
抢票 | AI未来说学术论坛第17期:百度奖学金特别专场
PaperWeekly
1+阅读 · 2020年7月16日
清华49页长文全方位分析参数高效微调方案Delta Tuning,揭秘大模型背后的机理
专知
1+阅读 · 2022年4月8日
CVPR 2022 | 超越RepVGG!浙大&阿里提出OREPA:在线卷积重参数化
CVer
1+阅读 · 2022年4月11日
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
机器之心
0+阅读 · 2022年3月17日
图解RMNet 重参数化新方法
极市平台
1+阅读 · 2021年11月28日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top