成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
已删除
2019 年 6 月 10 日
将门创投
已删除
登录查看更多
点赞并收藏
0
暂时没有读者
6
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
【ICML2020-南大周志华老师组】针对未见类未标记数据的安全深度半监督学习
专知会员服务
40+阅读 · 2020年7月5日
【ICML2020-伯克利】反直觉!大模型重压缩提升Transformer的训练和推理效率,47页ppt
专知会员服务
69+阅读 · 2020年7月1日
【综述】面向视觉智能的知识蒸馏和Student-Teacher方法,附37页pdf下载
专知会员服务
67+阅读 · 2020年4月16日
【ICLR2020-谷歌】用“复合散度”量化模型合成泛化能力
专知会员服务
19+阅读 · 2020年3月29日
【Amazon】使用预先训练的Transformer模型进行数据增强,Data Augmentation using Pre-trained Transformer Models
专知会员服务
49+阅读 · 2020年3月7日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
元迁移学习的小样本学习,Meta-transfer Learning for Few-shot Learning
专知会员服务
158+阅读 · 2020年2月29日
AAAI 2020 | 滴滴&东北大学提出自动结构化剪枝压缩算法框架,性能提升高达120倍
专知会员服务
29+阅读 · 2020年2月26日
图像分类最新技术综述论文: 21种半监督、自监督和无监督学习方法一较高低
专知会员服务
183+阅读 · 2020年2月22日
已删除
将门创投
12+阅读 · 2019年7月1日
成熟的目标检测,也该自己学习数据增强策略达到SOTA了
机器之心
17+阅读 · 2019年6月28日
学界 | 伯克利 AI 研究院提出新的数据增强算法,比谷歌大脑的 AutoAugment 更强!| ICML 2019
AI科技评论
8+阅读 · 2019年6月26日
伯克利提出数据增强新方法,计算速度提升1000倍
AI前线
12+阅读 · 2019年6月21日
谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现
量子位
8+阅读 · 2019年4月28日
已删除
将门创投
8+阅读 · 2019年3月18日
谷歌推出新型数据增强算法:AutoAugment
论智
20+阅读 · 2018年6月6日
【学界】谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集
GAN生成式对抗网络
11+阅读 · 2018年6月5日
谷歌放大招!数据增强实现自动化
新智元
8+阅读 · 2018年6月4日
学界 | 谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集
机器之心
3+阅读 · 2018年6月2日
Self-Supervised Learning For Few-Shot Image Classification
Arxiv
19+阅读 · 2019年11月14日
Self-training with Noisy Student improves ImageNet classification
Arxiv
15+阅读 · 2019年11月11日
Robust Graph Neural Network Against Poisoning Attacks via Transfer Learning
Arxiv
6+阅读 · 2019年8月20日
Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs
Arxiv
40+阅读 · 2019年6月4日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Few-shot classification in Named Entity Recognition Task
Arxiv
6+阅读 · 2018年12月14日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Multi-Head Attention with Disagreement Regularization
Arxiv
9+阅读 · 2018年10月24日
Diff-DAC: Distributed Actor-Critic for Average Multitask Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年4月22日
Visual Question Answering with Memory-Augmented Networks
Arxiv
4+阅读 · 2018年3月25日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
相关VIP内容
【ICML2020-南大周志华老师组】针对未见类未标记数据的安全深度半监督学习
专知会员服务
40+阅读 · 2020年7月5日
【ICML2020-伯克利】反直觉!大模型重压缩提升Transformer的训练和推理效率,47页ppt
专知会员服务
69+阅读 · 2020年7月1日
【综述】面向视觉智能的知识蒸馏和Student-Teacher方法,附37页pdf下载
专知会员服务
67+阅读 · 2020年4月16日
【ICLR2020-谷歌】用“复合散度”量化模型合成泛化能力
专知会员服务
19+阅读 · 2020年3月29日
【Amazon】使用预先训练的Transformer模型进行数据增强,Data Augmentation using Pre-trained Transformer Models
专知会员服务
49+阅读 · 2020年3月7日
【伯克利】通过增大模型加速Transformer训练和推理
专知会员服务
44+阅读 · 2020年3月6日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
元迁移学习的小样本学习,Meta-transfer Learning for Few-shot Learning
专知会员服务
158+阅读 · 2020年2月29日
AAAI 2020 | 滴滴&东北大学提出自动结构化剪枝压缩算法框架,性能提升高达120倍
专知会员服务
29+阅读 · 2020年2月26日
图像分类最新技术综述论文: 21种半监督、自监督和无监督学习方法一较高低
专知会员服务
183+阅读 · 2020年2月22日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
已删除
将门创投
12+阅读 · 2019年7月1日
成熟的目标检测,也该自己学习数据增强策略达到SOTA了
机器之心
17+阅读 · 2019年6月28日
学界 | 伯克利 AI 研究院提出新的数据增强算法,比谷歌大脑的 AutoAugment 更强!| ICML 2019
AI科技评论
8+阅读 · 2019年6月26日
伯克利提出数据增强新方法,计算速度提升1000倍
AI前线
12+阅读 · 2019年6月21日
谷歌提出新型自动语音识别数据增强大法,直接对频谱图“动刀”,提升模型表现
量子位
8+阅读 · 2019年4月28日
已删除
将门创投
8+阅读 · 2019年3月18日
谷歌推出新型数据增强算法:AutoAugment
论智
20+阅读 · 2018年6月6日
【学界】谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集
GAN生成式对抗网络
11+阅读 · 2018年6月5日
谷歌放大招!数据增强实现自动化
新智元
8+阅读 · 2018年6月4日
学界 | 谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集
机器之心
3+阅读 · 2018年6月2日
相关论文
Self-Supervised Learning For Few-Shot Image Classification
Arxiv
19+阅读 · 2019年11月14日
Self-training with Noisy Student improves ImageNet classification
Arxiv
15+阅读 · 2019年11月11日
Robust Graph Neural Network Against Poisoning Attacks via Transfer Learning
Arxiv
6+阅读 · 2019年8月20日
Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs
Arxiv
40+阅读 · 2019年6月4日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Few-shot classification in Named Entity Recognition Task
Arxiv
6+阅读 · 2018年12月14日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Multi-Head Attention with Disagreement Regularization
Arxiv
9+阅读 · 2018年10月24日
Diff-DAC: Distributed Actor-Critic for Average Multitask Deep Reinforcement Learning
Arxiv
4+阅读 · 2018年4月22日
Visual Question Answering with Memory-Augmented Networks
Arxiv
4+阅读 · 2018年3月25日
大家都在搜
智能推荐
PRML
大型语言模型
ETHZ博士论文
无人机蜂群
MoE
壁画
笛卡尔
洛克菲勒
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top