【Google-MIT-哥伦比亚-ICRA2020】先看后学:操作前的视觉训练,Visual Pre-training

2020 年 3 月 21 日 专知


拥有视觉先验(例如,检测物体的能力)是否有助于学习执行基于视觉的操作(例如,拾取物体)?我们在迁移学习的框架下研究这个问题,其中模型首先被训练在一个被动的视觉任务上,然后被调整来执行一个主动的操作任务。我们发现视觉任务的预训练显著地提高了学习操作对象的泛化和样本效率。然而,实现这些收益需要谨慎地选择模型的哪些部分进行转换。我们的主要观点是,标准视觉模型的输出与操作中常用的可视性映射高度相关。因此,我们探索了将模型参数直接从视觉网络转移到启示预测网络的方法,并证明了这一方法可以成功地实现零距离自适应,即机器人可以在零经验的情况下拾取特定的物体。只需少量的机器人经验,我们就可以进一步微调启示模型,以获得更好的结果。只需10分钟的吸力体验或1小时的抓取体验,我们的方法就可以获得80%的成功率来抓取新奇的对象。


https://yenchenlin.me/vision2action/


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“VPM” 就可以获取【Google-MIT-哥伦比亚-ICRA2020】先看后学:操作前的视觉训练,Visual Pre-training》专知下载链接


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
79+阅读 · 2020年6月11日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
【中科院计算所】图卷积神经网络及其应用
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
新任务&数据集:视觉常识推理(VCR)
专知
50+阅读 · 2018年12月1日
Learning Discriminative Model Prediction for Tracking
Arxiv
6+阅读 · 2019年3月19日
Arxiv
5+阅读 · 2018年4月30日
VIP会员
相关VIP内容
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
79+阅读 · 2020年6月11日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
Top
微信扫码咨询专知VIP会员