为了使得视觉与学习领域相关从业者快速及时地了解领域的最新发展动态和前沿技术进展,VALSE最新推出了《论文速览》栏目,将在每周二和周五各发布一篇顶会顶刊论文的录制视频,对单个前沿工作进行细致讲解。本期VALSE论文速览选取了上海交通大学的机器人通用物体抓取方面的工作。该工作由卢策吾教授指导,方浩树同学录制。
VALSE拟定期公开面向相关研究者公开征集候选论文,原则上以当年发表的高质量顶会和顶刊论文为主。现发起新一轮论文征集,主要面向ICCV2021录用论文,也欢迎本年度录用的其它高质量论文投稿。请点击【阅读原文】填写论文信息。征集截止时间:2021年8月30日。
论文题目:GraspNet-1Billion:机器人通用物体抓取的新方法论
作者列表:方浩树 (上海交通大学),王晨曦 (上海交通大学),苟铭浩 (上海交通大学),卢策吾 (上海交通大学)
B站观看网址:
https://www.bilibili.com/video/BV1av411A7wN/
请复制链接到浏览器打开观看页面。
论文摘要:
机器人物体抓取在许多场景中具有重要应用,同时也是一个具有挑战性的计算机视觉问题。然而,对于杂乱场景,目前的研究存在训练数据不足和缺乏评估基准的问题。在这项工作中,我们贡献了一个具有统一评估系统的大规模抓取姿态检测数据集。我们的数据集包含 97,280 个 RGB-D 图像,拥有超过 10 亿个抓取姿态。同时,我们的评估系统通过解析计算直接验证抓取是否成功,它能够评估任何类型的抓取姿态,而无需提前计算标签。此外,我们提出了一个基于点云输入的端到端抓取姿态预测网络,我们以解耦的方式学习夹爪的接近方向和操作参数。还设计了一个新的抓取亲和域来提高抓取鲁棒性。我们进行了大量实验,以表明我们的数据集和评估系统可以很好地与现实世界的情况保持一致,并且我们提出的网络达到了最先进的性能。我们的数据集、源代码和模型可在 www.graspnet.net 上获得。
论文信息:
[1] Hao-Shu Fang*, Chenxi Wang*, Minghao Gou, Cewu Lu,GraspNet-1Billion: A Large-Scale Benchmark for General Object Grasping (CVPR2020)
论文链接:
[https://openaccess.thecvf.com/content_CVPR_2020/papers/Fang_GraspNet-1Billion_A_Large-Scale_Benchmark_for_General_Object_Grasping_CVPR_2020_paper.pdf]
项目主页:
[https://graspnet.net/]
代码链接:
[https://github.com/graspnet/graspnet-baseline]
视频讲者简介:
方浩树,上海交通大学博士生,研究方向为人类行为理解与智能机器人,在CVPR、ICCV、ECCV、AAAI、ICRA等会议上发表15篇论文,其中9篇一作论文。
特别鸣谢本次论文速览主要组织者:
月度轮值AC:沈为 (上海交通大学)、赵恒爽 (牛津大学)
季度责任AC:王兴刚 (华中科技大学)
活动参与方式
1、VALSE每周举行的Webinar活动依托B站直播平台进行,欢迎在B站搜索VALSE_Webinar关注我们!
直播地址:
https://live.bilibili.com/22300737;
历史视频观看地址:
https://space.bilibili.com/562085182/
2、VALSE Webinar活动通常每周三晚上20:00进行,但偶尔会因为讲者时区问题略有调整,为方便您参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ Q群,群号:698303207);
*注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。
3. VALSE微信公众号一般会在每周四发布下一周Webinar报告的通知。
4、您也可以通过访问VALSE主页:http://valser.org/ 直接查看Webinar活动信息。Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新。
看到这了,确定不关注下吗?关注下再走吧~