OakInk: A Large-scale Knowledge Repository for Understanding Hand-Object Interaction 作者:杨理欣,李恺林,詹欣宇, 吴非, 徐安然, 刘浏, 卢策吾

代码地址:https://oakink.net

工作简介:学习人类如何操作物体需要机器从理解物体的功能性和基于功能性学习人类的交互/操作行为两个角度获取知识。这两个知识至关重要,但当前数据集通常缺乏对它们的全面认识。本文提出了一个全新的大型知识库 Oakink,旨在通过视觉信息对手物交互行为进行认知与理解。首先收集了1800个常见的家居物品并标注它们的功能性,构成了第一个知识库:Oak (Object Affordance Knowledge)。基于物体的功能性,团队在Oak 中的100个物体上,记录了人类与其的交互行为。另外,团队提出一种新的映射算法Tink,将这100 个物体上的交互映射到它们的虚拟对象上。这些被采集的和被映射的手物交互样本构成第二个知识库:Ink (Interaction Knowledge)。统计下来,OakInk 包含 50,000 个手物交互案例。团队还给OakInk提出了两个应用场景:“基于意图的交互生成”和“人与人的双手交递生成”。

成为VIP会员查看完整内容
14

相关内容

CVPR 2022 将于2022年 6 月 21-24 日在美国的新奥尔良举行。CVPR是IEEE Conference on Computer Vision and Pattern Recognition的缩写,即IEEE国际计算机视觉与模式识别会议。该会议是由IEEE举办的计算机视觉和模式识别领域的顶级会议,会议的主要内容是计算机视觉与模式识别技术。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
31+阅读 · 2021年10月20日
专知会员服务
19+阅读 · 2021年3月18日
【CVPR2021】面向视频动作分割的高效网络结构搜索
专知会员服务
13+阅读 · 2021年3月14日
专知会员服务
26+阅读 · 2021年3月5日
【CVPR2021】基于反事实推断的视觉问答框架
专知会员服务
26+阅读 · 2021年3月4日
【KDD 2020】基于互信息最大化的多知识图谱语义融合
专知会员服务
41+阅读 · 2020年9月7日
学习抓取柔性物体
TensorFlow
3+阅读 · 2021年7月5日
CVPR2021-单目实时全身捕捉的方法
专知
0+阅读 · 2021年3月18日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
14+阅读 · 2021年11月27日
VIP会员
相关主题
相关VIP内容
相关基金
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员