ECCV 2020 SenseHuman Workshop:人类感知、理解与生成

2020 年 8 月 27 日 PaperWeekly


ECCV 2020 Workshop on Sensing, Understanding and Synthesizing Humans 将在周五(08/28)举办。这一 Workshop 关注于计算机视觉中的人类感知、理解和生成。

这次线上 Workshop 不但有业内大佬 Present 相关领域最新进展,更同时宣布两个重量级人脸比赛:检测换脸视频(Face Forgery)的比赛 DeeperForensics,和人脸防伪(反欺诈)的比赛 CelebA-Spoof 的开启。欢迎大家关注!



Workshop 网址:
https://sense-human.github.io/ 

时间: 8:00-10:00 (UTC+1) (北京时间15:00-17:00)& 22:00-24:00 (UTC+1)(太平洋时间14:00-16:00), Aug 28th, 2020.


引言


计算机视觉在人类感知、理解和生成上已经取得了长足的进步。在此基础上,我们进一步指出了未来本领域的三个重要方向:

1. 我们应该从整体出发,用一个统一的框架来处理人类感知、理解和生成问题。并且来探索由这些不同子领域相互交叉而产生的前沿问题。

2. 工业界和学术界应该多交流彼此的经验,教训以及对这个领域的见解。

3. 这些主题为“以人为本的人工智能”奠定了基础,并且会在即将到来的智能健康时代扮演不可或缺的作用。


演讲嘉宾

会议分为两个 session,分别面向北美时区与欧洲(亚洲)时区的观众。我们有幸请到了一些资深 Prof. 和在这个领域的年轻 researcher 作为 speaker,给大家 Present 当前这一领域最新的进展与理解。 
两个时区的 speaker 阵容分别如下,第一场将于北京时间 8 月 25 日 15:00 - 17:00 举办,第二场于北京时间 8 月 26 日 5:00 - 7:00 举办。



两大人脸比赛


在 Workshop 上,我们会宣布启动两个“假脸”检测的比赛,届时比赛组织者/论文作者将会对比赛进行介绍,比赛将会有来自 Amazon 赞助的丰厚奖励。 

DeeperForensics Challenge 2020
Challenge 主页:
https://competitions.codalab.org/competitions/25228

近年来,换脸已经成为计算机视觉和图形学中的重要问题。随着面部编辑、修改、和替换技术逐渐成熟,人眼甚至无法分辨图像和视频的真伪,其技术的滥用对社会的不良影响开始逐渐引起研究者的重视。所以提出反制检测人脸是否被替换和修改的技术迫在眉睫,这一比赛的重点,就在于检测被替换的人脸。 
这一比赛基于发表与 CVPR 2020 的 DeeperForensics-1.0 数据集,由南洋理工大学团队提出。DeeperForensics-1.0 是目前最大的真实场景中的换脸检测数据集,共有 60,000 多视频,17.6M 帧组成。
数据集中提供了丰富的来自真实世界的干扰,使用了新的换脸网络生成换脸结果。其中比赛还包括隐藏的,更贴近真实场景的测试数据。具体细节请参考比赛主页和论文原文:
https://liming-jiang.com/projects/DrF1/DrF1.html

CelebA-Spoof

Challenge 主页:
https://competitions.codalab.org/competitions/26210

人脸防伪则是针对目前日益增多的人脸识别相关的安全系统(门禁、支付系统),为了防止人脸识别系统被照片或视频攻破,用以判断系统是否被攻击的任务,其主要内容是活体检测。现有的反欺诈或活体检测数据集存在缺乏多样性等问题。 

于是为了解决以上问题,基于发表于 ECCV 2020 的数据集 CelebASpoof,在这次 Workshop 上启动了这一挑战。CelebASpoof 数据集由 10,177 个人, 共 625,537 图片组成,是目前最大的人脸反欺诈数据集。
https://github.com/Davidzhangyuanhan/CelebA-Spoof


Workshop时间安排

Session 1 (8:00-10:00 UTC+1, 0:00-2:00 PST): 

  • 7:55 - 8:00 开幕式

  • 8:00 - 8:40 Invited Talk by Prof. Matthias Nießner

  • 8:40 - 9:00 Challenge 介绍

  • 9:00 - 9:30 Invited Talk by Prof. Pietro Perona 

  • 9:30 - 10:00 Invited Talk by Dr. Chuang Gan

  • 10:00 - 10:05 结束语


Session 2 (22:00-24:00 UTC+1, 14:00-16:00 PST): 

  • 21:55 - 22:00 开幕式

  • 22:00 - 22:40 Invited Talk by Prof. Hao Li

  • 22:40 - 23:20 Invited Talk by Prof. Kristen Grauman 

  • 23:20 - 24:00 Invited Talk by Dr. Richard Zhang

  • 24:00 - 00:05 结束语


Workshop主办方


本次 Workshop 的组织者由来自 MMLab(CUHK,NTU)的 Researchers,UCSD 的新晋助理教授王小龙,NVIDIA 的刘思飞,各个 Challenge 的论文作者,以及 Amazon 的 Researchers 组成。



Challenge Chairs 同为 Workshop 的 Organizer,排名不分先后:



会议主办方诚邀大家参加!在 Workshop 将会设置各个 Speaker 的 Q&A sesssion,整个 Workshop 也将会被 Record,各个 talk 的内容会在会议之后一周向大家公开。




更多阅读





#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



登录查看更多
1

相关内容

【ACMMM2020】小规模行人检测的自模拟学习
专知会员服务
13+阅读 · 2020年9月25日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
35+阅读 · 2020年6月17日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
本周精选共读论文《姿态估计&图像生成》五篇
人工智能前沿讲习班
7+阅读 · 2019年3月25日
竞赛 | Kaggle上有哪些有趣又多金的计算机视觉类比赛?
计算机视觉life
8+阅读 · 2018年11月28日
观点 | 为何自然语言处理领域难以出现“独角兽”?
微软丹棱街5号
4+阅读 · 2018年2月27日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
7+阅读 · 2018年8月21日
Arxiv
3+阅读 · 2018年3月29日
VIP会员
相关VIP内容
【ACMMM2020】小规模行人检测的自模拟学习
专知会员服务
13+阅读 · 2020年9月25日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
35+阅读 · 2020年6月17日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
Top
微信扫码咨询专知VIP会员