We employ crowdsourcing to acquire time-continuous affective annotations for movie clips, and refine noisy models trained from these crowd annotations incorporating expert information within a Multi-task Learning (MTL) framework. We propose a novel \textbf{e}xpert \textbf{g}uided MTL (EG-MTL) algorithm, which minimizes the loss with respect to both crowd and expert labels to learn a set of weights corresponding to each movie clip for which crowd annotations are acquired. We employ EG-MTL to solve two problems, namely, \textbf{\texttt{P1}}: where dynamic annotations acquired from both experts and crowdworkers for the \textbf{Validation} set are used to train a regression model with audio-visual clip descriptors as features, and predict dynamic arousal and valence levels on 5--15 second snippets derived from the clips; and \textbf{\texttt{P2}}: where a classification model trained on the \textbf{Validation} set using dynamic crowd and expert annotations (as features) and static affective clip labels is used for binary emotion recognition on the \textbf{Evaluation} set for which only dynamic crowd annotations are available. Observed experimental results confirm the effectiveness of the EG-MTL algorithm, which is reflected via improved arousal and valence estimation for \textbf{\texttt{P1}}, and higher recognition accuracy for \textbf{\texttt{P2}}.


翻译:我们使用众包来获取电影剪辑的时间持续性影响说明, 并精炼由这些众包说明所训练的噪音模型, 其中包括多任务学习( MTL) 框架内的专家信息。 我们提议了一个新颖的 MTL (EG- MTL) 算法, 将人群和专家标签的损失降到最低, 以学习一组与获得众组说明的每个电影剪辑相对应的重量。 我们使用 EG- MTL 来解决两个问题, 即 \ textbf_ texttt{P1\\\\\\\\ : 从专家和众组员工那里获得的动态说明, 用于将声视频剪描述作为特征, 预测5-15秒的动态振动和价值水平; 和\ textf text_ texttt{P2\\\\\\\ : 我们使用\ textb\ textfrlorlical 校准估算的分类模型, 也就是使用动态和专家图表的确认, 静态缩缩缩缩图解解解的设置的校正的校正和估价, 校正的校正的校正的校正的校正和校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正, 校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正的校正

0
下载
关闭预览

相关内容

【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
3+阅读 · 2019年9月4日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Imitation by Predicting Observations
Arxiv
4+阅读 · 2021年7月8日
Arxiv
5+阅读 · 2021年6月3日
Arxiv
8+阅读 · 2021年2月1日
Arxiv
13+阅读 · 2018年4月6日
VIP会员
相关VIP内容
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
已删除
将门创投
3+阅读 · 2019年9月4日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员