、
新智元报道
来源:venturebeat
编辑:小芹
一个人走路的样子很能说明人在特定时刻的感受。例如,当你感到压抑或沮丧时,相比感到心满意足时,走路的时候更可能耷拉着肩膀。
利用这种身体语言,教堂山大学和马里兰大学的研究人员最近开发了一种机器学习方法,可以从一个人的步态中识别人的感知情绪(例如,积极或消极,平静或精力充沛)。研究人员称这是第一种此类方法,并且在初步实验中取得了80.07%的准确率。
论文地址:
https://arxiv.org/pdf/1906.11884.pdf
“情感在我们的生活中扮演着重要的角色,定义着我们的经历,塑造着我们看待世界和与他人互动的方式,”作者在论文中写道。“由于感知情感在日常生活中的重要性,自动情感识别在许多领域都是一个关键问题,比如游戏和娱乐、安全和执法、购物、人机交互等。”
研究人员选择了四种情绪:快乐、悲伤、愤怒和中性,因为这些情绪倾向于“持续较长一段时间”,以及这些情绪对步态活动的影响较大。
然后,他们从多个步行视频语料库中提取步态来识别情感特征,并使用三维姿态估计技术提取姿态。
最后,他们利用长短时记忆(LSTM)模型——能够学习长期依赖关系——从姿态序列中获得特征,并将其与随机森林分类器(该分类器输出多个独立决策树的平均预测)相结合,将样本分类为上述四种情绪类别。
这些特征包括肩膀姿势、连续步数之间的距离以及手和脖子之间的区域。
头部倾斜角度被用来区分快乐和悲伤的情绪,而“身体紧张”和“身体舒张”分别识别积极和消极的情绪。至于情绪平静还是精神充沛,研究人员注意到它往往与运动量是否增加相对应,该模型考虑了速度、加速度的大小,以及手、脚和头部关节的“运动抖动”。
AI系统处理的样本来自“Emotion Walk”数据集,简称EWalk。EWalk是一组包含1384个步态的新数据集,这些步态是从24名受试者在大学校园(包括室内和室外)散步的视频中提取的。大约有700名来自 Amazon Mechanical Turk 的参与者给情绪贴上标签,研究人员用这些标签来确定情绪的类别和兴奋程度。
在测试中,研究人员报告说,他们的情感检测方法比最先进的算法提高了13.85%,比不考虑情感特征的“普通”LSTM提高了24.60%。
但这并不是说它是万无一失的——它的精度在很大程度上取决于3D人体姿态估计和步态提取的精度。但尽管有这些限制,研究人员相信他们的方法将为涉及额外活动和其他情感识别算法的研究提供坚实的基础。
“我们的方法也是第一个利用最先进的3D人体姿态估计技术,为步行视频中的情绪识别提供实时通道的方法,”研究者写道。“作为未来工作的一部分,我们希望收集更多的数据集,并解决目前的限制。”
论文地址:
https://arxiv.org/pdf/1906.11884.pdf