AI读取人们的面部情绪,已经成了一项大生意。
《卫报》报道称,其已经成为一个规模达200亿美元的产业,还在继续扩大。
亚马逊、微软、IBM等的大型科技公司,以及旷视等创业公司都已经入场,使用场景覆盖招聘、市场研究、健康评估等等。
一些开发者声称,自动化的情绪检测系统,不仅能更好地发现人类真实的情绪,也能更好地协调人们的内心感受,极大地改善人与设备的互动情况。
但有许多专家担心,情绪识别技术仍然有缺陷,会导致一些有风险的决定。
最早将情绪识别技术应用于商业场景的,是Rana el Kaliouby和MIT情绪计算实验室的主任Rosalind Picard。
2009年,他们创办了一家名为Affectiva的创业公司,将情绪识别技术作为市场调研产品出售,用来研究用户对广告和产品的实时情绪反应。
他们的客户有糖果公司玛氏、食品生产商家乐氏,以及哥伦比亚广播公司等等。
之后的几年内,机器学习和计算机视觉方面研究不断取得进展,情绪分析技术商业化进程开始加快。
现在,亚马逊、微软、IBM等科技巨头公司,都已经将“情绪分析”作为面部识别技术的产品之一。
也有一些创业公司,如旷视、Kairos、Eyeris等等,也开始面向企业、政府提供与Affectiva类似的服务。
随着更多公司进场,情绪识别覆盖的场景也越来越多。
从一开始用于市场研究,拓展到了招聘、司机监控、游戏用户体验测试、病人的健康状况评估等等场景。
《卫报》报道称,围绕着情绪识别,已经形成了一个规模达200亿美元的产业,未来也将继续扩大。
Kaliouby预测,在不久的将来,这种技术将无处不在,并集成在我们身边所有的设备中,无时无刻地“挖掘我们内心深处的、潜意识的反应”。
但就目前来看,情绪识别技术,还存在缺陷以及伴随而来的风险。
情绪识别,需要两种技术为基础。
一是计算机视觉,用于精确识别面部表情。
二是机器学习算法,分析和解释这些面部表情中蕴含的情绪。
通常情况下,机器学习采用监督学习来训练识别的能力。
这个过程中,给算法看成千上万张带有“happy”标注的面部图像,再给它看一张新的图像时,它会识别这个面部表情是否表示“happy”。
依赖大量的数据和强大的模型,情绪识别系统甚至可以识别人们试图掩饰的情绪。
但一些专家并不认可这种系统,并对其提出了批评。
比如美国东北大学的心理学教授 Lisa Feldman Barrett。
她认为,预先给人们提供选定的情绪标签,使其与面部照片相匹配,是在无意中引导他们给出答案。
在和同事进行的实验中,她们没有提供标签,让人们自由描述自己看到图像中的情绪。结果,特定面部表情和特定情绪之间的相关性直线下降。
在她看来,评估情绪需要动态的过程,分析人与人之间的互动,以及其中体现出来的文化背景等等。
这需要很多工作,毕竟情感是复杂的。
为了解决这方面的缺陷,在构建情绪识别系统时,研究人员开始不断丰富数据多样性和复杂性。
甚至实用视频来训练模型,并捕捉更多的数据的,比如声音、步态等等。
这背后的理念是,更好的数据意味着更准确的结果,甚至有一些研究开始宣称,机器在情绪识别方面已经超越了人类。
但Barrett提出的质疑,并不仅仅是关于数据的,还在于数据是如何标注的。
大多数情绪识别公司标注数据的过程,只能识别出来一些刻板的情绪。
纽约大学人工智能研究所的联合主任Meredith Whittaker表示,这会带来真正的社会危害。
她说,这些技术,已经用来招聘和评估学生在课堂上的表现。
反馈得到的信息,可以直接影响一个人的职业和学业生涯,如果分析结果不是非常准确的,就会带来实际的伤害。
最近,还有一些研究表明,面部识别技术的偏见,更有可能伤害少数群体。
去年12月发表的一项研究表明,情绪识别技术认为,黑人男性的负面情绪比白人男性更多。
在这些缺陷面前,正在使用这些技术开展业务的研究人员也承认,这项技术不是100%万无一失的。
原文链接:
https://www.theguardian.com/technology/2019/mar/06/facial-recognition-software-emotional-science
— 完 —
订阅AI内参,获取AI行业资讯
购买AI书籍
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点「好看」吧 !