无人机交付

情感计算是一种快速增长的跨学科领域,专注于识别,解释,过程和模拟人类影响的产品和系统的研究和开发1换句话说,就是旨在识别或衡量情绪、感觉或情绪的技术。它通常使用人工智能(AI)分析面部表情、语调、肢体语言等身体信号和心率等生物信号。许多情感计算的目标是改善人机交互,部分是通过使计算机更好地理解人类的情感,以便它们能做出适当的反应。


1陶华涛;Tieniu Tan(2005)。“情感计算:评论”。情感计算和智能交互。LNCS 3784。斯普林克。第981-995页。DOI:10.1007 / 11573548。

什么是新的

情感计算是一个新兴的、相对未经验证的研究领域,但情感技术越来越多地出现在主流消费和企业软硬件产品中。在消费领域之外,许多公司正在推广使用这些技术分析在线客户评论,监控员工生产力,评估求职者的“就业能力得分”,甚至评估一个孩子在学校是否集中注意力。根据《2020年全球预测到2025年》报告,情感计算市场预计将从2020年的286亿美元增长到2025年的1400亿美元。

情感技术通常被销售为“情绪检测”或“情感分析”,它夸大了技术的能力,并且可以使它们看起来比它们更强大。实际上,许多这些产品和服务声称为个人真正的情绪状态提供了准确的读数。然而,研究表明,情感技术只能推断个人基于可用信号表达个人的情感或情绪。换句话说,它不知道你是什么感受 - 这是根据你向外界所表现出来的感觉猜测。

尽管研究人员和开发人员经常提到这项技术的局限性,但我们正越来越多地看到这项技术进入主流商业设备和系统,包括从租用系统到手表到为老年人提供护理的医疗机器人的一切。这个蓬勃发展的市场为企业和政府利用与情感相关的数据提供了巨大的机会,但也伴随着重大风险。

信号的变化

法律上的图标

2020年8月,亚马逊推出了一款用于健康和健身追踪的腕带它还可以跟踪用户的情绪。亚马逊的Halo可穿戴设备可以跟踪人们的身体脂肪比例、睡眠温度和情绪状态。可选的“Tone”功能可以听用户的声音,分析一天中收集的信息,提供用户感受的总结,并显示用户感到高兴、犹豫、精力充沛等时间。

中国国旗图标

在未来两年,多家科技公司计划推出汽车情绪检测系统与汽车制造商合作。新的汽车传感器作为安全功能销售,但该技术可用于监控和收获来自司机的情绪数据。科技公司正在制定业务策略,以录制驾驶员的每一个运动,浏览一眼或情感并销售所产生的数据。

协议的图标

意大利学者发表了一篇论文介绍了一种识别人群情绪的方法从群众演讲和群众活动的声音。人群的声音有助于检测群体性事件期间的情绪内容,可用于识别群体性恐慌或骚乱,并在紧急情况下发出警报。它们还可以帮助自动化视频注释,描述体育赛事、音乐会和其他集会上观众的情绪。

时间表在2025年

快进至2025年

公开报价标记

随着我们开始跟踪客户与员工之间的互动,零售业近年来发生了很大变化……

零售销售助理
巴西

阅读更多

快速
向前

BSR可持续期货实验室

业务影响

随着情感技术变得更加可用的,预期使用的指数增长,触发监管需求。不同的监管环境对技术采用造成挑战。E.U.符合更严格的方法,而美国和亚洲历来过这些应用程序的唯一允许。

情感技术的使用,无论是通过新的还是现有的产品和服务,都将显著扩展收集的数据类型,以及利用数据开发或营销商业产品和服务或为政府计划和干预提供信息的相关机会。

情感计算的早期应用领域包括广告和市场营销,在这些领域中,个人感知到的情感可能会触发某些产品或服务的在线广告,或者可能会引导销售助理推销特定的产品。

这些技术还可用于跟踪零售环境中的客户-员工互动,以进行培训,或识别人群中潜在的暴力行为。用例已经在整个工作场所流行,情感技术可以用来衡量感知到的员工生产力和效率,评估工作候选人,或监控工厂工人的警觉性。

我们也看到这些技术越来越多地用于教育,主要是在学生关注和与课程中携带或帮助儿童认知残疾人识别他人的影响时衡量。

可持续性的影响

情感计算的局限性和潜在误导提出了关于这项技术集成的关键问题。对于可持续发展和人权队伍,有理由担心该技术不准确,这可能导致基于不准确评估的决策时的现实危害。但是,如果技术准确,特别是可以部署以操纵个人的情绪状态和内心意识和感知,也有理由担心理由是担忧,以操纵个人的情绪状态和感知甚至影响他们的行为。

情感技术在公共和私人空间的使用,如果被用来操纵个人的情绪状态、内在意识和感知,甚至影响他们的行为,就会极大地影响人类的尊严和自主权,以及隐私和思想自由等其他权利。

随着企业开始探索情感技术,企业可持续性和人权团队应该采取措施,评估技术的影响和潜在影响。此外,他们还需要为自己的开发、集成、部署和使用制定策略。

公开报价标记

情感计算有望有力地协调商品和服务,但也充满了人权和道德风险。如果不准确,可能会导致在教育和工作场所等高风险领域做出错误决定。如果准确的话,它可能会被用来在未经个人同意的情况下操纵个人。为了实现其潜力,情感计算将需要在一个有远见和基于人权的道德框架内部署。

邓斯坦Allison-Hope, BSR副总裁

引号的马克

由于这些技术可用于扫描人们在公共场所,同意的问题也将成为这些团队的前沿和中心,因为在这种背景下的“知情同意”可能意味着更大的问题。存储本信息也是一个可以放大的隐私考虑的问题。

此外,学术界和开发人员已经开始对情感技术的伦理和人类影响提出警告。首先,这些技术在准确评估个人表达的情感方面还远远不够可靠。无论是在个人层面还是在不同的文化中,人们表达情感的方式都存在显著差异,因此这些技术往往有很高的错误率。

对于人口的某些部分,例如颜色或女性的人,错误率甚至更高。除了在如何以及何地使用技术的歧视性实践之外,这可能导致歧视技术(例如,能够识别白人的情绪,而不是黑人的产品)。

这些考虑因素和潜在的危害必须在早期的可持续发展和人权队伍中涉及与股权和包容有关的内部利益相关者合作,以及负责开发或采购这些类型技术的个人。

除了潜在的歧视,这些技术通常在它们能检测到的影响上是有限的——大多数声称它们能识别大约六到七种情绪,而许多不能同时检测到一种以上的情绪。由于这些局限性,当基于不准确的评估做出决定时,情感技术可能会造成现实世界的伤害,尤其是在招聘和教育等高风险领域。在这些和其他高风险环境中使用情感技术的公司必须进行尽职调查,以识别和解决这些危害。

箭头指向右边

之前的问题:
对赔款的商业清算

箭头指向左边

下一个问题:
一个氢燃料的未来

成为第一个了解可能影响企业未来的新兴问题的人

报名接收快速向前发展每个季度。

订阅

Baidu