人工智能现在可以读懂情绪了 但它应该这样做吗

导读 研究人工智能对社会影响的跨学科研究中心AI Now Institute在其年度报告中呼吁禁止在某些情况下识别人们情绪的技术。研究人员特别指出,情感识别技术(affect recognition technolo

研究人工智能对社会影响的跨学科研究中心AI Now Institute在其年度报告中呼吁禁止在某些情况下识别人们情绪的技术。研究人员特别指出,情感识别技术(affect recognition technology,也称情感识别技术)不应该用于“影响人们生活和获得机会”的决策,比如招聘决策或疼痛评估,因为它不够准确,可能会导致有偏见的决策。

这是什么技术,已经在使用和销售,为什么它引起关注?

面部识别的结果

至少十年来,研究人员一直在积极研究可以确定人类情感和意图的计算机视觉算法,以及其他推论。面部表情分析至少从2003年就开始了。电脑理解情感的时间甚至更长。这项最新的技术依赖于被称为“机器学习”的以数据为中心的技术,这种算法通过处理数据来“学习”如何决策,从而实现更精确的影响识别。

解读情感的挑战

研究人员总是希望在前人的基础上做新的事情。情感识别是诱人的,因为,不知何故,作为人类,我们甚至可以在很小的时候就相对较好地完成这一任务,然而,利用计算机视觉来复制人类的技能仍然具有挑战性。虽然可以用图片做一些很了不起的事情,比如使风格化照片让它看起来就好像它是由一个著名的艺术家,甚至创建写实的面孔——更不用说创建所谓的deepfakes——推断的能力属性等人类情感的真实形象一直感兴趣的研究人员。

情绪是困难的,因为它们往往取决于环境。例如,当一个人专注于某件事的时候,他们可能看起来只是在思考。使用机器学习进行面部识别已经取得了很大的进展,但是仅仅通过观察一个人的面部来识别一个人的情绪状态是缺少关键信息的。情绪不仅通过一个人的表情来表达,还通过他们在哪里、在做什么来表达。即使是现代的机器学习算法也很难提供这些上下文线索。为了解决这一问题,人们正在积极努力增强人工智能技术来考虑情境,不仅是情感识别,而且是各种应用。

阅读员工情绪

人工智能发布的这份报告揭示了人工智能应用于劳动力的一些方式,以评估工人的生产力,甚至早在面试阶段。分析面试视频,尤其是远程求职者的面试,已经开始了。如果管理者能从面试到评估中了解下属的情绪,那么有关加薪、升职或任务等其他雇佣事宜的决策可能最终会受到这些信息的影响。但是还有很多其他的方法可以使用这项技术。

为什么担心

这些类型的系统几乎总是有公平、问责制、透明度和伦理(“命运”)缺陷,这些缺陷融入了它们的模式匹配中。例如,一项研究发现,面部识别算法认为黑人的脸比白人的脸更愤怒,即使他们在微笑。

许多研究小组正在解决这个问题,但在这一点上似乎很清楚,这个问题不能只在技术层面上解决。有关人工智能命运的问题将需要那些使用该技术的人持续和协调一致的努力,以意识到这些问题并解决它们。正如《人工智能报告》所强调的:“尽管人工智能伦理内容有所增加……但伦理原则和声明很少关注如何实施人工智能伦理,以及它们是否有效。”报告指出,此类人工智能伦理声明在很大程度上忽视了如何、在何处、以及由谁来实施这些准则的问题。在现实中,很可能每个人都必须意识到这些系统存在的偏见和弱点,就像我们必须意识到自己的偏见和他人的偏见一样。

地毯式技术的问题被禁止

更准确和更容易的持续监控带来了道德之外的其他问题。此外,还有大量与技术相关的隐私问题,从充当警方信息源的摄像头数量激增,到可能使敏感数据匿名化。

考虑到这些伦理和隐私问题,人们自然会呼吁禁止这些技术。当然,如果人工智能系统存在学习偏见或不可靠,那么将其应用于工作面试结果或刑事判决程序似乎是危险的。然而,它也有一些有用的应用,例如帮助识别警告信号以防止青少年自杀和检测醉酒司机。这就是为什么即使是忧心忡忡的研究人员、监管机构和公民一般也不会呼吁全面禁止与人工智能相关的技术。

结合人工智能和人类的判断

最终,技术设计师和整个社会都需要仔细研究来自人工智能系统的信息是如何被注入决策过程的。这些系统可以给出不正确的结果,就像任何其他形式的智能一样。众所周知,他们也不善于评估自己的信心,甚至在一些简单的任务中,比如识别物体的能力,他们也不像人类。在解读情绪方面也存在重大的技术挑战,尤其是考虑情境来推断情绪。

如果人们依赖于一个决策不准确的系统,那么这个系统的用户的情况就会更糟。众所周知,人们往往比其他权威人士更信任这些系统。因此,作为一个社会,我们需要在设计和应用的过程中仔细考虑这些系统的公平性、可靠性、透明性和伦理性,始终让人作为最终的决策者。