一种使用面部识别来识别目标的智能水枪正在帮助突出人工智能(AI)的一些新出现的人权问题——随着新技术在我们的日常生活中越来越普遍,这一领域的研究正在上升。
英国莱斯特德蒙特福特大学计算和社会责任中心主任贝恩德·斯塔赫尔教授说:“现在做人工智能研究人员是非常困难的,不知道这些算法对伦理的影响。
“我们不仅必须更好地了解这些技术能做什么,而且还必须了解它们将如何在社会和整个世界发挥作用。
他领导了一个名为SHERPA的项目,该项目试图解决一些围绕智能信息系统的伦理问题,这些系统使用机器学习、人工智能的一种形式和其他算法来分析大数据集。
智能水枪是为了突出算法中的偏见如何导致歧视和不公平待遇而发明的。 由一位艺术家为SHERPA建造,水枪可以被编程来选择它的目标。
Stahl教授说:“我们的艺术家制造了一个带有人脸识别功能的水枪,这样它只会向女性喷射水,或者可以改变它来识别一个人或某个年龄的人。” 这个想法是让人们思考这种技术能做什么。
虽然向人们喷水似乎是无害的乐趣,但问题是什么都不是。 人工智能已经被用来识别社交媒体上的面孔,回答像Alexa和Siri这样的数字家庭助理的问题,并在消费者在线购物时为他们推荐产品。
它还被用来帮助对罪犯重新犯的风险作出判断,甚至查明可能犯下暴力罪行的人。 保险公司和税务当局正在使用它来帮助侦查欺诈行为,银行已经求助于人工智能来帮助处理贷款申请,甚至在边境检查站对其进行了审判。
在过去的一年里,Stahl教授和他的同事汇编了10个案例研究,在这些案例研究中,他们对这些技术在一些部门的影响进行了实证分析。 其中包括智能城市使用人工智能、保险业、教育、医疗、农业和政府使用人工智能。
Stahl教授说:“有些非常引人注目的事情跨越了各个领域,比如隐私、数据保护和网络安全。 “人工智能还在为工作权利带来新的挑战,如果算法可以占用人们的工作,或者自由选举的权利,如果它可以被用来干涉民主进程,就像我们在剑桥分析中看到的那样。
也许人工智能最有争议的新兴用途之一是预测警务,在那里,算法被训练在历史数据集,以确定罪犯行为和特征的模式。 然后,这可以用来预测未来可能参与罪的地区、团体甚至个人。 类似的技术已经在美国和英国的一些地区进行了试验。
但这些算法也可以学习数据集中已经存在的偏差。 如果警察数据库显示,主要是青年黑人男子因某种罪而被捕,这可能不能公平地反映罪犯的实际情况,而是反映了一支部队的历史种族主义。 使用大赦讲授的这类数据可能会加剧种族主义和其他形式的歧视等问题。
Stahl教授说:“这些算法的透明度也是一个问题。” “这些算法对数据进行统计分类,使人们几乎不可能看到这种情况到底是如何发生的。 这就提出了一些重要的问题,例如,如果法律制度开始依赖不透明的“黑匣子”人工智能算法来告知判刑决定或对某人有罪的判决,它们如何能够保持公平和公正。
该项目的下一步将是研究可用于解决其中一些问题的潜在干预措施。 它将研究哪些指导方针可以帮助确保人工智能研究人员在他们的算法中建立公平性,在那里新的法律可以指导他们的使用,以及监管机构是否可以控制技术的负面方面。
但荷兰特温特大学(University of Twente)研究技术哲学的菲利普?布莱(Philip Brey)教授表示,许多政府和监管机构面临的问题之一是,像人工智能这样的新技术的快速变化。
他说:“今天的大多数人都不了解这项技术,因为它非常复杂、不透明和快速移动。 “因此,很难预测和评估对社会的影响,并对此采取适当的监管和立法对策。 政策通常大大落后“。
布莱教授是SIENNA项目的协调员,该项目正在为一系列新兴技术制定建议和行为守则,包括人类基因组学、人类增强、人工智能和机器人技术。
Brey教授说:“当然,信息技术已经通过互联网和我们使用的移动设备对隐私产生了重大影响,但人工智能能够将不同类型的信息结合起来,并以一种从根本上揭示人们的新信息和洞察力的方式挖掘它们。 “它可以非常迅速和有效地做到这一点。
人工智能技术正在为实时分析人们的行为、情绪以及推断关于他们的心理状态或意图的细节的能力打开大门。
“这是以前不可能的,”布雷教授说。 “那么,你对这些信息的处理引起了对隐私的新的关注。”
国家统计所小组正在举办讲习班、与专家进行协商和进行民意调查,以查明11个国家公民的关切。 他们现在正准备拟订一套建议,使那些与人工智能和其他技术合作的人能够在设计阶段成为确保道德和人权考虑的标准。
Stahl教授说,公众对这项技术可能如何影响他们的这种更广泛的理解可能对人工智能的长期生存至关重要。
他说:“如果我们没有正确的道德规范,那么人们就会拒绝使用它,这将摧毁任何技术进步。”