当决策是由机器而不是人类做出时,我们如何确保获得补救?这是BSR和国际企业问责圆桌会议(ICAR)上周在联合国业务和人权论坛上审议的联席会议。

通过大大提高我们的分析能力,人工智能(AI)有可能解决一些人类最紧迫的挑战,包括与医疗保健,教育,交通,反恐和刑事司法有关的挑战。但是,正如我们在新的那样信息和通信技术行业的最高人权优先事项入门在美国,人工智能带来了前所未有的、前所未有的人权风险,涉及非歧视、隐私、儿童权利、言论自由和获得公共服务等多种议题。

例如,使用AI时在法庭上作出量刑决定提供信贷渠道,或确定潜在的恐怖分子会导致歧视性的决定。使用基于语音识别的人工智能设备可以带来对隐私权和儿童权利的影响然而,一些人明确表示担心,在决定社交媒体帖子是否符合服务条款时,机器可能会对言论自由产生负面影响。

《联合国企业和人权指导原则》的第三个支柱规定,应向此类侵权行为的受害者提供获得补救的机会。我们的会议讨论了在人工智能背景下确保获得补救的三个新挑战:

  1. 当违反行为是由机器和算法而不是人类的决策造成时,保证补救
  2. 在有数亿权利持有人和数十亿项决定的情况下,提供可操作性的申诉机制
  3. 通过不同的基于人工智能的产品和服务的交互,当数十家公司,而不是单个企业行为者,与侵犯人权行为联系在一起时,保障获得补救的途径

虽然这些讨论看起来像是假话,但技术发展很快,各行各业的公司都在迅速将人工智能整合到他们的产品、服务和运营中。

微软副总裁兼副总法律顾问Steve Crown提出了以下挑战:了解损害何时发生,确定谁可能有过错,并确定补救措施,使受害者恢复到以前的状态。Crown举了一个例子,一位年轻女性因为零售数据分析而成为广告目标,显示她怀孕了,而她的父亲是通过直接邮件而不是从女儿那里发现这一事实的。在这个案例中,如果发生了侵犯隐私的行为,有什么补救措施是合适的?公司如何阻止这种行为再次发生?

牛津大学(University of Oxford)数据伦理学研究员、艾伦·图灵研究所(the Alan Turing Institute)研究员桑德拉·瓦赫特(Sandra Wachter)提出了“解释权”的概念,该概念可能会在新的《欧洲通用数据保护条例》(European General data Protection Regulation, GDPR)下生效,在机器做出决定的情况下,例如获得信贷或就业机会。

然而,瓦赫特强调了这一点一旦人类参与了这个过程,GDPR中的这项权利就会消失- 即使人类参与作为橡皮戳 - 而且许多公司将反对关于商业机密的决策算法的详细信息。Sandra提出了一种基于的替代“解释权”模型描述导致该决定的事实的反事实(例如收入或教育成就)可以向版权所有者提供有意义的信息,而不需要传达算法的内部逻辑。桑德拉还表示支持成立一个独立监督机构来审查公司并确保问责制。

自由表达和人权顾问Alex Walden谈到了如何部署机器来协助判断互联网用户上传的有争议的内容,比如仇恨言论和恐怖主义内容。考虑到上传的内容数量之多,这些机器尤其有用。但是,虽然机器可以筛选大量内容来识别案例,但只有人类对环境和语言有必要的理解,才能做出最终决定。

贯穿始终的一个主题是,人工智能将在我们的生活中扮演越来越重要的角色,它将被许多行业使用,而不仅仅是科技公司。总的来说,我对《联合国海洋法公约》在人工智能时代的应用得出了三个结论。

首先,重要的是,所有经济部门——如零售、金融服务、能源、医疗保健、交通运输、基础设施和公共部门——都理解人工智能对人权的影响。

其次,我们应该考虑通过右斜视镜头的镜头进行补救措施。AI非常复杂,而世界上只有一个非常少数人知道它是如何工作的。如果AI是为了履行其潜在的潜力,同时减轻了风险,那么民间社会,右士哥和弱势群体必须从渠道中有意义地参与其申请并获得补救措施。从事AI开发的专业社区将从深刻的理解中受益于道德问题和正确的士哥的观点,正如诸如此类的倡议开始发生伙伴关系在人工智能AI现在

最后,有必要评估在人工智能背景下开发的补救措施的获取是否符合《联合国海洋法公约》规定的补救效力标准,如合法、可获取、可预测、公平、透明、权利相容,并基于参与和对话。

这些问题的答案只会随着时间的推移而出现(不幸的是,我们不能只是询问Alexa,Siri或Cortana!),并通过识别使用案例来证明如何获得有效的补救措施。我们期待有机会与所有行业的会员公司合作,进一步探索这些重要的谈话。