我们已经远远超越了大数据问题只与硅谷科技公司相关的时代。现在,任何收集信息并从事大数据分析的公司,无论是零售商、招聘网站、联网设备制造商还是医疗保健公司,都在收集、存储和分析足够多的数据,以应对大数据收集的积极和消极影响。这些影响可能包括严重的人权问题,由于几乎所有公司都在存储和处理大量数据,因此几乎所有公司最终都会解决这一问题。

为了帮助企业理解大数据和人权,我们收集了我们经常从会员和合作伙伴那里听到的问题的答案。

什么是大数据?

大数据是一种捕捉、聚合和处理不断增长的数据量、速度和多样性的能力。收集、存储和处理的数据类型的多样性和用途是无限的,从消费者的支出和零售习惯,到音乐或书籍的品味,到敏感的患者和医疗保健信息,再到财务信息。

公司如何处理这些数据通常是由算法做出的决定,算法是为解决问题而开发的一套程序或指令。例如,你的网上购物习惯将生成数据,然后由算法处理这些数据,然后确定哪些广告最适合你。

大数据与人权的关系如何?

对隐私和歧视的担忧是大数据收集中出现的两个主要人权问题。在这两个问题中,弱势群体的权利是一个特别重要的问题。我们在公民权利的线下世界取得了进展,我们不想通过自动化歧视和不公平来破坏这一进展。

大数据如何涉及隐私权?

考虑下面的例子,关于客户的隐私2014年白宫大数据报告:随着互联家庭变得越来越普遍,物联网设备(如烟雾探测器和其他环境传感器)将开始收集每个用户家中状况的数据。如果保险公司能够购买这些数据,并确定新客户是吸烟者,因此拒绝为此人投保,该怎么办?智能家电收集这些数据是对用户隐私的侵犯,还是保险公司使用这些数据是对隐私的侵犯?如果不考虑数据收集和共享的影响,这些都是可能产生严重后果的重要问题。

大数据如何影响非歧视权?

一些人断言,算法通过去除人类决策过程,将减少歧视——但算法可以内置歧视性决策。以这个为例关注新美国开放技术研究所(New America 's Open Technology Institute)政策顾问埃里克·纽尔(Eric Null)提出了有关犯罪的大数据可能产生积极或消极影响的问题:

“预测性警务技术既可以用于公益,也可以用于维持不公正。使用种族偏见数据的算法只会使警务中固有的偏见永久化,并导致更多的不公正。我们已经知道,警务数据通常只包含报告的犯罪,这意味着警务将偏向于这些领域.”

在这种情况下,对算法的输入可能基于不能反映总体犯罪趋势的数据。从表面上看,通过算法方程分析数据的过程似乎不会产生歧视性的结果,但算法的好坏取决于它们分析的数据。

公司如何防止使用大数据带来意外的人权后果?

大数据本身并不是问题,但侵犯隐私和歧视性做法等意外后果才是问题。处理大数据的算法在影响影响我们生活的重大决策方面发挥着越来越大的作用,而政府只是现在才这么做开始处理这些系统的正当程序方面在美国,企业需要采取措施,确定和减轻潜在的人权风险。

为此,公司可以采取以下措施:

  1. 确定谁在公司内部使用大数据以及出于什么目的。
  2. 进行人权影响评估,以确定数据的使用方式是否会对人权产生潜在影响。
  3. 联系思想领袖,比如民主和技术中心,以了解关于大数据收集及其对人权的影响的最新担忧。
  4. 如果确定了对人权的影响,与拥有或开发使用大数据的应用程序的员工一起制定行动计划。
  5. 就如何在保持应用程序有用性的同时减轻或消除这些影响提出建议。
  6. 透明并公开公司收集的数据以及用于处理和分析这些数据的机制。

由于两个原因,透明度尤其重要。首先,与业内同行和人权界分享见解和经验教训可以促进积极的人权成果。第二,公众有权知道收集了什么数据以及这些数据是如何处理的,以便评估数据的有效性和得出的结论的公平性。

通过了解你的数据是如何被使用的,以及结果是什么(无论有意与否),公司可以避免潜在的负面人权影响,同时利用大数据的力量来更好地分析和产生结果。遵循上述步骤可以帮助企业利用人权机会,同时避免大数据带来的负面后果。