4让您的Google搜索和社交媒体在生活中影响您的机会
存在Shutterstock。

无论你是否意识到或同意它,大数据都会影响你,以及你如何过你的生活。 我们在使用社交媒体时创建的数据, 浏览互联网 并且穿着健身追踪器都被收集,分类和使用 由企业国家 创建我们的个人资料。 然后使用这些配置文件将产品和服务的广告定位到最有可能购买的产品和服务的广告,或者通知政府的决定。

大数据使各州和各公司能够访问,合并和分析我们的信息并建立显示 - 但是 不完整 并可能 不准确 - 我们生活的简介。 他们通过识别关于我们的数据和与我们具有相似概况的人员的相关性和模式来做到这一点,以便对我们可能做的事情做出预测。

但仅仅因为大数据分析基于算法和统计数据,并不意味着它们是 准确,中立或内在客观。 虽然大数据可能提供有关团体行为的见解,但这些并不一定是确定个人行为的可靠方法。 其实这些方法可以 打开歧视的大门威胁人民的人权 - 他们甚至可能对你起作用。 以下是大数据分析可能导致不公正的四个例子。

1。 计算信用评分

大数据可以用来做出决定 信贷资格,影响你是否被授予抵押贷款,或者你有多高 汽车保险 保费应该是。 这些决定可能会由您的通知 社交媒体帖子 以及来自其他应用的数据,这些数据用于指示您的风险或可靠性水平。

但是,您的教育背景或居住地点等数据可能与此类评估无关或不可靠。 这种数据可以作为种族或社会经济地位的代理,并用它来做出有关信用风险的决策可能会导致歧视。


内在自我订阅图形


2。 工作搜索

大数据可以用来确定 谁看到了招聘广告或入围了面试。 招聘广告可以针对特定年龄段, 如25到36岁的孩子,其中不包括年轻和年长的工人甚至看不到某些工作岗位,并存在年龄歧视的风险。

自动化还用于对候选人进行过滤,排序和排序,从而提高效率。 但是这种筛选过程可能会在诸如此类指标的基础上排除人员 他们的通勤距离。 雇主可能会认为那些通勤时间较长的人不太可能长期留在工作岗位上,但由于经济适用房的位置,这实际上可能会歧视居住在市中心以外的人。

3。 假释和保释决定

在美国和英国,大数据风险评估模型被用来帮助官员决定人们是否被授予 假释或保释,或提到 康复计划。 它们也可以用来评估罪犯对社会的风险程度,这是法官在判定句子长度时可能考虑的一个因素。

目前尚不清楚使用哪些数据来帮助进行这些评估,但是正在朝着这一目标迈进 数字治安 收集的步伐,这些程序越来越可能将纳入开源信息,如 社交中间活动 - 如果他们还没有。

这些评估可能不只是看一个人的个人资料,而且也可能是他们与其他人的比较。 一些警察部队已经 历史上过度监管 某些少数族裔社区导致报告的犯罪事件数量不成比例。 如果将这些数据输入到算法中,将会扭曲风险评估模型并导致直接影响的歧视 一个人的自由权利.

4。 审批签证申请

去年,美国移民和海关执法局(ICE)宣布,它希望引入一种自动化的“极端签证审查“计划。 它会自动不断地扫描社交媒体帐户,评估申请人是否会对美国做出“积极贡献”,以及是否会出现任何国家安全问题。

除了给思想,意见,表达和结社自由带来风险之外,这个计划还有很大的风险会歧视某些民族或宗教的人。 评论员 将其定性为“算法中的穆斯林禁令”。

该方案 最近被撤回据报道,“没有可以提供机构想要的监控质量的'即装即用'软件”。 但是,在采购文件中包含这些目标可能会对技术行业制定不利的激励措施,以制定具有歧视性的设计方案。

谈话毫无疑问,大数据分析的方式会影响个人的生活机会。 但是 缺乏透明度 关于如何收集,使用和共享大数据,人们很难知道使用哪些信息,如何以及何时使用。 大数据分析对个人来说太复杂了,无法保护他们的数据免遭不适当的使用。 相反,国家和公司必须制定并遵守相关规定,以确保他们使用大数据不会导致歧视。

作者简介

Lorna McGregor,PI人权中心主任,ESRC人权,大数据和技术联合主管大额赠款, 埃塞克斯大学; 埃塞克斯法学院国际人权法讲师Daragh Murray, 埃塞克斯大学,人权高级研究员Vivian Ng, 埃塞克斯大学

这篇文章最初发表于 谈话。 阅读 原创文章.

这些书

关于作者

at

打破

感谢造访 InnerSelf.com, 哪里有 20,000+ 宣传“新态度和新可能性”的改变生活的文章。 所有文章均翻译为 30多种语言. 订阅 每周出版的《内在自我》杂志和玛丽·T·拉塞尔的《每日灵感》。 InnerSelf杂志 自 1985 年起出版。