这是时代的光芒一盏灯的算法,电力大哥

按算法排序使我们在框中。 我们怎么知道他们是正确的? 生成,CC BY按算法排序使我们在框中。 我们怎么知道他们是正确的? 生成,CC BY

社会似乎已经设定了一个课程,让我们的生活受到计算机算法的审查。 无论是政府为了国家安全还是为了公司盈利,我们所生成的数据都是经过仔细分析的,而且这种情况不太可能发生改变 - 一旦发现数据分析的力量和吸引力将不会轻易放弃。

但事实上,我不知道我是否更关心我们的数据是被收集的,还是因为我们对判断我们的算法一无所知。

关于我们的生活和习惯的详细程度,可以从我们留下的数据中挑出来,之前已经讨论过了,而且正在争论英国草案的一部分 调查权力法案。 我们至少知道收集哪些数据和存储多长时间,其中一些数据受英国和欧洲法律管辖。

草案的文本例如,我们知道英国政府将“只”要求(无根据的)访问通信元数据,电子邮件的标题和主题以及电话记录。 但是我们也知道,元数据本身是如何显示的:看看这个 麻省理工学院媒体实验室的浸入式项目 这是一个很好的例子,可以从中确定多少细节。 当然 不是在所有可比的逐项手机话费如所声称的那样。

因此,无论好坏,我们公众对于记录什么都有一些线索。 但是我们完全不知道什么样的分析工具和技术被应用到这个数据上,而且这个数据的重要性也不容小觑。

什么仰慕数字?

我们可以做出有根据的猜测。 国家安全机构可能使用我们的元数据来创建人与地点之间的社交网络等等,将我们联系在一起。 这些关系网络将进行分析,以确定我们是否是一个感兴趣的人,由您如何与其他感兴趣的人进行比较,以及如何连接到感兴趣的现有人或与他们有关的人。

使用这些技术的研究人员了解他们的局限性,并且使用这些技术的算法可能包含对输出产生深远影响的错误或潜在假设。 在这种情况下,这可能意味着你是否被标记为恐怖分子,或者你是否有资格获得贷款或抵押。


从InnerSelf获取最新信息


在模糊的边界地区,关系的存在是如何定义的,也不是很清楚。 简单地访问同一个网站作为恐怖分子意味着共同的价值,或者每天乘坐相同的公共汽车路线,建议你经常与恐怖分子交谈? 出于许多合法的原因,很有可能访问已知恐怖分子经常光顾的网站。 如果你从恐怖分子的网站上得到你的消息,你是否更有可能成为恐怖分子? 歧视和偏见 可以在数据收集的时候引入,然后再决定如何分析这些数据。 算法也可以区分。

模糊的边界

算法引入不良偏见的可能性是非常真实的。 例如,安全部门使用的是已知的恐怖分子和已知的非恐怖分子的数据集。 这是否意味着, 因为大多数已知的恐怖分子是年龄在20-30的男性,不管你的其他属性如何,你更可能被归类为仅仅是男性和大约20-30的恐怖分子。 如果是这样,这是否对数据的使用有重大影响?

这个问题源于我和其他使用复杂网络分析,机器学习,模式匹配或人工智能技术的学术研究人员使用这些技术进行公开同行评审,以确定技术的强度和结论的有效性; 政府安全部门和私营部门组织不这样做。 我们不知道他们的方法的质量和他们如何部署他们。 有针对这个的解决方法吗?

那些来自另一个安全领域,密码学领域的学者早已知道,提高算法的质量和安全性的最好方法就是让它们公开。 加密实现和密码被公开,研究人员鼓励尝试发现错误或缺陷,从而提高所有使用它们的人的安全性。 另外,一般来说,封闭源代码(非公开的)密码算法的任何实现 持怀疑态度。 如果他们要对我们发表改变生活的判断 - 无论我们被标记为恐怖分子还是经济上不值钱 - 同样的模式应该适用于安全算法。

反对这一举措的一个论点是,开放和透明的算法可能会导致恐怖分子修改他们的现实行为,以避免被发现。 这将意味着改变他们的互动,协会,浏览习惯和潜在的运动。 但是,如果这些算法运作正常,就意味着它们基本上不会像恐怖分子那样行事。 如果我们未来的安全,自由和安全将依赖于这些算法,我们必须确切地确定它们是如何工作的。

关于作者谈话

约克大学讲师Philip Garnett。

这篇文章最初发表于 谈话。 阅读 原创文章.

相关图书:

{amazonWS:searchindex =丛书;关键字= 0393244814;的maxResults = 1}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

按照InnerSelf

Facebook的图标Twitter的图标RSS图标

通过电子邮件获取最新的

{emailcloak = OFF}