大科技如何设计自己的道德规范,以避免审查和问责

数据伦理现在是célèbre的原因。

“数字伦理与隐私”被研究和咨询公司Gartner抨击 2019的十大战略技术趋势。 在此之前它几乎没有提到。

在过去的一年里 政府, 公司政策和技术 智库发表了 数据伦理 指南。 一整套专家数据伦理学家已经神奇地实现了。

为什么这种对数据伦理的突然兴趣? 什么是数据道德? 旨在服务的准则是谁的利益?

要了解正在发生的事情,有必要退后一步,看看信息环境是如何展开的。

出现的图景是行业免受适用于其他人的监管限制。


内在自我订阅图形


光芒已经消失了

过去几年,信息产业已经失去光彩。

斯诺登启示是, 剑桥分析公司丑闻,社交媒体的启用 仇恨言论是, 信息武器化及其在破坏民主体制中的作用 都做出了贡献。

将个人信息货币化以销售广告的商业模式现在被视为一种消极的讨价还价 - 毕竟,牺牲是不值得的。 从2017到2018,有一个 在利润丰厚的6-12岁市场中,美国Facebook用户的34%下降.

这些担忧导致了对监管的呼吁。 但是,这些已经在努力争取技术领域普遍存在的监管正统观念。 这可以追溯到Al Gore的 五个原则 为了实现当时古怪的“全球信息高速公路”。

原则三是监管政策将“创建一个灵活的监管框架,以跟上快速的技术和市场变化”。 这是没有监管或自我监管的代码。 在澳大利亚,它被称为 “轻触”规则.

大技术行为受到监管有罪不罚现象,基本上摆脱了“旧”经济的普遍关注,如消费者保护或产品责任或竞争法,或特别是信息隐私。

盘旋更近

欧洲从未完全采用这种自由放任的方式。 信息隐私一直是其议程上的重点,最终达到了2018通用数据保护法规(《通用数据保护条例》(GDPR))。 这为欧盟的个人提供了世界上最全面的数据保护权。 这些权利具有域外范围,涉及监管监督和雇用 令人眼花缭乱的民事罚款。 其他司法管辖区也开始效仿。

与此同时,其他学科的监管机构也开始圈行。 反垄断监管机构正在重新审视信息垄断和大科技利用市场力量来限制竞争。

在澳大利亚,ACCC呼吁提供支持 新的监管机构 监控和研究算法对新闻和新闻内容排名的影响。

英国传播专业委员会关于数字世界监管的报告已经发布 推荐新的数字权威机构 监督数字环境的“分散”监管,围绕十项监管原则,并指出“在线平台的精灵监管明显失败”。 人权监管机构正在研究算法在创造和加强歧视方面的作用。

数据意味着金钱

大科技不想受到监管。 它不希望其无限制的收集个人信息的能力受到限制,或者GDPR型保护成为全球规范。 个人信息是算法的原始资料,使其能够将我们的注意力集中在一起。

对于一个以“破坏性”为傲的行业,大科技最大的担忧是阻止紧缩的监管环境,以避免自身受到干扰。 数据伦理是它为打击监管而开发的手段之一。 它通过挪用与道德相关的美德,但通过清空内容或后果来实现这一点。

采取 Google的AI原则。 (AI是人工智能)。 这些是:

  • 对社会有益
  • 避免制造或加强不公平的偏见
  • 建造并测试安全性
  • 对人民负责
  • 融入隐私设计原则
  • 坚持高标准的科学卓越
  • 可用于符合这些原则的用途。

这些“原则”与Instagram上发表的感觉良好的同性恋惊人地相似,它们促使我们“互相帮助”或不“让太阳降低我们的愤怒”,并且同样有用。

真的吗? 屏幕截图拍摄于3月28 2019

进行测试

让我们测试一下Google的原则,“对人们负责”。

这里有几层含糊不清的地方。 这是否意味着Google的AI算法应该对一般的“人”,Google的“人”或其他人的“人”(如独立监管机构)负责?

如果是后者,谷歌会提供算法进行分析,纠正任何错误,并为造成的任何伤害支付赔偿金吗?

如果谷歌的人工智能算法错误地认定我是恐怖分子,然后将这些信息传递给使用这些信息逮捕我的国家安全机构,请我单独监禁并审问我,谷歌是否应对其疏忽负责或为我的非法监禁做出贡献? 它将如何负责? 如果我对Google的问责制版本不满意,我该向谁申请正义?

有用的道德规范涉及责任

道德规范涉及影响个人如何做出决定以及如何领导生活的道德原则。

道德已被研究和争论永恒。 在西方传统中,道德可追溯到 苏格拉底。 它们包括哲学立场,例如道义论(基于义务)的道德,结果主义,功利主义和存在主义,仅举几例。 不出所料,这些问题都没有对个人在任何特定情况下必须做的事情提出相同的答案。

“应用伦理”旨在将道德原则应用于现实生活中。 有很多例子。

公共部门道德受法律管辖。 对违反这些行为的人有后果,包括纪律措施,终止雇佣关系,有时甚至是刑事处罚。 要成为一名律师,我必须向法庭提供证据证明我是“适当的人”。 要继续练习,我必须遵守“澳大利亚律师行为规则”中规定的详细要求。 如果我违反它们,就会产生后果。

应用伦理学的特点是它们具体,有反馈循环,指导可用,它们嵌入组织和专业文化,有适当的监督,有违反的后果,有独立的执行机制和真正的补救措施。 它们是监管机构的一部分,而不仅仅是“感觉良好”的陈述。

Feelgood,高级数据伦理原则不适合规范大科技。 应用伦理可能会发挥作用,但由于它们是职业或学科特定的,所以不能依靠它来完成所有,甚至大部分繁重的工作。

与大科技有关的危害只能通过适当的监管来解决。谈话

关于作者

David Watts,信息法和政策教授, 拉筹伯大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.

相关书籍:

at InnerSelf 市场和亚马逊