新的数字鸿沟介于选择退出算法的人和不退出算法的人之间 你知道分享你的数据会发生什么吗? mtkang / shutterstock.com

生活的每个方面都可以通过人工智能算法来指导 - 从选择早上通勤的路线,决定约会对象,到复杂的法律和司法事务,如预测性警务。

谷歌和Facebook等大型科技公司使用人工智能来获取他们庞大的详细客户数据的洞察力。 这样,他们就可以通过微型定位等实践将用户的集体偏好货币化,广告客户使用这种策略来针对特定的用户群。

与此同时,许多人现在比他们自己的政府和公民社会更信任平台和算法。 10月2018研究表明,人们证明“算法鉴赏,“当他们认为建议来自算法而不是来自人类时,他们会更多地依赖建议。

过去,技术专家一直担心 “数字划分” 在那些可以访问计算机和互联网的人和那些不能访问计算机的人之间 数字技术获取较少的家庭在能力方面处于劣势 赚钱并积累技能.


内在自我订阅图形


但是,随着数字设备的激增,分歧不仅仅是关于访问。 人们如何处理信息过载以及渗透到生活各个方面的过多算法决策?

更精明的用户正在远离设备,并开始意识到算法如何影响他们的生活。 同时,信息较少的消费者更依赖算法来指导他们的决策。

你应该保持联系 - 还是拔掉插头? 此Pryzmat / shutterstock.com

人工智能背后的秘诀

在我看来,作为研究信息系统的人,新的数字鸿沟的主要原因是 很少有人了解算法的工作原理。 对于大多数用户来说,算法被视为黑盒子。

AI算法接收数据,使它们适合数学模型并进行预测,范围从 你可能喜欢哪些歌曲有多少年人应该在监狱度过。 这些模型是根据过去的数据和以前模型的成功开发和调整的。 大多数人 - 有时甚至是算法设计者本身 - 并不真正知道模型内部的内容。

研究人员 长期以来一直担心 关于算法公平性。 例如,亚马逊基于人工智能的招聘工具证明了这一点 解雇女性候选人。 亚马逊的系统是有选择地提取的 含蓄的性别词 - 男性更有可能在日常言语中使用的词语,例如“已执行”和“被捕获”。

其他研究 已经表明,司法算法具有种族偏见,判处可怜的黑人被告的时间比其他人长。

作为最近批准的欧盟通用数据保护条例的一部分,人们有 “解释权” 算法在决策中使用的标准。 该立法将算法决策过程视为食谱书。 我们的想法是,如果您了解配方,您就可以了解算法如何影响您的生活。

与此同时,一些人工智能研究人员已经推动了算法 公平,负责和透明以及 解释,这意味着他们应该通过人类可以理解和信任的过程来达成他们的决定。

透明度会有什么影响? 在 一项研究中,学生通过算法评分,并提供不同级别的解释,说明他们的同伴的分数如何调整到达到最终成绩。 具有更透明解释的学生实际上更少信任该算法。 这再次暗示了数字鸿沟:算法意识不会导致对系统更有信心。

但透明度不是灵丹妙药。 即使算法的整个过程被勾勒出来, 细节可能仍然太复杂 供用户理解。 透明度将仅帮助那些足够精通的用户掌握算法的复杂性。

例如,在2014中,美联储前主席本•伯南克最初是 否决了自动化系统的抵押贷款再融资。 大多数申请抵押贷款再融资的人都不会理解算法如何决定他们的信誉。

该算法今天要做什么? Maria Savenko / shutterstock.com

选择退出新的信息生态系统

虽然算法会影响人们的生活,但只有极少数参与者能够完全参与其中 算法如何影响他们的生活.

关于算法识别的人数的统计数据并不多。 研究发现了证据 算法焦虑,导致部署算法和平台的平台之间的权力严重失衡 依赖它们的用户.

Facebook使用情况研究 发现当参与者了解Facebook的策划新闻提要时,大约有83%的参与者修改了他们的行为以试图利用该算法,而大约10%则减少了他们对Facebook的使用。

皮尤研究中心11月2018报告 发现大多数公众对特定用途的算法使用存在重大担忧。 它发现66%认为算法计算个人财务分数是不公平的,而57%对自动化简历筛选也是如此。

一小部分人对算法如何使用其个人数据进行了一些控制。 例如,Hu-Manity平台允许用户 一个选项,用于控制收集的数据量。 在线百科全书 Everipedia 为用户提供了在策展过程中成为利益相关者的能力,这意味着用户还可以控制如何聚合和呈现信息。

但是,绝大多数平台都没有为最终用户提供这样的灵活性,也没有选择算法如何使用他们的偏好来策划他们的新闻提要或推荐他们的内容。 如果有选项,用户可能不知道它们。 关于74%的Facebook用户在调查中表示他们是 不知道平台如何表征他们的个人兴趣.

在我看来,新的数字素养不是使用计算机或在互联网上,而是理解和评估永远插入式生活方式的后果。

这种生活方式对其产生了重大影响 人们如何与他人互动; 他们的能力 注意新的信息; 并且 他们决策过程的复杂性.

增加算法焦虑也可以通过经济的平行变化来反映。 一小群人 从自动化中获取收益虽然很多工人都在 不稳定的位置.

退出算法策略是一种奢侈 - 有朝一日可能只是少数人可以获得富裕的象征。 那么问题就是数字鸿沟的错误方面的可衡量的危害是什么。

关于作者

Anjana Susarla,信息系统副教授, 密歇根州立大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.

相关书籍

at InnerSelf 市场和亚马逊