为什么你应该担心硅谷想要读懂你的想法 图像流/ Shutterstock

几乎不满足于监控 你在网上做的一切,Facebook现在也想读懂你的想法。 这家社交媒体巨头最近宣布 突破 在计划中创建一个能够读取人们脑波的设备,让他们只是通过思考来输入。 而埃隆马斯克想要走得更远。 特斯拉老板的其他公司之一,Neuralink,是 开发脑植入物 将人们的思想直接联系到计算机。

马斯克承认他 获得灵感 来自科幻小说,他想确保人类可以 “跟上”人工智能。 他似乎错过了科幻片的一部分,作为对技术影响的警告。

这些思维阅读系统可能会影响我们的隐私,安全,身份,平等和人身安全。 我们是否真的希望所有这些都留给那些拥有Facebook前口头禅等哲学的公司,“快速行动,打破局面“?

虽然它们听起来很具有未来感,但制造脑波读取设备所需的技术与世界各地医院使用的标准MRI(磁共振成像)和脑电图(脑电图)神经科学工具并没有什么不同。 你已经可以买一个套件来控制无人机 用你的想法因此,在某些方面,使用一个输入单词并不是一个很大的飞跃。 这种进步可能是由于使用机器学习来筛选从我们的大脑收集的大量数据,并找到将思想与特定单词联系起来的神经元活动模式。

大脑植入可能需要更长的时间来开发,并且将实际分离出来是很重要的 Neuralink的成就 来自媒体宣传和推广。 但是,Neuralink同时改进了电极材料和机器人辅助手术以植入它们,整齐地包装技术,以便通过USB读取。


内在自我订阅图形


{vembed Y=kPGa_FuGPIC}

Facebook和Neuralink的计划可能建立在既定的医疗实践基础之上。 但是,当公司直接从我们的大脑收集思想时,道德问题就大不相同了。

任何可以直接从我们的大脑收集数据的系统都有明显的隐私风险。 隐私是关于同意。 但是,如果有人直接利用我们的想法,那么很难给予适当的同意。 硅谷公司(和政府)已经 偷偷摸摸地聚集起来 尽可能多的关于我们的数据并以我们的方式使用它 相反,他们没有。 我们有多确定我们的随机和个人想法不会被捕获并与我们想要提供技术的指示一起研究?

歧视和操纵

数据收集存在的道德问题之一 是歧视 基于可从数据中辨别的性别或种族等属性。 为人们的思想提供一个窗口可以更容易地确定可能构成偏见基础的其他事物,例如性行为或政治意识形态,甚至可能包括自闭症之类的不同思维方式。

通过直接接入大脑的系统,您的思想不仅可能被盗,而且也可能被操纵。 已经开发出脑刺激来帮助 治疗创伤后应激障碍减少暴力。 甚至有耸人听闻的说法,它可以用来 直接上传知识 就像电影“黑客帝国”一样。

可预测的步骤是将“入”和“出”技术结合起来用于双向脑机接口。 政府使我们更加合规的可能性,雇主迫使我们更加努力工作,或者公司让我们想要更多他们的产品,这突显了我们应该多么认真地采用这种技术。

为什么你应该担心硅谷想要读懂你的想法 Facebook的原型脑波读取设备。 Facebook

如果精神阅读设备成为与计算机交互的正常方式,我们可能最终别无选择,只能使用它们以便跟上更高效的同事。 (想象一下,今天有人申请办公室工作,但拒绝使用电子邮件。)如果神经链接式植入物成为常态,这也可能导致更大的不平等,这取决于您可以安装的套件水平。

伊隆麝香 已经说 支持Neuralink手术所需的巨额贷款将被“增强”的潜在收入所抵消。 人们感到有压力要承担巨额债务而只是为了保住工作而进行手术的想法直接来自科幻反乌托邦。

最重要的是,系统物理侵入我们的大脑会带来更直接的物理威胁。 虽然有些人可能想用计算机界面修改他们的大脑(已经有很多人 实验生物黑客),要大规模推广这将需要大规模和彻底的测试。

考虑到硅谷打破事物而不是停下来思考它们的声誉(和倾向),这些系统甚至需要密切监管和道德审查 在测试开始之前。 否则就有可能造成残缺的人类豚鼠。

尽管如此,在这一领域继续研究可能会有巨大的优势,特别是那些患有瘫痪或感觉障碍的人。 但硅谷不应该决定这些技术的开发和部署方式。 如果他们这样做,它可能会彻底重塑我们认定为人类的方式。谈话

关于作者

加菲尔德本杰明,媒体艺术与技术学院博士后研究员, 索伦特大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.