信任人工智能 7 20
 人工智能聊天机器人正变得越来越强大,但您如何知道它们是否符合您的最佳利益? 

如果你问亚马逊的语音助手AI系统Alexa,亚马逊是否垄断,它的回答是: 说不知道。 不需要太多就能做到 痛斥其他科技巨头,但它对其母公司的不当行为却保持沉默。

当 Alexa 以这种方式回应时,很明显它将开发者的利益置于您的利益之上。 但通常情况下,人工智能系统为谁服务并不那么明显。 为了避免被这些系统利用,人们需要学会以怀疑的态度对待人工智能。 这意味着有意构建您提供的输入并批判性地思考其输出。

新一代人工智能模型的反应更加复杂、死记硬背,使得在说话时很难判断谁受益。 互联网公司操纵你所看到的东西来服务自己的利益并不是什么新鲜事。 Google 的搜索结果和您的 Facebook feed 是 充满了付费条目. Facebook, TikTok 其他人会操纵您的信息流,以最大化您在平台上花费的时间,这意味着更多的广告浏览量,而不是您的福祉。

人工智能系统与其他互联网服务的区别在于它们的交互性,以及这些交互将如何越来越像关系。 不需要从当今的技术中进行太多推断,就可以想象人工智能将为你计划旅行、代表你进行谈判或充当治疗师和生活教练。


内在自我订阅图形


他们很可能 24/7 与您在一起,非常了解您,并且能够预测您的需求。 这种与网络上庞大的服务和资源网络的对话接口属于现有的生成式人工智能(如 ChatGPT)的能力范围。 他们有望成为 个性化数字助理.

RedFern 安全专家数据科学家,我们相信,依赖这些人工智能的人们必须完全信任它们来驾驭日常生活。 这意味着他们需要确保人工智能不会秘密为其他人工作。 在互联网上,看似对您有用的设备和服务实际上却对您不利。 智能电视 监视你。 电话应用程序 收集和出售您的数据。 许多应用程序和网站 通过黑暗模式操纵你, 设计元素 故意误导、胁迫或欺骗网站访问者。 这是 监督资本主义,人工智能正在成为其中的一部分。 人工智能正在监视资本主义中发挥作用,归根结底就是监视你以从你身上赚钱。

在黑暗中

人工智能的情况很可能会更糟。 为了让人工智能数字助理真正有用,它必须真正了解你。 比你的手机更了解你。 比谷歌搜索更了解你。 也许,比你的亲密朋友、亲密伴侣和治疗师更了解你。

您没有理由相信当今领先的生成人工智能工具。 撇开 幻觉,GPT 和其他大型语言模型产生的虚构“事实”。 我们预计,随着未来几年技术的进步,这些问题将得到很大程度的清理。

但你不知道人工智能是如何配置的:它们是如何被训练的,它们被给予了什么信息,以及它们被命令遵循什么指令。 例如,研究人员 揭开了秘密规则 管理 Microsoft Bing 聊天机器人的行为。 它们基本上是良性的,但随时可能发生变化。

赚钱

其中许多人工智能是由一些最大的科技垄断企业斥巨资创建和训练的。 它们免费或以非常低的成本提供给人们使用。 这些公司需要以某种方式将其货币化。 而且,与互联网的其他部分一样,这在某种程度上可能包括监视和操纵。

想象一下让你的聊天机器人计划你的下一个假期。 它选择某家特定的航空公司、连锁酒店或餐厅是因为它最适合您,还是因为它的制造商从企业那里获得了回扣? 与谷歌搜索中的付费结果、Facebook 上的新闻源广告以及亚马逊查询中的付费展示位置一样,随着时间的推移,这些付费影响可能会变得更加隐蔽。

如果您向聊天机器人询问政治信息,结果是否会受到拥有聊天机器人的公司的政治影响? 还是付钱最多的候选人? 或者甚至是使用其数据来训练模型的人的人口统计观点? 你的人工智能特工是秘密的双重间谍吗? 目前,还没有办法知道。

依法依规,值得信赖

我们相信人们应该对技术抱有更多期望,科技公司和人工智能可以变得更加值得信赖。 欧盟提议 人工智能法 采取了一些重要步骤,要求用于训练人工智能模型的数据透明、减轻潜在偏差、披露可预见的风险以及报告行业标准测试。 欧盟正在推动人工智能监管。

大多数现有的人工智能 不遵守 伴随着这一新兴的欧洲使命,尽管 最近的刺激 参议院多数党领袖查克·舒默表示,美国在此类监管方面远远落后。

未来的人工智能应该是值得信赖的。 除非政府为人工智能产品提供强有力的消费者保护,否则人们将自行猜测人工智能的潜在风险和偏见,并减轻其对人们使用体验的最坏影响。

因此,当您从人工智能工具获得旅行推荐或政治信息时,请像对待广告牌广告或竞选志愿者一样持怀疑态度。 尽管技术奇特,但人工智能工具可能只不过是一样的。谈话

关于作者

布鲁斯,公共政策兼职讲师, 哈佛肯尼迪学院内森·桑德斯,附属机构,伯克曼克莱因互联网与社会中心, 哈佛大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.