我们并非一夜之间就把控制权交给了机器。这一切悄然发生,一次次地带来便利。你的电子邮件会自动整理。你的日历会根据你的时间推荐会议。你的银行在你注意到扣款之前就已经标记了欺诈行为。这些感觉像是贴心的升级,而不是权力的转移。但在此过程中,某些东西发生了变化,而我们大多数人却浑然不觉。

在这篇文章中

  • 了解人工智能代理究竟是什么,以及它们与普通软件有何不同
  • 自动化系统中协助和委托之间的关键区别
  • 为什么缺乏智慧的优化会产生可预见的问题
  • 现实世界中合乎伦理的使用案例以及正在出现的滥用行为
  • 在自动化世界中维护机构运营的实用步骤

如今为我们分类、推荐甚至有时替我们做决定的系统,最初都只是简单的助手。垃圾邮件过滤器让我们免受垃圾邮件的侵扰。推荐引擎为我们推荐可能喜欢的书籍。日程安排助手帮我们找到适合所有人的时间。每一项创新都解决了实际问题,每一项都让生活变得更轻松。每一项创新都让我们逐渐习惯于期待技术能够替我们处理越来越复杂的判断。

如今,系统不再仅仅帮助我们做决定——它们会自己做决定并采取行动。它们无需等待批准,也并非总是会解释自身运作方式。它们的运行规模和速度之大,使得人类的监督显得过时,甚至几乎不可能。这一切并非源于我们做出了放弃控制权的重大选择,而是源于我们做出了无数个微小的选择,为了图方便而不去质疑其代价。

这些系统实际做什么

人工智能代理与你从小接触的软件截然不同。传统程序遵循指令,等待输入,按照既定规则处理,然后停止。计算器不会在你离开后继续计算,文字处理器也不会自行开始写作。这些工具只有在被激活后才会运行。它们是仆人,而非行动者。

人工智能体的运行方式截然不同。它们持续观察周围环境,并根据感知结果做出决策。它们采取行动以实现目标,并且无需人类持续的指令即可重复这一循环。其本质特征并非人类意义上的智能,而是主动性。人工智能体并非被动地响应指令,而是主动运作。


内心订阅图形


想想恒温器。老式恒温器需要你在温度变化时手动调节。而智能恒温器会观察你的使用习惯,学习你的偏好,预测你的日程安排,并自动调节供暖和制冷。它会做出决策。虽然是小决策,但毕竟是决策。现在,把这种理念扩展到股票交易、筛选求职申请、内容审核和管理供应链等系统中。原理是一样的,但结果却截然不同。

帮助和替代的区别

自动化领域存在一个道德转折点,而大多数讨论都忽略了这一点。关键在于,你是利用人工智能来辅助判断,还是让人工智能取代你的判断?前者让你承担责任,后者则让你逃脱惩罚。

当医生使用人工智能系统分析医学影像,但仍然审核结果并做出诊断时,这属于增强诊断。该工具能够发现人类可能忽略的模式。医生会将这些发现与患者病史、症状和临床经验相结合。责任划分依然清晰。但是,当保险公司使用算法来批准或拒绝理赔,而人工审核员沦为橡皮图章,很少推翻系统的建议时,一些重要的东西就发生了变化。表面上的人工监督掩盖了算法实际上的权威。

授权让人感觉高效,感觉中立,感觉像是进步。毕竟,既然机器能更快、更稳定地处理决策,人类又何必浪费时间呢?答案是:稳定并不等同于正确,效率也不等同于公正。机器没有切身利益,它们不会因为犯错而失眠。当我们把判断权委托给缺乏判断力的系统时,就造成了责任真空。而这个真空最终会被各种借口填满。“是算法干的。”“是系统标记的。”这些话已经成了逃避责任的挡箭牌。

为什么无休止的优化会让我们失败

人工智能代理是优化器。它们被赋予目标,并会不懈地追求这些目标,而且往往比人类更有效率。这听起来似乎是个优势,但当你仔细观察实际优化的内容时,就会发现问题所在。社交媒体算法优化的是用户参与度,而这在实践中意味着放大愤怒和争议,因为这些内容能吸引用户持续浏览。招聘算法优化的是过去成功招聘的模式,这意味着它们会复制历史偏见。定价算法优化的是收入,这意味着不同的人会为同一产品支付不同的价格,而价格取决于系统认为他们能够接受的价格范围。

问题不在于这些系统本身存在缺陷,而在于它们完全按照设计运行,执行着既定的任务。但它们被赋予的目标并不完整,没有考虑到真相、公平、尊严和长远福祉,因为这些因素难以衡量,更难以量化。因此,系统追求的是最大化那些可衡量的指标——点击量、转化率、效率、利润——而那些真正重要的因素却被视为外部因素。

人类理应权衡背景和价值。我们理应察觉到优化何时会造成损害。但当系统大规模、高速运行时,人类的判断就变得不切实际了。等到我们注意到问题时,算法可能已经做出了上万个决定。可优化的并不总是应该最大化的。这是机器无法理解,而人类却总是忘记的真理。

这些系统是如何被滥用的?

人工智能造成的危害大多并非源于恶意,而是源于不受监管的系统完全按照预设程序运行,其规模和速度之大,放大了每一个缺陷。一个人的不道德行为固然是问题,但一个系统允许单个行为者如同成千上万人一样行事,则构成了一场危机。

规模化却缺乏问责机制的现象比比皆是。操纵社交媒体对话的机器人、虚假评论系统、以及比过滤器拦截速度更快、不断更新的自动垃圾邮件,无一例外。当后果来临时,辩解总是千篇一律:是系统的问题,我只是设定了参数而已。这些借口之所以奏效,是因为问责机制已被刻意掩盖。

委托损害尤其阴险,因为它让机构得以逃避责任,同时仍能行使权力。算法拒绝了你的贷款申请。自动化系统将你的帖子标记为违反社区准则。招聘工具在你简历被人工审核之前就将你筛选掉。当你提出申诉时,你常常被告知维持原判,因为系统公平客观。但公平并不等同于一致性,而当系统基于带有偏见的数据训练或旨在优化错误目标时,客观性就成了一个神话。

最深的风险

真正的危险不在于机器会掌控一切,而在于我们会停止努力去争取。人们会适应周围的系统。当决策感觉自动化且不可避免时,质疑就会消失。当结果的出现没有明显的人为干预时,责任感似乎也会随之消散。我们正在训练自己接受既定的结果,而不是争取正确的事情。

这种模式并不陌生。官僚主义让人们认为规则一成不变,没有例外。平台垄断让人们认为服务条款不容协商。金融自动化让人们认为市场不受人类影响。每一个系统都在削弱人们对个人选择重要性的认知。而人工智能代理由于其运行速度更快、运作方式更不透明,加速了这一进程。

自主性并非与生俱来,而是需要练习或练习才能获得的。你越是依赖系统,就越难坚持自己的判断。你越是毫无质疑地接受算法的结果,就越难想象事情还可以有其他可能。这才是最大的危险:并非被机器控制,而是习惯于不做决定。

你实际上可以做什么

抵制自主权的丧失并不需要惊天动地的举动,而是需要日常的实践。首先要质疑那些隐形的自动化。当系统做出影响你的决定时,要问问它是如何运作的,以及谁负责。在信任自动化结果之前,要问问结果是否合理,系统是否遗漏了什么重要信息。比起那些要求绝对信任的黑箱系统,更倾向于那些能够自我解释的系统。

在关键时刻保持参与。不要因为可以就轻易委托他人做决定。如果某个工具可以帮你撰写邮件、编辑文章或代表你提出建议,请考虑这种便利是否值得你为此与任务本身拉开距离。当你遇到缺乏问责机制的系统时,要要求改进。对算法决策提出质疑。要求人工审核。不要因为系统是自动化的就接受其最终答案。

自主性是一种实践,而非默认设置。每次你质疑自动化结果,都是在运用一种因长期不用而逐渐退化的能力。每次你坚持要求人为责任,都是在抵制算法权威的常态化。这些微小的自觉选择至关重要,因为它们塑造了所有人所处的环境。

我们塑造的工具,还是塑造我们的力量?

人工智能代理是我们设计的工具。这是第一个事实。但一旦部署,它们就会重塑行为和权力。这是第二个事实。两者都是事实,否认这一点是危险的。问题不在于这些系统是否会继续运行。它们会。问题在于,人类是否仍需为以他们名义运行的系统负责。

未来正在当下由无数个关于哪些环节自动化、哪些环节坚持人工判断的小决定构建而成。这些决定并非仅仅是技术性的,它们关乎道德,关乎我们愿意生活在怎样的世界,以及我们愿意保留怎样的自主权。默认路径清晰可见:更多的自动化,更少的监管,更大的便利,更少的责任。这条路之所以轻松,是因为它有利可图、高效便捷,而且似乎势在必行。

但“必然性”不过是我们为了逃避选择的不适感而编造的故事。事实上,每一次部署人工智能代理都是一次选择。每一次接受算法的权威都是一次选择。每一次我们耸耸肩说“系统已经决定了”也是一种选择。而每一个选择都会影响接下来的发展。所以,问题不在于人工智能会做什么,而在于你仍然愿意自己做出哪些决定。这个问题的答案比任何算法都重要。

关于作者

Alex Jordan是InnerSelf.com的特约撰稿人。

推荐书籍

一致性问题:机器学习和人类价值观

深入研究人工智能系统如何学习价值观,以及为什么使这些价值观与人类的繁荣相一致远比大多数人意识到的要复杂得多。

在亚马逊购买

数学的毁灭性武器:大数据如何加剧不平等并威胁民主

本书由一位曾在自己批判的系统中工作过的数学家撰写,深入浅出地探讨了算法如何加剧不平等以及如何在缺乏问责的情况下运作。

在亚马逊购买

自动化加剧不平等:高科技工具如何对穷人进行画像、监管和惩罚

一项强有力的调查,揭露了自动化系统如何针对和惩罚穷人,揭示了公共服务中算法决策所造成的人力成本。

在亚马逊购买

文章概要

人工智能代理代表着一种转变,即从辅助人类判断的工具转向取代人类判断的系统。这些系统以主动性和自主性运行,其速度之快使得监管变得困难。真正的风险并非机器智能本身,而是随着我们适应缺乏问责机制的自动化决策,人类自主性的逐渐丧失。合乎伦理的使用要求人类对后果性决策负责,保持透明度,并认识到缺乏智慧的优化会造成可预见的危害。

#人工智能代理 #自动化 #人类主体性 #算法问责制 #伦理人工智能 #数字自主 #技术与伦理