随着人工智能进一步渗透到人们的日常生活中,人们对它的担忧也随之增加。最危言耸听的是对人工智能的担忧 流氓 并消灭它的人类主人。

但在呼吁的背后 暂停人工智能的发展 是一系列更明显的社会弊病。其中包括人工智能给人们带来的风险 隐私和尊严 不可避免的事实是,由于人工智能底层的算法是由人类编程的,所以它就像 歧视 和我们很多人一样。扔进 缺乏透明度 关于人工智能是如何设计的,以及 通过谁,并且很容易理解为什么这些天花这么多时间 讨论其风险 尽其潜力。

但是, 我自己的研究 作为一名心理学家 研究人们如何做出决定 让我相信,所有这些风险都被一种更具腐败性但基本上看不见的威胁所掩盖。也就是说,在做出深思熟虑的决策时,人工智能只需敲击几个键盘就能让人们变得更加缺乏纪律和技能。

做出深思熟虑的决定

做出深思熟虑的决定的过程涉及三个方面 常识步骤 首先花时间理解您面临的任务或问题。问问自己,您需要知道什么?您需要做什么才能做出以后能够可靠且自信地捍卫的决定?

这些问题的答案取决于积极寻找信息,这些信息既可以填补您的知识空白,又可以挑战您先前的信念和假设。其实就是这个 反事实信息 – 当人们摆脱某些假设时出现的替代可能性 – 最终使你能够在自己的决定受到批评时捍卫自己的决定。


内在自我订阅图形


深思熟虑的决定涉及考虑您的价值观并权衡利弊。

第二步是一次寻找并考虑多个选择。想提高你的生活质量吗?无论你投票给谁、你接受的工作还是你购买的东西,总有不止一条路可以带你到达那里。花精力积极考虑和评估至少一些看似合理的选项,并以诚实的方式 你愿意做出的权衡 纵观其优点和缺点,这是一个深思熟虑且合理的选择的标志。

第三步是愿意 延迟关闭 直到你完成所有的决定之后 必要的沉重的精神负担。这不是什么秘密:结束的感觉很好,因为这意味着你已经把一个困难或重要的决定抛在脑后。但过早地继续前进的成本可能比花时间做功课要高得多。如果你不相信我,想想那些让你的感觉引导你的时光,结果却是这样。 经历遗憾 因为你没有花时间认真思考一下。

将决策外包给人工智能的危险

这三个步骤都不是很难采取的。但是,对于大多数人来说,他们 不直观 任何一个。做出深思熟虑且站得住脚的决定 需要练习和自律。这就是人工智能给人们带来的隐藏危害所在:人工智能的大部分“思考”都是在幕后进行的,并向用户提供脱离上下文和深思熟虑的答案。更糟糕的是,人工智能剥夺了人们练习自己做出深思熟虑和合理决策的机会。

考虑一下当今人们如何做出许多重要决定。人类众所周知 容易产生各种偏见 因为我们在消耗精神能量方面往往比较节俭。这种节俭让人们喜欢看似善良或值得信赖的节俭 为他们做出决定。而我们是 社会动物 他们往往更看重社区的安全和接受,而不是他们自己的自治。

将人工智能添加到混合中,结果是一个危险的反馈循环:人工智能正在挖掘为其算法提供动力的数据是 由人们的偏见决定组成 这也反映了从众的压力,而不是智慧 批判性推理。但因为人们喜欢有人为他们做出决定,所以他们倾向于接受这些糟糕的决定并继续下一个决定。最终,我们和人工智能都不会变得更明智。

AI时代的深思熟虑

认为人工智能不会给社会带来任何好处的观点是错误的。它很可能会,特别是在诸如 网络安全, 保健金融,需要定期快速分析复杂的模型和大量数据。然而,我们的大多数日常决策并不需要这种分析能力。

但无论我们是否要求,我们中的许多人已经在以下环境中收到了人工智能的建议以及人工智能所做的工作: 娱乐旅行学校工作, 保健金融。而设计师们也在努力工作 下一代人工智能 这将能够使我们更多的日常决策自动化。在我看来,这是危险的。

在一个人们的思维方式和思维方式已经受到围攻的世界里, 社交媒体算法如果我们允许人工智能达到可以代表我们做出各种决策的复杂程度,我们就有可能将自己置于更加危险的境地。事实上,我们有责任抵制人工智能的诱惑,夺回作为人类的真正特权和责任:能够为自己思考和选择。如果我们这样做的话,我们会感觉更好,更重要的是,我们会变得更好。谈话

乔·阿尔瓦伊达纳·多恩西夫 (Dana Dornsife) 和大卫·多恩西夫 (David Dornsife) 心理学教授兼箭牌环境与可持续发展研究所所长 南加州大学多恩西费大学文理学院

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.