一群著名的计算机科学家和其他科技行业知名人士呼吁暂停人工智能技术六个月。 (存在Shutterstock)
计算机科学家和科技行业领袖最近的一封公开信 呼吁禁止人工智能开发六个月 具有 在网上受到广泛关注. 就连加拿大创新部长 François-Philippe Champagne 已经在推特上回复了这封信。
这封由非营利组织未来生命研究所 (Future of Life Institute) 发布的信函要求所有 AI 实验室停止训练比 GPT-4 更强大的 AI 系统,GPT-XNUMX 是 ChatGPT 背后的模型。 这封信认为,人工智能已经“陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至是它们的创造者——无法理解、预测或可靠地控制。”
这封信假设人工智能正在成为或可能成为“强大的数字思维”——一个 人工智能发展的长期主义解读 这 忽略了今天关于人工智能的重要辩论,而不是未来的担忧.
长期主义和人工智能
长期主义是 相信人工智能会成为失控的超级智能,从而对人类的未来构成长期或存在的风险.
对超级智能 AI 的担忧通常只是科幻小说中的内容。 人工智能幻想 是硅谷的众多恐惧之一 可能导致 黑暗预言. 但就像 折磨 Nexus 模因,这些担忧转化为重大投资而不是谨慎。 大多数主要科技公司都有 裁掉负责的 AI 团队.
ChatGPT 显然不是通向超级智能的途径。 这封公开信将 ChatGPT 等人工智能语言技术视为一项认知突破——它可以让人工智能在一般任务上与人类竞争。 但这只是一种意见。
还有许多其他人将 ChatGPT、其 GPT-4 模型和其他语言学习模型视为 “随机鹦鹉” 只是重复他们在网上学到的东西,这样他们 出现 对人类有智慧。
超级智能的盲点
长期主义具有直接的政策影响,即优先考虑超级智能而不是更紧迫的问题,例如 人工智能的权力失衡. 一些长期主义的支持者 甚至考虑通过监管来阻止超级智能比应对气候紧急情况更为紧迫。
人工智能政策的影响是直接的,不远的事情。 因为 GPT-4 在整个互联网上进行训练并且具有明确的商业目的, 它提出了有关公平交易和合理使用的问题.
我们仍然不知道人工智能生成的文本和图像是否首先受版权保护, 因为机器和 动物 不能拥有版权。
当谈到隐私问题时,ChatGPT 的方法很难与其他 AI 应用程序区分开来, 明视人工智能. 两种 AI 模型都是使用在开放互联网上收集的大量个人信息进行训练的。 出于对隐私的担忧,意大利的数据保护机构刚刚禁止了 ChatGPT.
这些直接的风险在公开信中没有提及,它在狂野的哲学和技术解决方案之间摇摆,忽略了摆在我们面前的问题。
淹没实用主义
这封信遵循了我和我的合著者在 即将发布的关于 AI 治理的同行评审章节. 人们倾向于将 AI 视为存在的风险或平凡的技术。
这两个极端之间的紧张关系在公开信中有所体现。 这封信首先声称“先进的人工智能可能代表地球生命史上的深刻变化”,然后呼吁“为技术人工智能安全研究提供强有力的公共资金”。 后者表明人工智能的社会危害仅仅是需要解决的技术项目。
对这两个极端的关注排挤了试图务实地讨论上述 AI 的直接风险以及 劳工问题等.
对这封公开信的关注在加拿大尤其成问题,因为另外两封信,由 艺术家 和 公民自由组织, 没有受到同等的关注。 这些信件呼吁对人工智能治理进行改革和采取更强有力的方法,以保护受其影响的人。
对人工智能立法的不必要的分心
政府对公开信的回应强调,加拿大确实有立法—— 人工智能和数据法案 (AIDA). AI 的长期风险现在被用来像 AIDA 一样匆忙立法。
AIDA 是朝着适当的 AI 治理制度迈出的重要一步,但它需要 更好地咨询那些受人工智能影响的人 在实施之前。 它不能仓促应对感知到的长期恐惧。
这封信中呼吁加快 AI 立法的呼声可能最终有利于今天推动 AI 研究的少数几家公司。 如果没有时间咨询、提高公众素养和倾听那些受人工智能影响的人,AIDA 就有可能将人工智能的问责制和审计传递给已经准备好从该技术中受益的机构,从而为新的人工智能审计行业创造市场。
人类的命运未必岌岌可危,但 AI 的善治无疑是危在旦夕的。
关于作者
芬威克麦凯维, 信息和通信技术政策副教授, 康考迪亚大学(Concordia University)