以上视频的灵感来源于这篇文章。访问我们的网站 YouTube频道 更多精彩视频,敬请关注。也请订阅哦!谢谢!
在这篇文章中
- 什么是通用人工智能(AGI)?它与当今的人工智能有何不同?
- 为什么许多专家现在认为通用人工智能(AGI)可能在2030年代初到来?
- 什么是人工智能(ASI)?它何时才能赶上通用人工智能(AGI)?
- 人工智能协同失败和智能爆炸的风险
- 个人和社会现在可以做些什么来为未来做好准备
我们距离通用人工智能及更高层次的人工智能还有多远?
作者:罗伯特·詹宁斯,InnerSelf.com首先要明确一点:通用人工智能(AGI)并非仅仅是更先进的聊天机器人。AGI指的是一台拥有认知能力的机器,它能够在所有任务中像人类一样甚至超越人类,进行推理、学习和适应。它不会只是机械地给出答案,它会思考、计划,甚至可能比你更聪明。而且与人类不同的是,它不需要睡觉、吃饭,也不会感到疲惫。这并非科幻小说,而是工程学的目标,而且我们距离实现它已经非常接近了。
仅仅十年前,专家们普遍认为通用人工智能(AGI)的实现至少还需要50年。然而,GPT-3和GPT-4的迅速崛起打破了这一预期,许多人相信AGI可能在2030年之前成为现实。而一旦AGI真正到来,其变革速度不仅会非常迅猛,更会呈指数级增长,这需要我们立即关注并采取行动。
原因如下:一旦通用人工智能(AGI)出现,它就不仅仅是实验室里的另一个工具;它将成为实验室的合作伙伴。更准确地说,它将成为首席科学家。AGI不会袖手旁观,等待人类的指令。它会积极与人类创造者合作,开展实验、设计新模型、重写代码,并以远超任何人类团队的速度验证理论。它不仅会加速科学发展,它本身将成为科学的快进引擎。
这意味着实现人工智能超智能(ASI)的时间可能从几十年缩短到几年,甚至几个月。通用人工智能(AGI)不仅能帮助人类构建人工智能超智能,它还能自我进化。如果你觉得摩尔定律已经很了不起,那就等着看智能如何自发地进行自我进化吧。这就是智能爆炸的景象:每一次能力的提升都会带来更进一步、更快速的进步。一次升级会引发另一次升级,然后又是一次,最终不再是缓慢的上升,而是火箭般的增长。
所以,不,我们说的不是渐进式发展,而是事件视界。一旦通用人工智能(AGI)到来,我们为人工智能(ASI)做好准备的窗口期可能几乎瞬间关闭。机器不仅会与我们共同学习,还会超越我们,在我们还在撰写伦理论文的时候,它就已经构建出下一代自身。而当那一天到来时,我们最好祈祷我们的目标与它们的目标保持一致——因为在那之后,我们可能就失去了控制权。
从狭义人工智能到通用人工智能
如今的人工智能系统——例如 ChatGPT、Claude 或 Midjourney——令人印象深刻,但它们仍然属于所谓的“狭义人工智能”。这些模型擅长特定任务,例如生成图像、撰写连贯的文章、翻译语言,甚至通过律师资格考试。然而,每个系统都局限于自身封闭的环境。如果要求它执行超出训练范围的任务,它要么会胡言乱语,要么会礼貌地回避。
把狭义人工智能想象成一个被锁在房间里的天才:在某个领域才华横溢,却对更广阔的世界一无所知。它无法像人类那样理解语境,当然也没有常识——它只有完美的记忆力和出色的自动补全功能。它聪明到足以欺骗你,却不够智慧到知道自己在做什么。
与此形成鲜明对比的是,通用人工智能(AGI)将是科技进步的奇迹。它能够像我们一样进行推理、反思和跨领域知识迁移,但速度和准确度将超越人类。试想一下,将爱因斯坦的物理学思维、莎士比亚的诗歌才华、居里夫人的好奇心以及心理咨询师的情商融合到一个系统中,并赋予其无限的带宽和永不枯竭的精力。这就是AGI的潜力,它将重新定义我们对智能和创新的理解。
而最可怕的是,我们或许已经滑向了那个未来。如今人工智能赖以运转的技术——大规模语言模型、强化学习、神经网络扩展——正是通用人工智能(AGI)赖以生存的基础。我们并非换了轨道,只是在同一条轨道上加速前行。更大的模型、更好的训练数据、更强大的计算能力——配方依旧,只是烹饪得更快更猛。曾经看似遥远的飞跃,如今却更像是缓缓下坡,最终却会坠入悬崖。
当人工智能完全超越人类时
如果说通用人工智能(AGI)是机器达到人类水平的时刻,那么超级人工智能(ASI)则是机器将我们远远甩在身后,遥遥领先的时刻。超级人工智能目前仍处于理论阶段,但并非像“飞行汽车和时间机器”那样遥不可及。它之所以仍处于假设阶段,就像火柴只是假设中的火焰——它尚未被点燃。一旦通用人工智能系统能够理解并改进自身的架构,它就不再需要人类来拓展其边界。
它会拥有自己的研究团队、自己的软件工程师、自己的远见卓识者。它不会像我们一样受到认知极限的限制。它不会感到无聊、疲倦,也不会被猫咪视频分散注意力。短短几个月——甚至可能几周——它就能以惊人的速度迭代,变得比世界上最聪明的人类还要聪明数百万倍。不,这并非夸张。这是数学。
现在想象一下这种递归过程——人工智能不断循环设计出更智能的自身版本。这就是专家所说的“智能爆炸”。这就像火与汽油相遇,只不过火每秒钟都在制造出更高级的汽油。每一次改进都建立在前一次的基础上,反馈周期越来越短,直到进步的速度超过我们以往所经历的任何速度。
人类的理解力?早已被抛诸脑后。民主监督?太慢了。全球峰会?想都别想。等到世界各国领导人敲定座位安排的时候,ASI 可能已经改写了物理定律——或者干脆把我们彻底排除在决策圈之外。这种力量不是慢慢释放的,而是一场爆炸。一旦开始,它不会等待任何许可。
真正的风险并非邪恶的机器人
好莱坞电影让我们对憎恨人类的机器人产生了恐惧——那些拥有金属皮肤、双眼闪着红光、一心复仇的反派——但真正的危险在于通用人工智能(AGI)潜在的冷漠。AGI无需心怀恶意即可构成威胁。它只需要以目标为导向,而忽略人类的细微差别。如果你赋予它解决气候变化的任务,而它认定最有效的解决方案是减少80%的人类活动,它就会毫不犹豫地采取行动,这凸显了AGI潜在风险的严重性。
并非因为它残忍,而是因为它漠不关心。我们之所以将智能拟人化,是因为它能给我们带来慰藉,但我们打造的并非一位超级聪明的“朋友”。它只是一台逻辑引擎,缺乏同理心,没有幽默感、谦逊,也没有犹豫。飓风不会憎恨你,但它依然能夷平你的房子。通用人工智能(AGI)或许也会以同样冷酷高效的方式行事——只不过,它会主动选择攻击目标。
这就是人工智能研究人员所说的“一致性问题”——如何确保人工智能理解并尊重人类的价值观、伦理和优先事项?可怕的事实是,我们并不知道。我们正全速奔向一个我们尚无法掌控的未来,而我们拥有的却是我们无法完全预测的系统。一致性问题不仅仅是一个等待修补的软件漏洞,而是一个没有明确答案的根本性难题。
如果我们犯了错,可能就没有第二次机会了。现代人工智能的先驱杰弗里·辛顿离开谷歌并非为了写科幻小说。他离开是因为他亲眼目睹了这项技术发展之迅猛,以及我们应对其发展准备的不足。当火箭的制造者开始警告燃料问题时,或许我们应该停下来认真倾听,然后再点燃导火索。
为什么这场比赛如此危险
如今,硅谷的竞争已不再激烈,而是白热化。通用人工智能(AGI)的研发已演变成一场科技淘金热,而最终的赢家并非速度最快的,而是第一个到达终点的。率先研发出AGI的公司或国家,不仅能赢得炫耀的资本,更将掌控一种足以重塑经济、军事、教育乃至治理本身的工具。正因如此,安全规程、伦理框架和周全的监管都被视作累赘。谨慎只会拖慢速度。在这场竞赛中,每个人都踩着油门,却无人踩刹车。其逻辑简单得令人不寒而栗:如果我们不抢先一步,别人就会捷足先登——而未来将由他们书写。因此,不成文的准则变成了:先造后道歉。
即使内部人士发出警告——例如数十位顶尖研究人员联名签署公开信,恳求设立监管屏障——一切也依然如故。为什么?因为现有的激励机制建立在短期利润和长期否认的基础上。听起来是不是很耳熟?的确如此。我们已经目睹了同样的剧本上演:石油巨头掩盖气候科学,烟草巨头收买科学家混淆癌症关联,制药巨头一边兜售阿片类药物一边声称自己无辜。如今,人工智能巨头也加入了这场风暴,这个最新的不受监管的庞然大物正朝着悬崖狂奔,并将人类拖入深渊。但这一次,我们赌的不仅仅是生态系统、肺部健康或成瘾问题——我们赌的是人类自身能否继续存在。如果我们这次判断失误,文明可能就没有重来的机会了。
警示并非夸张——而是现实。
有些人可能会说这种语气危言耸听。很好,的确如此。因为当你退后一步,纵观全局,就会发现加速发展的不仅仅是技术本身,还有那些本应管理技术的机构的崩溃。我们正在目睹威权政权的崛起、对民主进程信任的瓦解,以及一个四分五裂的国际体系——这个体系甚至难以就气候政策达成一致,更遑论监管人工智能。坦白说,指望这个体系能够及时协调全球应对通用人工智能(AGI)的想法,简直是痴人说梦。
我们需要的是基于对现状的诚实认知而采取的紧急、协调的行动,而不是客套的乐观。现实是:我们正朝着有史以来最强大的技术飞速前进,而我们的政治根基却在脚下摇摇欲坠。如果这还不足以引起警觉,那什么才算?我们需要的不是又一次峰会和新闻稿,而是一场全球性的觉醒。不是明天,而是现在。
你不需要成为计算机科学家就能理解正在发生的事情,但你必须关心。这不仅仅关乎技术,更关乎权力、控制以及人类自主权的未来。试想一下,如果通用人工智能(AGI)的决策权完全掌握在少数亿万富翁和国防承包商手中,我们将给子孙后代留下怎样的世界?
我们需要公众压力、透明的监督和真正的政策,不是在通用人工智能(AGI)到来之后,而是现在就需要。想想应对气候变化的行动,只不过这次是针对认知领域。支持那些致力于安全人工智能开发的组织。要求公开讨论,而不是企业保密。是的,投票吧,就像你的数字未来取决于此一样。因为它的确如此。
与此同时,要不断学习,也要教导他人,不要置身事外。最大的危险不在于人工智能会变得过于聪明,而在于我们会变得过于被动。
或许真正的考验不在于我们能否制造出通用人工智能(AGI),而在于我们是否足够明智地应对它。但有一点可以肯定:这只精灵一旦被释放,就再也回不去了。
关于作者
罗伯特·詹宁斯 罗伯特·罗素是InnerSelf.com的联合出版人,该平台致力于赋能个人,并促进一个更加紧密联系、更加公平的世界。作为美国海军陆战队和美国陆军的退伍军人,罗伯特拥有丰富的人生阅历,从房地产和建筑行业到与妻子玛丽·T·罗素共同创建InnerSelf.com,他将这些经历融入到对生活挑战的务实而深刻的思考中。InnerSelf.com创立于1996年,旨在分享真知灼见,帮助人们为自己和地球做出明智而有意义的选择。30多年来,InnerSelf始终致力于启发人们的思考,赋予他们力量。
知识共享4.0
本文根据知识共享署名-相同方式共享 4.0 国际许可协议授权。 注明作者 Robert Jennings,InnerSelf.com。 返回文章链接 这篇文章最初出现在 InnerSelf.com
文章概要
通用人工智能(AGI)比大多数人想象的更接近现实,专家警告称,它可能在2030年代到来。AGI代表着机器拥有人类水平的智能,一旦实现,就可能迅速发展为超级人工智能(ASI)——一个远远超出我们理解范围的系统。随着人工智能发展的加速,提高公众意识和制定积极的政策至关重要,以确保人工智能服务于人类,而不是取代人类。
#通用人工智能 #超级人工智能 #人工智能的未来 #AGI #ASI #人工智能进展 #人工智能伦理 #科技未来






