1956年,20岁出头的数学家兼理论生物学家杰克·D·考恩在为期一年的伦敦之旅中,拜访了威尔弗雷德·泰勒和他那奇怪的新“学习机到达现场后,他被眼前“庞大的仪器阵列”弄得不知所措。科恩只能站在一旁,看着“机器运转”。机器似乎在执行一种“联想记忆方案”——它似乎能够学习如何找到联系并检索数据。
它看起来或许像是一堆笨重的电路模块,由手工焊接而成,缠绕在杂乱的电线和盒子里,但科恩所见证的却是神经网络的早期模拟形式——它是当今最先进的人工智能(包括备受关注的人工智能)的雏形。 ChatGPT ChatGPT几乎可以根据任何指令生成文字内容。其底层技术是神经网络。
科恩和泰勒站在那里,看着机器运转,他们实在不明白它是如何完成这项任务的。泰勒所说的神秘机器大脑的答案,或许就藏在它的“模拟神经元”里,藏在机器记忆建立的关联里,而最重要的是,藏在它自动化运行的机制根本无法完全解释这一事实里。这些系统需要几十年的时间才能找到它们的用途,才能释放它们蕴藏的力量。
神经网络一词涵盖了范围广泛的系统,但其核心是: 根据IBM这些“神经网络——也称为人工神经网络(ANN)或模拟神经网络(SNN)——是机器学习的一个子集,也是深度学习算法的核心”。至关重要的是,该术语本身及其形式和“结构都受到人脑的启发,模仿了生物神经元彼此传递信号的方式”。
在人工智能发展的初期阶段,人们或许对其价值还存在一些疑虑,但随着时间的推移,人工智能的潮流已坚定地转向神经网络。如今,神经网络通常被认为是人工智能的未来。它对我们以及人类的意义都具有重大影响。我们已经听说…… 近期这些担忧再次浮现。 有人呼吁暂停人工智能新技术的研发六个月,以确保人们对其影响的信心。
如果仅仅将神经网络视为光鲜亮丽、引人注目的新奇玩意儿,那就大错特错了。它们早已深深融入我们的生活中。有些神经网络实用性极强。早在1989年,由AT&T贝尔实验室的Yann LeCun领导的团队就利用反向传播技术训练了一个系统…… 识别手写邮政编码。 最近的 微软的公告 Bing 搜索将由人工智能驱动,使其成为你的“网络副驾驶”,这表明我们发现的事物以及我们对它们的理解将越来越多地成为这种自动化的产物。
人工智能可以利用海量数据发现模式,并同样可以通过训练快速执行图像识别等任务,从而被整合到各种系统中。 面部识别例如,这种识别模式的能力催生了许多其他应用,例如: 预测股市.
神经网络也在改变我们理解和交流的方式。它是由一家名为……的公司开发的。 谷歌大脑团队, 谷歌翻译 这是神经网络的另一个重要应用。
你肯定不想和他们下国际象棋或将棋。他们对规则的掌握、对策略的记忆以及对所有已记录棋步的记忆力,意味着他们在游戏中非常出色(尽管 ChatGPT 似乎……) 玩 Wordle 遇到困难令围棋选手(围棋是一种出了名的棘手策略棋类游戏)和国际象棋特级大师都感到棘手的系统是 由神经网络构成.
但它们的影响远不止于此,而且还在不断扩大。仅搜索提及“神经网络”这一确切短语的专利,就能得到 135,828 条结果。随着这种快速且持续的扩张,我们能够全面解释人工智能影响的可能性或许会越来越小。这些正是我在研究中一直在探讨的问题。 以及我的关于算法思维的新书.
神秘的“不可知性”层层叠加
回顾神经网络的发展历程,可以让我们更好地理解那些塑造我们当下或未来可能产生更深远影响的自动化决策。它们的出现也预示着,随着时间的推移,我们对人工智能的决策及其影响的理解可能会越来越少。这些系统并非简单的黑箱,它们并非系统中那些无法被看见或理解的隐藏部分。
这有所不同,它根植于这些系统自身的目标和设计之中。人们长期以来都在追求无法解释的事物。系统越是晦涩难懂,就越被认为真实、越先进。这不仅仅关乎系统变得更加复杂,或者知识产权控制限制了访问权限(尽管这些也是原因之一)。更重要的是,驱动这些系统的精神内核对“不可知性”有着一种特殊的、根深蒂固的兴趣。这种神秘感甚至被编码进了神经网络的形式和话语体系之中。它们层层叠叠——这正是“深度学习”一词的由来——而在这层层嵌套之下,还隐藏着更加神秘的“隐藏层”。这些系统的奥秘深藏于表面之下。
人工智能对我们生活的影响越大,我们很可能就越难以理解其运作方式和原因。如今,人们强烈呼吁人工智能必须能够解释其工作原理。我们想知道它是如何运作的,以及它是如何做出决策和得出结果的。欧盟对潜在的“不可接受的风险”乃至“危险”的应用深感担忧,因此目前正在推进相关研究。 一项新的人工智能法案 旨在为“开发安全、可信和合乎道德的人工智能”制定“全球标准”。
这些新法律将基于可解释性的需要, 要求 “对于高风险人工智能系统而言,高质量数据、文档记录和可追溯性、透明度、人工监督、准确性和稳健性等要求,对于降低人工智能对基本权利和安全构成的风险至关重要。” 这不仅关乎自动驾驶汽车之类的技术(尽管确保安全的系统属于欧盟定义的高风险人工智能范畴),也令人担忧的是,未来可能会出现一些对人权产生影响的系统。
这是要求人工智能领域提高透明度的更广泛呼吁的一部分,以便对其活动进行检查、审计和评估。另一个例子是英国皇家学会的…… 关于可解释人工智能的政策简报 他们指出,“世界各地的政策辩论越来越多地呼吁对人工智能进行某种形式的可解释性解释,这是将伦理原则融入人工智能系统的设计和部署的努力的一部分”。
但神经网络的发展历程告诉我们,未来我们很可能会离这个目标越来越远,而不是越来越近。
受人脑启发
这些神经网络虽然是复杂的系统,但它们有一些核心原则。受人脑的启发,它们试图复制或模拟生物和人类的思维模式。就结构和设计而言,它们与人类大脑类似。 IBM也对此进行了解释它由“节点层”构成,每个节点层包含一个输入层、一个或多个隐藏层和一个输出层。在这些节点层中,“每个节点,或称人工神经元,都与其他节点相连”。由于它们需要输入信息来生成输出,因此“它们依赖训练数据来学习并随着时间的推移提高准确性”。这些技术细节固然重要,但同样重要的是,我们希望这些系统能够模拟人脑的复杂性。
理解这些系统背后的雄心壮志对于理解这些技术细节在实践中的意义至关重要。 1993采访神经网络科学家特沃·科霍宁总结道,“自组织”系统“是我的梦想”,它的运作方式“类似于我们神经系统的本能运作”。科霍宁举例说,一个能够自我监控和管理的“自组织”系统“可以用作任何机器的监控面板……无论是飞机、喷气式飞机、核电站还是汽车”。他认为,这意味着未来“人们可以立即了解系统的运行状态”。
总体目标是构建一个能够适应环境的系统。它将是即时且自主的,运作方式类似于神经系统。我们的梦想是拥有无需过多人为干预就能自我管理的系统。大脑、神经系统以及现实世界的复杂性和未知性,很快就会影响神经网络的开发和设计。
“这事儿有点蹊跷。”
但让我们回到1956年,回到那台奇特的学习机器,泰勒在建造过程中采取的亲力亲为的态度立刻吸引了考恩的注意。他显然在组装各个部件时付出了巨大的努力。泰勒, 科恩观察到 在一次访谈中,泰勒谈到他参与这些系统研发的经历时说:“他既没有依靠理论,也没有用电脑。”相反,他“亲手打造了硬件”。那是一个实实在在的东西,由各种零件组合而成,甚至可以说是一个复杂的装置。科恩指出,这一切都是“用模拟电路完成的”,泰勒花了“好几年时间来建造和调试”。这是一个反复试验的典型案例。
科恩想要弄明白自己所看到的,这是可以理解的。他试图让泰勒向他解释这台学习机器,但泰勒始终没有给出解释。科恩无法让泰勒描述这台机器的工作原理,模拟神经元仍然是个谜。科恩认为,更令人惊讶的是,泰勒“自己也搞不清楚到底发生了什么”。这不仅仅是两位专业不同的科学家之间一时沟通不畅的问题,而是更深层次的原因。
在 20世纪90年代中期的一次采访回想起泰勒的机器,科恩指出,“时至今日,在已发表的论文中,你仍然无法完全理解它的工作原理”。这一结论暗示着未知性深深植根于神经网络之中。这些神经系统的不可解释性,早在近七十年前的基础研究和发展阶段就已存在。
这个谜团至今仍然存在,并且隐藏在不断发展的人工智能之中。泰勒机器所产生的关联运作方式令人费解,这让科恩怀疑其中是否“有什么蹊跷”。
长而缠绕的根
几年后,当被问及自己研究成果的反响时,科恩提到了他与泰勒的短暂会面。科恩回忆说,直到20世纪60年代,人们“理解模拟神经网络的意义还有些迟钝”。尽管科恩回忆道,泰勒在20世纪50年代关于“联想记忆”的研究正是基于“模拟神经元”。这位诺贝尔奖得主、神经系统专家…… 莱昂·N·库珀总结道 20世纪60年代,围绕大脑模型应用的发展被视为“深奥的谜团之一”。由于这种不确定性,人们对神经网络的潜力一直持怀疑态度。但情况开始慢慢改变。
大约30年前,神经科学家沃尔特·J·弗里曼对以下现象感到惊讶:“卓越考虑到神经网络已发现的广泛应用,科恩当时就指出,他并不认为神经网络是“一种全新的机器”。神经网络的发展是一个循序渐进的过程,技术先于应用而来。这需要时间。事实上,要追溯神经网络技术的根源,我们或许可以追溯到比科恩参观泰勒神秘机器更久远的时期。
神经网络科学家詹姆斯·安德森和科学记者爱德华·罗森菲尔德 已经注意到了 神经网络的背景可以追溯到20世纪40年代,当时人们早期尝试“理解人类神经系统,并构建至少在某种程度上像我们一样运作的人工系统”。因此,在20世纪40年代,人类神经系统的奥秘也成为了计算思维和人工智能的奥秘。
总结这冗长的故事,这位计算机科学作家 拉里·哈迪斯蒂指出 他指出,以神经网络形式存在的深度学习“在过去70多年里一直时而流行,时而过时”。更具体地说,他补充道,这些“神经网络最早是由沃伦·麦卡洛克和沃尔特·皮茨于1944年提出的,这两位芝加哥大学的研究人员于1952年加入麻省理工学院,成为该校有时被称为第一个认知科学系的创始成员”。
别处, 1943 有时,人们会将这一年视为该技术的元年。无论如何,近70年来,各种记载表明神经网络的发展几经沉浮,时常被忽视,但有时又会迅速发展,并进入主流应用和讨论领域。这种不确定性一直持续存在。早期的开发者们经常提到,他们的研究成果的重要性被忽视了,直到数年甚至数十年后才最终被认可。
从20世纪60年代到70年代末,我们可以发现更多关于这些系统未知特性的故事。即便如此,三十年后,神经网络仍然没有找到明确的用途。大卫·鲁梅尔哈特(David Rumelhart)拥有心理学背景,他曾与人合著了一系列于1986年出版的书籍,这些书籍后来再次将人们的注意力引向神经网络。他参与了神经网络的开发工作。 与他的同事杰伊·麦克莱兰.
除了是同事之外,他们最近还在明尼苏达州的一次会议上相遇,鲁梅尔哈特关于“故事理解”的演讲在与会代表中引发了一些讨论。
那次会议之后,麦克莱兰带着一个想法回来了,那就是如何开发一种能够将多个模型结合起来、更具交互性的神经网络。关键在于…… 鲁梅尔哈特的回忆 “在电脑上花费了无数个小时进行摆弄”。
我们坐下来,在电脑上完成了所有这些工作,建立了这些计算机模型,但我们根本不理解它们。我们不明白它们为什么有效,为什么无效,也不明白它们的关键所在。
和泰勒一样,鲁梅尔哈特也发现自己在不断调整系统。他们也创建了一个功能完善的神经网络,但关键在于,他们也不确定它是如何或为什么以这种方式工作的,它似乎能够从数据中学习并发现关联。
模仿大脑——一层又一层
你可能已经注意到,在讨论神经网络的起源时,大脑及其复杂性总是如影随形。人脑充当了这些系统的某种模板。尤其是在早期阶段,大脑——当时仍是人类最大的未知领域之一——成为了神经网络如何运作的模型。
因此,这些实验性的新系统是以某种其运作机制本身很大程度上未知的事物为模型构建的。神经计算工程师卡弗·米德 他的发言颇具启发性 他尤其喜欢“认知冰山”的概念。我们所意识到的、可见的只是意识冰山的一角。其余部分的规模和形态仍然隐藏在水面之下,我们不得而知。
1998年, 詹姆斯·安德森曾长期从事神经网络研究的他指出,在大脑研究领域,“我们最大的发现似乎是意识到我们其实并不了解大脑正在发生什么”。
在一份详细的报告中 2018年金融时报科技记者理查德·沃特斯指出,神经网络“是基于人脑运作理论建模的,它将数据逐层传递,直到出现可识别的模式”。沃特斯认为,这会产生一个连锁问题,因为“与传统软件程序中使用的逻辑电路不同,我们无法追踪这一过程,从而确切地知道计算机为何会得出某个答案”。沃特斯的结论是,这些结果无法被推翻。这种大脑模型的应用,使得数据需要经过多层处理,因此答案难以追溯。多层结构正是造成这种情况的重要原因之一。
坚硬 研究人员还观察到,这些系统“大致模仿人脑”。这促使人们急于构建日益复杂的处理机制,以期达到与大脑相媲美的水平。其结果就是神经网络“由成千上万甚至数百万个紧密互连的简单处理节点组成”。数据只能单向地在这些节点间流动。哈迪斯蒂观察到,“一个节点可能连接到其下层的多个节点(接收来自这些节点的数据),也可能连接到其上层的多个节点(向这些节点发送数据)。”
从一开始,人脑模型就是这些神经网络构思和设计的重要组成部分。考虑到当时大脑本身还是个谜(而且在很多方面至今仍然是个谜),这一点尤其引人注目。
“适应才是制胜之道”
像米德和科霍宁这样的科学家想要创造一个能够真正适应所处环境的系统。它能够对环境条件做出反应。米德明确指出,神经网络的价值在于它们能够促进这种适应。当时,在反思这一雄心壮志时, 米德补充道 他认为,做出适应性调整“才是关键所在”。他觉得,这种调整是必要的,“因为现实世界的本质就是如此”,他总结说,现实世界“变化太快,无法做出任何绝对的事情”。
这个问题必须认真对待,尤其因为他认为,“神经系统很久以前就解决了这个问题”。这些创新者不仅在研究大脑及其未知领域的图像,还将这种图像与“真实世界”及其带来的不确定性、未知因素和变异性相结合。米德认为,这些系统需要能够对环境做出反应并进行适应。 也完全不需要 指令。
大约在 20 世纪 90 年代的同一时期,斯蒂芬·格罗斯伯格——一位跨数学、心理学和生物医学工程领域研究认知系统的专家—— 还认为 从长远来看,适应将是至关重要的一步。格罗斯伯格在潜心研究神经网络建模时,心想这一切都“关乎生物测量和控制系统如何被设计成能够快速、稳定地实时适应瞬息万变的世界”。正如我们之前在科霍宁关于“自组织”系统的“梦想”中所看到的,“现实世界”的概念成为了响应和适应被编码到这些系统中的背景。人们对现实世界的理解和想象无疑会影响这些系统如何被设计成适应环境。
隐藏层
随着层数的增加,深度学习不断拓展其应用范围。神经网络使用训练数据进行训练,这些数据包括: 哈迪斯蒂解释说“信号被送至最底层——输入层——然后依次经过后续各层,以复杂的方式进行乘加运算,最终到达输出层,并发生根本性的变化。”层数越多,变化越大,输入到输出的距离也越大。哈迪斯蒂补充道,例如在游戏领域,图形处理器(GPU)的发展“使得20世纪60年代的单层网络和80年代的两到三层网络发展成为如今的十层、十五层甚至五十层网络”。
神经网络正在变得越来越深。事实上,正如哈迪斯蒂所说,正是这种层数的增加,才体现了“深度学习”中“深度”的含义。他认为,这一点至关重要,因为“目前,深度学习几乎在所有人工智能研究领域都打造出了性能最佳的系统”。
但谜团远不止于此。随着神经网络层数的不断增加,其复杂性也随之增长。这也导致了所谓“隐藏层”数量的增加。关于神经网络中最佳隐藏层数量的讨论仍在继续。媒体理论家 Beatrice Fazi 写道 “由于深度神经网络的运行方式,依赖于夹在第一层神经元(输入层)和最后一层神经元(输出层)之间的隐藏神经层,因此,即使对于最初设置它们的程序员来说,深度学习技术也常常是晦涩难懂的。”
随着层级的增加(包括那些隐藏的层级),它们变得越来越难以解释——事实证明,即使是对它们的创造者而言也是如此。著名跨学科新媒体思想家凯瑟琳·海尔斯也表达了类似的观点。 还注意到 “我们对系统的了解程度是有限的,这一结果与神经网络和深度学习算法中的‘隐藏层’有关”。
追寻无法解释之事
总而言之,这些长期发展构成了技术社会学家所关注的一部分。 泰娜·布赫 他称之为“未知问题”。哈里·柯林斯将他对科学知识的极具影响力的研究扩展到了人工智能领域。 已经指出 神经网络的目标是,它们最初可以由人类编写,但“一旦编写完成,程序就好像拥有了自己的生命;无需投入大量精力,程序的具体运行机制就可以保持神秘”。这与人们长期以来对自组织系统的梦想不谋而合。
我还要补充一点,从这些系统诞生之初,探索未知甚至不可知的领域就一直是其根本组成部分。人工智能对我们生活的影响越大,我们可能就越难以理解其运作方式和原因。
但如今许多人对此并不认同。我们渴望了解人工智能的运作机制,以及它如何做出影响我们的决策和结果。随着人工智能的发展不断塑造我们对世界的认知和理解,包括我们的发现、我们受到的待遇、我们的学习、消费和互动方式,这种求知欲也将日益增长。然而,就可解释和透明的人工智能而言,神经网络的发展历程告诉我们,未来我们很可能离这个目标越来越远,而不是越来越近。





