了解动物如何帮助我们充分利用人工智能自主汽车并不比这更聪明。 X posid

每天都有无数的新闻头条出现在全球各地 警告可怕的后果有前途的乌托邦期货 - 都要感谢人工智能。 人工智能“正在改变工作场所,”写道 “华尔街日报”,而 运气 杂志告诉我们,我们正在面临一场“改变我们的生活”的“AI革命”。但我们并不真正了解与AI的互动会是什么样子,或者它应该是什么样子。 谈话

事实证明,当我们思考AI时,我们已经有了一个概念,就是我们如何看待动物。 作为一名曾经的动物教练(尽管简单地说)现在研究人们如何使用人工智能,我知道动物和动物的训练可以教给我们很多关于我们应该如何思考,接触人工智能以及如何与人工智能交互的知识。未来。

使用动物类比 可以帮助正规人员了解人工智能的许多复杂方面。 它也可以帮助我们思考如何最好地教授这些系统的新技能,也许最重要的是,我们如何正确地设想自己的局限性,即使我们庆祝AI的新的可能性。

看着约束

作为AI专家 Maggie Boden 解释,“人工智能试图让计算机做一些思想能做的事情。”人工智能研究人员正在教计算机来推理,感知,计划,移动和建立关联。 人工智能可以在大型数据集中看到模式,预测事件发生的可能性,计划路线,管理人员的会议时间表,甚至玩战争游戏场景。

其中许多功能本身并不令人吃惊:当然,机器人可以在空间中滚动,而不会与任何事物相冲突。 但是不知何故,当计算机开始把这些技能结合起来完成任务时,AI似乎更加神奇。


内在自我订阅图形


以自动驾驶汽车为例。 无人驾驶汽车的起源是在一个1980s时代的国防高级研究计划署项目称为 自治陆地车辆。 该项目的目标是鼓励研究计算机视觉,感知,规划和机器人控制。 在2004中,ALV的努力成为第一个 大挑战 为自驾车。 现在,距离努力开始的30多年,我们正处于民用市场自主或自驾车的悬崖峭壁之中。 早年,很少人认为这样的壮举是不可能的:电脑不能开车!

DARPA大挑战推动了自动驾驶汽车的发展。

{youtube}M2AcMnfzpNg{/youtube}

但是,正如我们所看到的, 他们能。 自主汽车的能力相对容易理解。 但我们很难理解他们的局限性。 之后 2015致命的特斯拉崩溃,那里的汽车的自动驾驶仪功能没有感觉到拖拉机拖车穿越其车道,很少人似乎仍然掌握特斯拉的自动驾驶仪是多么有限的严重性。 而公司和它的软件 疏忽了疏忽 国家高速公路交通安全管理局还不清楚客户是否真正了解汽车能做什么,不能做什么。

如果特斯拉业主被告知不是他们是怎么了? 驾驶自动驾驶仪的“测试版”版本 而是一辆半自动的汽车 蠕虫的心理等价性? 所谓的“情报”提供了“充分的自我驾驶能力“真的是一台非常擅长感应物体并避开物体的巨型计算机,能够识别图像中的项目和有限的计划。 这可能会改变车主对车辆在没有人力投入或监督的情况下真正能做多少的看法。

这是什么?

技术人员经常试图解释AI的构建方式。 举个例子, 深入学习。 这是一种使用的技术 多层网络 学习如何做任务。 网络需要处理大量的信息。 但是由于数据量大,网络中关联和算法的复杂性,人们往往不清楚自己是如何学习的。 这些系统可能会变得非常擅长于某个特定的任务,但我们并不真正了解它们。

不要把人工智能看成是超人或异己的东西,而是把它们与动物,我们有经验的聪明的非人类进行类比。

例如,如果我使用 强化学习 为了训练一只狗坐着,我会赞美这只狗,当他坐下时给予他对待。 随着时间的推移,他会学会将命令与对待的行为联系起来。

教狗坐就像训练人工智能一样。

{youtube}5-MA-rGbt9k{/youtube}

培训AI系统可以非常相似。 在 加强深度学习,人类设计师建立一个系统,设想他们想要学习的东西,给它信息,观察它的行为,并在看到他们想要的东西时给予反馈(如赞美)。 实质上,我们可以像对待我们正在训练的动物一样对待AI系统。

这个比喻也在更深层次上起作用。 我并不期望坐着的狗懂得“爱”或“好”的复杂概念,我期待着他学习一种行为。 正如我们可以让狗坐下来一样,停留和翻身,我们可以让人工智能系统在公共道路上移动汽车。 但是,期望汽车“解决“的 在推动紧急情况时可能出现的伦理问题.

也帮助研究人员

人工智能是一种可训练的动物,不仅对于向公众解释它是有用的。 这对研发人员和技术人员也是有帮助的。 如果一个AI学者试图教授一个系统的新技能,从动物教练的角度思考这个过程可以帮助识别潜在的问题或并发症。

例如,如果我试图训练我的狗坐着,每当我说“坐”蜂鸣器到烤箱的时候,我的狗就会开始不仅坐在我的命令,而且坐在烤箱的蜂鸣器。 实质上,蜂鸣器成为告诉狗坐着的另一个信号,这被称为“意外强化”。如果我们在AI系统中发现意外强化或信号不正常,那么我们不仅会知道发生了什么事情错,还有什么具体的再培训会是最有效的。

这就要求我们理解AI训练期间给出的信息,以及AI可能在周围环境中观察到什么。 烤箱蜂鸣器就是一个简单的例子。 在现实世界中将会更加复杂。

在我们欢迎我们的人工智能领域,把我们的生活和工作交给机器人之前,我们应该暂停一下,思考我们正在创造的那种智能。 他们擅长做特定的行动或任务,但他们不懂概念,什么都不知道。 所以当你在想 炮轰数以千计 对于一辆新的特斯拉汽车来说,记住它的自动驾驶功能真的只是一个非常快速和性感的蠕虫。 你真的想把自己的生命和亲人的生命控制到一个蠕虫吗? 可能不会,所以要把手放在车轮上,不要睡着。

关于作者

牛津大学政治与国际关系系高级研究员Heather Roff; 全球安全倡议研究科学家, 亚利桑那州立大学

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍

at InnerSelf 市场和亚马逊