人工智能新进展 7 5
NicoElNino /存在Shutterstock

在技​​术与社会不断发展的关系中,人类已经表现出令人难以置信的适应能力。 曾经让我们喘不过气来的东西很快就会融入我们的日常生活。

大型语言模型 (LLM) 的惊人功能,例如 ChatGPT 就在几个月前,它们还是尖端人工智能的缩影。 它们现在只是我们文本编辑器和搜索引擎的附加组件和插件。

我们很快就会发现自己依赖他们的能力,并将它们无缝地融入我们的日常生活中。

然而,这种快速的适应给我们留下了一个挥之不去的问题:接下来会发生什么? 随着我们的期望发生变化,我们对下一个能够激发我们想象力的创新感到好奇。

人们会努力实现各种目标 智能 - 和 不太聪明 – 与人工智能相关的事物。 许多想法会失败,另一些则会产生持久的影响。


内在自我订阅图形


我们的水晶球并不比你们的好多少,但我们可以尝试以结构化的方式思考接下来会发生什么。 人工智能要想产生持久的影响,它不仅需要在技术上可行,而且在经济上可行,并且在规范上可以接受——换句话说,它符合社会要求我们遵守的价值观。

目前有一些人工智能技术在等待,前景光明。 我们认为即将出现的四种技术是下一代 GPT、人形机器人、人工智能律师和人工智能驱动的科学。 从技术角度来看,我们的选择似乎已经准备就绪,但它们是否满足我们提到的所有三个标准则是另一回事。 我们选择这四个是因为它们是我们对人工智能技术进展的调查中不断出现的。

1.人工智能法律帮助

初创公司 DoNotPay 声称拥有 建立了一个合法的聊天机器人 – 基于法学硕士技术 – 可以在法庭上为被告提供建议。

该公司最近表示将让其人工智能系统提供帮助 两名被告对抗超速罚单 实时。 通过耳机连接,人工智能可以聆听诉讼过程,并向被告耳边低声说出法律论点,然后被告向法官大声重复这些论点。

经过批评和诉讼后 无证执业,这家初创公司推迟了人工智能的法庭首次亮相。 因此,技术的潜力将不是由技术或经济限制决定,而是由法律体系的权威决定。

律师是高薪专业人士,诉讼成本高昂,因此自动化的经济潜力巨大。 但是,那 美国法律体系 目前似乎反对机器人在法庭上代表人类。

2、AI科学支撑

科学家们越来越多地转向人工智能来获取见解。 机器学习,即人工智能系统随着时间的推移不断改进其功能,被用来识别数据模式。 这使得系统能够提出新颖的科学假设——对自然现象提出解释。 这些甚至可能超越人类的假设和偏见。

例如, 利物浦大学的研究人员 使用称为神经网络的机器学习系统对电池材料的化学组合进行排序,指导他们的实验并节省时间。

神经网络的复杂性意味着我们对它们实际上如何做出决策的理解存在差距——所谓的 黑匣子问题。 尽管如此,有些技术可以揭示答案背后的逻辑,这可能会带来意想不到的发现。

虽然人工智能目前无法独立提出假设,但它可以启发科学家从新的角度解决问题。

3. AutoGPT

我们很快就会看到更多基于最新 LLM 技术(称为 GPT-4)的人工智能聊天机器人新版本。 我们将看到人工智能可以处理不同类型的数据,例如图像、语音以及文本。 这些被称为 多式联运系统.

但让我们把目光放得更远一些。 自动GPTSignificant Gravitas 发布的先进人工智能工具已经 在科技行业掀起波澜.

自动 GPT 被赋予一个总体目标,例如计划生日聚会,并将其分解为子任务,然后自动完成这些子任务,无需人工输入。 这使其与 ChatGPT 区分开来。

Auto-GPT 结合了人工智能代理或系统,可以根据预定的规则和目标做出决策。 尽管存在安装限制以及与 Windows 一起使用时的功能问题,但 Auto-GPT 在各种应用程序中显示出巨大的潜力。

4. 人形机器人

自 2015 年第一届 Darpa 机器人挑战赛以来,人形机器人(那些看起来和动作都像我们的机器人)取得了显着的进步,在这项比赛中,团队建造了机器人来执行组织者设定的一系列复杂任务。 其中包括下车、打开车门以及在墙上钻一个洞。 许多人为实现目标而奋斗。

然而,初创公司现在正在开发能够执行此类任务并在仓库和工厂中使用的“类人机器人”。

2015 年 Darpa 机器人挑战赛报告。

 

计算机视觉等人工智能领域的进步,以及提供短时高电流的高功率密度电池的进步,使机器人能够 驾驭复杂的环境,保持平衡 动态地——实时地。 Figure AI 是一家为仓库工作制造人形机器人的公司,已获得 70 万美元(55 万英镑)的投资资金。

包括 1X、Apptronik 和 Tesla 在内的其他公司也在投资人形机器人,这表明该领域正在走向成熟。 人形机器人在需要导航、机动性和适应性的任务中比其他机器人具有优势,部分原因是它们将在围绕人类需求构建的环境中运行。

从长远来看

这四者的长期成功将不仅仅取决于计算能力。

如果人形机器人的生产和维护成本超过其收益,那么它们可能无法获得关注。 人工智能律师和聊天机器人助手可能具有显着的效率。 然而,如果他们的决策与社会的“道德指南针”相冲突或法律不同意他们的使用,他们的采用可能会被停止。

在成本效益和社会价值观之间取得平衡对于确保这些技术真正蓬勃发展至关重要。谈话

关于作者

法比安·斯蒂芬妮,讲师, 牛津大学约翰·劳克斯博士后研究员 牛津大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.