人工智能这么聪明为什么不能掌握因果关系

慕容岩仪
导读 这是一个令人不安的事实。一辆自动驾驶汽车在交通高速公路上飞驰而过,比一个刚刚学会走路的孩子更不容易理解。一项新的实验表明,即使是最

这是一个令人不安的事实。一辆自动驾驶汽车在交通高速公路上飞驰而过,比一个刚刚学会走路的孩子更不容易理解。

一项新的实验表明,即使是最好的人工智能系统也很难掌握基础物理及其因果关系。它还提供了一种构建人工智能系统的方法,并且可以理解事情发生的原因。

麻省理工学院大脑思维和机器中心教授乔希特南鲍姆(乔希特南鲍姆)表示,这项实验的目的是"超越模式识别。"他与麻省理工学院的研究员创干和博士生科新一起参与了这个项目。在哈佛。"大型科技公司希望拥有能够执行此类操作的系统。"

近年来,最受欢迎的前沿人工智能技术,即深度学习,取得了惊人的进步,这引起了人们对人工智能潜力的兴奋。它包括提供大量的近似神经网络训练数据。深度学习算法通常可以漂亮地在数据中找到模式,从而实现令人印象深刻的图像和语音识别功能。但是它们缺少对人类来说微不足道的其他功能。

为了证明这个缺点特南鲍姆和他的合作者为人工智能系统建立了一个智能测试。它包括向人工智能程序显示一个简单的虚拟世界,里面充满了移动的物体以及关于场景和正在发生的事情的问答。问题和答案都有标签,这类似于人工智能系统如何通过显示数百张标有"猫"的图像来学习识别猫。

使用先进机器学习的系统显示出很大的盲点。问了一个描述性的问题,比如"这个物体是什么颜色?"高级人工智能算法将在90%以上的时间内正确实现。然而,当更复杂的问题被问到场景时,比如"是什么导致球与立方体碰撞?"。或者"如果物体不碰撞会发生什么?"同一个系统只能答对10%左右的时间。

参与这项工作的麻省理工学院-IBM沃森人工智能实验室国际商用机器公司主任大卫考克斯表示,理解因果关系对人工智能非常重要。"作为人类,我们有能力对因果进行推理。我们需要有一个能够做到这一点的人工智能系统。"

缺乏对因果关系的理解也会产生实际后果。工业机器人能够越来越多地感知附近的物体,以便捕捉或移动它们。但他们并不知道触摸什么东西会导致它掉落或断裂,除非它是经过特殊编程的,无法预测所有可能的情况。

然而,如果机器人能够进行因果推理,它可能能够避免编程没有理解的问题。无人驾驶汽车也是如此。它本能地知道,如果卡车转弯撞到障碍物,它的货物可能会洒在路上。

因果推理对几乎所有的人工智能系统都很有用。接受医学信息而不是三维(three dimension的缩写)场景培训的系统需要知道疾病的原因和可能的干预措施的可能结果。因果推理对人工智能的许多杰出人物越来越感兴趣。考克斯说:"这些都促进了人工智能系统的发展,艾系统不仅可以学习,还可以推理。"

卡耐基梅隆大学负责因果推理和机器学习的助理教授张坤说,由泰拉贝尔设计的测试非常重要,因为它提供了一种很好的方法来衡量因果理解,即使是在非常有限的环境中。他说:"更通用的人工智能系统的开发将极大地受益于因果推理和表征学习的方法。"

泰拉贝尔和他的同事不仅展示了现有人工智能程序的弱点,还构建了一个新的人工智能系统,该系统可以理解因果关系,并在他们的智力测试中得分更高。他们的方法结合了几种人工智能技术。该系统使用深度学习来识别场景中的对象。它的输出被输入到构建场景的三维(three dimension的缩写)模型和物体如何交互的软件中。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!