如何教会汽车雪人不会横穿马路?

作者: Melanie Mitchell

来源: Aeon

发布日期: 2019-06-07

本文讨论了自动驾驶汽车在面对复杂道路情况时缺乏常识的问题,并探讨了如何通过模仿婴儿的学习方式来提高人工智能的常识能力。文章指出,尽管当前的人工智能系统在特定领域取得了显著进展,但由于缺乏常识基础,它们在面对未预见的情况时容易出现错误。通过DARPA的“人类常识基础”项目,研究人员试图开发能够从经验中学习的人工智能系统,以期达到18个月大婴儿的认知水平。这不仅需要机器具备先天的知识,还需要正确的学习架构和在现实世界中主动成长的机会。

想象一下,你正驱车驾驶在城市的道路上。当你转弯时,突然看见前方的路中间有个什么东西。这个时候,你该怎么做?答案当然取决于那个“东西”是什么。如果是一个破纸袋、一只丢失的鞋子,或一捆风滚草,你可以毫不犹豫地直轧过去;但如果那是一堆碎玻璃,你肯定会绕过去。你可能会为一只挡住了去路的小狗停下来,但会径直向一群鸽子开去,因为你知道这些鸽子是会飞走的。你可能会冲过一座雪堆,但会避让一个精心制作的雪人。

简而言之,你能很快作出最适合当下情况的决策,这是人类所谓的“常识”。而需要这种常识的不仅只有人类司机而已,人工智能(AI)系统对这种常识的缺乏,可能是导致全面部署全自动汽车的主要障碍。即便是当今最好的自动驾驶汽车,也无法很好的应对道路上的物体时所带来的问题。它们能感知到那些人类驾驶员不会为之停车的“障碍物”,往往出人意料地猛踩刹车,让其他驾驶员措手不及。

人类司机的追尾事件是与自动驾驶汽车相关的最常见事故。给自动驾驶汽车提供更多的训练数据,或者明确规定在异常情况下它们该怎么做,可能都无法解决自动驾驶汽车所面临的挑战。若要赢得信赖,自动驾驶汽车需要具备常识,它们要对世界有广泛的了解,并且具有在新环境中适应新知识的能力。

尽管当今的人工智能系统在从图像识别到语言处理等许多领域都取得了惊人的进步,但由于缺乏坚实的常识基础,使得它们很容易出现不可预测的、非人性化错误。常识是包罗万象的,但它的一个必要部分是几乎全人类都共享的那些“核心知识”,即我们与生俱来或者从生活中学到的知识。这不仅包括对物体、动物、他人和社会特性的广泛了解,还需要在不同情况下可灵活运用这些知识的能力。

例如,当你在路上靠近一堆玻璃时,你可以预测它们不会飞走,但一群鸟则很可能会。再比如,当你看到一个球弹到你的车前,你就知道它的后面可能还跟着一个想要捡球的小孩或小狗。从这个角度来看,“常识”一词似乎所描绘的恰好是当前人工智能所不能做的事情:利用对世界的一般知识,在事先训练或预先编程的规则之外行事。如今,最成功的人工智能系统使用的是深度神经网络。

它们是用来识别模式的算法,是从大量人类标记的例子中收集到的统计数据而训练出来的。这个训练的过程与人类的学习方式非常不同。有些基础概念似乎是我们与生俱来的,这些知识有助于引导我们理解事物——包括独立的物体和事件的概念、空间的三维本质,以及因果关系本身。

人类还似乎生来就具有社会性的新生概念:婴儿能够识别简单的面部表情,他们对语言以及语言在沟通中所起到的作用有一定的认知,他们还具有一些诱使成年人与他们进行沟通的基本策略。这些知识是如此的基本和直接,我们甚至都意识不到它们的存在,或者意识不到是它们构成了所有未来学习的基础。从数十年的人工智能研究中,我们收获的一个重大总结就是,将这些概念传授给机器是一件多么困难的事。

除了与生俱来的知识,儿童还会表现出主动探索世界的内在动力,他们想弄清事件的前因后果,做出预测,还会邀请成年人教他们那些他们想要知道的东西。概念的形成与儿童运动技能的发展以及对他们对自身身体的认识紧密相关,例如,婴儿在能伸手给自己拿东西的同时,也开始思考为什么其他人也能拿到东西。

而当今最先进的机器学习系统都是始于一片空白,它们被动地行使职责,是没有身体的统计模式学习者;相比之下,婴儿的常识是通过与生俱来的知识与具体的、社交的、主动的、旨在创造和检验世界理论的学习相结合而增长的。给人工智能系统植入的常识主要集中在对人类知识的编目上,这包括手动地编程、众包或网络挖掘常识的“判定”,或千篇一律的情况的计算表达。

但是所有的这些尝试都面临着一个主要、甚至有可能是致命的障碍:我们的大部分核心直觉知识是没有被写出来,也没有被说出来的,它们甚至不在我们的意识感知之中。美国国防部先进研究项目局(DARPA)是人工智能研究的一个主要资助机构,他们最近启动了一个为期四年的“人类常识基础”项目,采取了一种不同的途径。

研究人员要创造一个从“经验”中学习的人工智能系统,以获得与18个月大的婴儿相同的认知能力,这对他们来说是一个挑战。让人工智能去与婴儿相匹配是一个巨大的挑战,这听起来似乎有些奇怪,而这恰恰反映了人工智能在特定、狭窄领域的成功与更普遍、更强大的智能之间的鸿沟。根据发展心理学家的说法,婴儿的核心知识是在一个可预测的时间尺度上发展起来的。

例如在2-5个月大的时候,婴儿会显示出获取了“物体恒存性”的知识:如果一个物体被另一个物体挡住了,那么被挡住的物体仍然存在,即使婴儿看不见它。在这段时期,婴儿也表现出能意识到当物体发生碰撞时,它们不会穿过彼此,而是运动轨迹会发生变化;他们也知道“代理人”,即可行使意图的实体,比如人或动物,可以改变物体的运动。

到了9-15个月大时,婴儿会有一个基本的“心智理论”:他们能理解别人能看到什么或不能看到什么,而到了18个月大时,他们能识别出别人何时需要帮助。由于18个月以下的婴儿无法告诉我们他们在想什么,所以一些认知阶段得靠间接的推断,比如进行“期望悖反”(违背预期)的测试实验。在测试中,婴儿会观看两种场景中的一种,其中只有一种符合常识预期。这个理论认为,当出现违反预期的情景时,婴儿会花更长的时间来观察。

而事实也证明,在这种测试方法下,婴儿会盯着不合理的情景看更久。在DARPA的“人类常识基础”这项挑战中,每个研究小组都负责开发一个计算机程序,它就像是一个模拟的“常识代理人”,懂得从视频或虚拟现实中学习知识。DARPA的计划是通过采用类似于在婴儿身上进行的实验,并测量这些代理人对“违反预期信号”的反应,来评估这些代理人的表现的。这并不是第一次用测试人类智能的系统来评估人工智能。

2015年,一组研究人员发现,在一场智力测试中,人工智能系统的成绩可以媲美于4岁儿童的智商测试成绩,当时英国广播公司(BBC)报道称:“人工智能的智商相当于4岁儿童的智商”。最近,斯坦福大学的研究人员设计了一项“阅读”测试,成为了《纽约邮报》的报道“人工智能系统在阅读理解方面打败了人类”的基础。然而,这些标题是具有误导性的。

与在这些测试中同样表现出色的人类不同的是,每个人工智能系统接受的都是某一个狭窄的领域的专门训练,它们不具备任何一般能力。正如纽约大学的计算机科学家Ernest Davis所警告的那样:“公众很容易因为人工智能系统通过了某个测试,就得出结论认为它们拥有了通过同样测试的人类的智力。”我认为DARPA的计划有可能发生类似的事情。

它可以产生一个受过专门训练来通过DARPA的认知阶段测试的人工智能,但它们却不具备在人类身上的这些阶段性的一般智力。我想,无论是使用百科全书、培训视频还是虚拟环境,都没有通往实际常识的捷径。若要加深对世界的理解,一个代理人需要具备正确的先天知识、正确的学习架构,以及在世界上主动成长的机会。它们要体验的不仅是物理现实,还应该体验人类智力的所有社会和情感层面,这些都是我们的“认知”能力不可或缺的部分。

虽然我们已经取得了卓越的进步,但我们这个时代的机器智能仍处于狭隘且不可靠的处境。为了创造更加通用、更值得信赖的人工智能,我们可能需要朝相反的方向大胆后退一步:将机器的学习方式设计得更像像婴儿,而不是对它们进行专门的训练以求它们能成功地达到某个特定的水准。毕竟,父母不会直接通过训练来让孩子表现出“违背期望”的信号;婴儿在心理学实验中的行为只是他们拥有一般智能的一个表现。

如果我们能弄明白如何让机器像孩子一样学习,也许经过几年的好奇心驱动、物质和社会学习,这些年轻的“常识代理人”最终将成为明智到足以托付汽车钥匙的青少年。

UUID: 83ae7d13-ce84-4680-a3f3-d47f4c6143b3

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/原理公众号-pdf2txt/2019年/2019-06-07_停,还是不停?.txt

是否为广告: 否

处理费用: 0.0066 元