在电影《超能陆战队》中,医疗机器人“大白”只需一次简单快速的扫描,就能检测出主人的生命指数,并根据疼痛程度治疗疾病。现实当中,已经有了许多像大白这样的手术机器人、康复机器人、诊断机器人。如Somnox智能机器人枕头,它可以根据你的睡眠数据,为你制定专属睡眠治疗方案,使你整晚安眠。
除了大白以外,还有许多科幻电影中的新奇科技,正走出银幕,成为现实。图|人脑联机,用意念打字。电影黑客帝国、阿凡达中的脑机接口,已成为现实。那么,实现大白、贾维斯这样的AI,难度如何?实现AI的路线图是什么?实现AI的过程中,什么能做,什么不能做?
第八期AITime,我们邀请到了中国科学院院士张钹、加州大学洛杉矶分校教授朱松纯、北京大学教授黄铁军、中国人民大学教授文继荣四位人工智能领域顶尖学者,共同论道“人工智能的能与不能”。本期AITime由清华大学教授唐杰,清华大学副教授刘知远主持。
张钹认为,做人工智能要利用好两项资源,一是知识和经验,二是数据。没有这两项资源,做不出人工智能。需注意的是,单靠某一项资源为基础的AI模型,是有局限性的。一是机器在运用知识和经验方面,与人类相差较远;二是单纯数据驱动有不可靠、不可信、不安全、难以推广四大缺点,它的应用场合必须符合四个条件。
朱松纯完全同意张钹的观点,同时指出,从整个“能与不能”来看,如果把任务定义清楚,手中也有数据,那基本都可以做。文继荣提出异议:“我认为大白是最容易实现的,它只是医疗方面的信息助手。其次是手势交互和同声传译。自动驾驶对容错性的要求太高,除了技术难度以外,还要考虑用户接受度。情感伴侣实现难度最高,这里面包含了更复杂的东西,甚至涉及到了意识问题。”
黄铁军则认为,实现难度无法排序,但是这五个功能都能实现,甚至包括情感伴侣。我们可以构造一个全新的类脑智能系统,它有着人一样的神经系统,能在复杂环境里训练。“我们能在自然系统中长出这些功能,为什么它不能呢?我认为这个在未来机器里面是完全有可能的。”
张钹认为,由于我们对人类意识的了解很少,因此不可能对计算机意识进行科学的讨论。但人们可以从哲学的角度探讨这个问题。“我们现在的智能,是在几亿年的进化中产生的。除了进化这条路之外,会不会还有别的路?如果有别的路,就有可能通过机器技术的不断提高来解决这个问题。我不反对去做这方面的研究,但不建议技术人员去争论这个问题。”
黄铁军的观点几乎与张钹完全不同:“我们可以在技术领域去讨论、实现这件事。宋代发明指南针的时候,没有人知道电磁学、磁场、地球,所有的理论知识都没有,但这不影响中国人发明指南针。我们要先去做这个自我意识系统,而不是先解释意识背后的原理问题。”
黄铁军认为,产生自我意识,需具备两个必要条件:(1)要有一个类似甚至超越人类神经系统的物理载体,它可以被训练、被改变、被调整。最简单的是拷贝人类神经系统,做一个电子的身体。(2)要有一个复杂的环境,让它不断尝试失败和成功。其实这个很容易实现,因为地球本身就是一个很复杂的、很自然的环境。
朱松纯提出:“我不否认这种路线。就像人在做加法和减法时,动用的是完全不同的脑区域,我们也可以用不同的芯片做不同的任务。至于子任务之间如何保持自洽性、完整性,要用另外的方法来做。”黄铁军给出了否定的回答:就像图灵在论文“论可计算数及其在判定问题中的应用”中讲到的那样,不可能存在一台计算机,能自动完成所有可计算的过程,逻辑上就不通。
文继荣认为,根据人工智能的灵活性、自适应性、可解释性,可以将AI分为5个层级。朱松纯认为,这个分级在各个垂直应用行业是非常有意义的,因为目标和任务非常清楚。但在人工智能领域,这种通用的、整体的分级较难实现。张钹基本同意朱松纯的观点:“对自动驾驶这样的具体任务分级,可以帮助我们了解某一阶段究竟可以做到什么程度,对我们的研究是有意义的。
但对整个人工智能进行分级,可能性比较小,难度较高,因为牵涉的面比较宽。”
黄铁军补充道:“我觉得除了功能维度以外,还要考虑性能维度,它可以颠覆我们对功能的分级。”他举了个例子,在下围棋方面,机器人比人类要强大的多,但不能因此就说机器超越人类了,因为它靠的是速度。
张钹认为,这是个人工智能治理的问题,它涉及到三个层面,一是误用人工智能技术,二是滥用人工智能技术,三是有意利用人工智能技术进行国家与国家、集团与集团之间的对抗。这三个层面是不一样的,应采取不一样的治理方法。朱松纯认为,这个问题应该由社会来做决定,他举了个例子:“机场、火车站的人脸识别系统,给予了我们极大的方便。能不能做,要由公众来选择。如果公众通过法律不让你这样做,那就不能做。”
文继荣同意朱松纯的观点,同时补充道:“人工智能要可控,如果里面的可解释性、可控性解决不了,会很危险。”黄铁军认为,AI技术嵌入人类社会,需有一定的适应过程。在此过程中,技术要适应人类社会,人类也要适当调整以适应技术,由此形成一个和谐的共同体。“在现阶段,我们要从人的利益、幸福感出发,发展人工智能,让它造福、服务于人类。
从长远来看,我认为要跳出以人为中心的惯性思维,考虑AI在地球、宇宙意义下的长远未来,使人与AI共处、共融。”
朱松纯认为这个问题很难回答,“现在花1000美金就可以造一个杀人武器,有无人机和人脸识别摄像头就可以精准开枪,这是非常危险的。既然技术已经产生了,那么科学家无法阻止有心人利用技术作恶。最好的办法是让计算机具备一定的伦理,使它能考虑到事情的后果。”文继荣指出:“为什么大家会关心人工智能伦理?
因为我们担心AI会去做一些人不能做、不敢做、不愿做的事情,这就是边界——如果让人工智能去做一个在人的伦理评价上有大问题的事情,就要三思一下了。”
最后,黄铁军补充道:“从发展边界上来说,人工智能的‘不能’远远没有到来,它还有巨大的探索空间。人的智力是有天花板的,我们可以去创造一个全新的系统,从物理的载体能力上超越我们,帮我们突破天花板。”人工智能的“能与不能”,其实没有标准答案。很多AI技术、AI应用场景,还有很长的路要走。