2020年,你对AI的信任有几分?
“过度的宣传和错误的信息将导致AI寒冬再来”,纽约大学心理学与认知科学教授、畅销书作家盖瑞·马库斯(Gary Marcus)最近撰文,批评很多媒体在报道AI进展时,常常倾向于将每一个微小的新进展描述为将从根本上改变我们的世界的巨大的胜利。此外,问题也不仅出在媒体,研究人员和AI领军人物持默许态度也是在煽风点火。
马库斯认为,这类夸大的报道满足了读者的阅读兴趣,却带来了不容忽视的“AI鸿沟”:如果公众、政府和投资界认识到,他们被灌输了关于人工智能的不符合现实的观念,那么新一轮的AI寒冬可能就会开始。并且,这一切已经有预兆,包括聊天机器人、医疗诊断、假新闻检测器、自动驾驶汽车等等,过度的承诺往往导致了项目本身的死亡。
你认同马库斯的观点吗?这类“AI鸿沟”是如何造成的呢?在新书《如何创造可信的AI》中,马库斯详细论述了当前AI为何不可信赖,以及如何走向拥有常识和深度理解的可信的AI。
当前,人工智能技术已经被广泛地应用,有一些是涉及关键使命的,比如自动驾驶系统,有一些则对社会有着深远的影响,比如信息检索和内容分发等。特别是在应对目前全球面临的由新冠疫情带来的前所未有的挑战中,人工智能技术将起到越来越关键的作用。在这样的关键时机下,做出正确的判断并避免踩坑将是至关重要的,为此,马库斯追根溯源把“AI鸿沟”归纳为三种“大坑”。
第一个坑——“轻信坑”:人类在进化过程中,并没有发展出在人类和机器之间进行区分的辨别能力,这就让我们变得特别容易被愚弄。我们之所以认为计算机可以拥有智慧,是因为人类的整个进化过程都是与人为伴,而人类本身的行为是以思想、信仰和欲望等抽象概念为基础的。从表面看来,机器的行为常常与人类行为有相似之处,于是我们会不假思索地认为机器也拥有和人类一样的某种思维机制,而事实上,机器并不具备这样的能力。
我们总是控制不住自己,从认知的角度去看待机器(“这台计算机认为我把文件删除了”),根本不在意机器实际遵从的规则是多么的简单通透。但是,某些完全适合用在人类身上的推论,放到AI身上就会大错特错,这种现象称为“基本超归因错误”。在其他一些案例中,超归因错误甚至会威胁到人们的生命。
第二个坑——“虚幻进步坑”:“虚幻进步坑”的意思是,误以为AI解决了简单问题,就相当于在难题上取得了进步。
IBM对沃森的大肆吹捧,就属于此类。沃森在Jeopardy竞技节目中获胜,被认为是机器在语言理解方面走出了一大步,而实际上并非如此。DeepMind的AlphaGo很可能也会走上同样的老路。围棋和国际象棋都属于“完全信息”型游戏,任一时刻,玩家双方都能看到整个棋盘。而在真实世界的场景中,没人能100%地肯定任何事,我们所掌握的数据常常充满噪声,七零八落;就算在最简单的情况下,也存在大量的不确定性。
第三个坑——“鲁棒坑”:在业界,我们时常目睹这样的现象:每当人们找到了在某些时候能发挥作用的AI解决方案,他们就会假定,只要再稍加努力,再多一点数据,此系统就能在所有的时刻发挥作用。而事实并不见得如此。以无人驾驶汽车为例。做出一辆无人驾驶汽车的演示,在安静的道路上保持一条车道向前行驶,是相对简单的事。人们在好几年前就已经做到了。而让系统在富有挑战或预期之外的情境中工作,难度就会大增。
正如杜克大学人类与自动化实验室主任米西·卡明斯所言,问题不在于某辆无人驾驶汽车能在不出事故的情况下跑多少千米,而在于汽车本身的适应能力有多强。用她的话来说,如今的半自动汽车“一般情况下只在极窄极受约束的条件下运行,根本无从得知系统在不同的操作环境和条件下会出现什么状况”。在凤凰城经过了数百万千米的测试,且表现得无懈可击,非常可靠,并不意味着在孟买的季风天气下不会出问题。
将车辆在理想情况下(如晴天的乡村公路)的行驶表现与车辆在极端情况下的表现混为一谈,是将整个行业置于生死边缘的重大问题。行业中人对极端情况的存在视而不见,甚至连保障车辆性能的方法论都对极端情况不予理会,直到最近才开始有人翻出旧账。
《如何创造可信的AI》(Rebooting AI:Building Artificial Intelligence We Can Trust)作者:[美]盖瑞·马库斯(Gary Marcus) 欧内斯特·戴维斯(Ernest Davis)译者:龙志勇。关于人工智能的炒作总是甚嚣尘上,但要得到真正可信的AI,却远比想象的要复杂得多,超级智能的时代还远没有到来。
创造真正可信的AI需要赋予机器常识和深度理解,而不是简单地统计分析数据。《如何创造可信的AI》勾勒了未来人工智能发展的最佳路线图,对当前人工智能的现状进行了清晰且客观的评估,这本书正是马库斯对他关于人工智能观点的最佳总结。