我们正处于一个新的数字鸿沟的临界点。有人拥抱人工智能时代的到来,有人则更愿意选择相信人类专家——即使他们会犯错。除非你生活在与世隔绝的深山老林,否则你或许已被淹没在有关机器学习和人工智能(AI)的新闻之中。
随着一系列的技术突破,AI似乎已经可以对未来做出预测:警方部门用它来绘制犯罪可能发生的时间和地点;医生用它来预测病人最可能发生心脏病或中风的时间;研究人员甚至试图赋予AI以想象力,以便让其能对意想不到的后果提前做出准备。
当然,我们生活中的许多决策都有赖于优秀的预测,而AI在预测方面几乎总是胜过人类。然而,面对所有这些技术进展,我们似乎仍对AI的预测缺乏信心。根据最近的调查显示,人们不喜欢依赖AI,而更愿意相信人类专家,即使这些专家们出错了。如果我们想让人类真正受益于人工智能,就必须找到让人们信任它们的方法。在那之前,我们需要先了解为什么人类不愿意相信人工智能。
举个例子,IBM对Watson肿瘤解决方案项目的推广简直是场公关灾难。使用世界上最强大的超级计算机系统来向医生推荐最好的癌症治疗方案,似乎是直接从科幻电影中照搬的无畏构想。这一AI项目可承诺为占全球病例80%的12种癌症提供最高质量的治疗方案。至今全球已有超过14000名患者收到根据计算结果得出的建议。
当医生刚开始接触Watson时,发现他们自己陷入了一个相当困难的处境。
一方面,如果Watson提供的治疗方案与医生自己的观点一致时,他们就无法看到Watson的建议有多大价值。超级计算机只能简单地告诉医生一些他们已经知道的东西,并且这些建议并没能改变实际的治疗。这可能使医生们感到心安,让他们对自己的决定更有信心。而IBM也还未提供能证明Watson确实提高了癌症存活率的证据。
另一方面,如果Watson提出了与专家相左的建议,医生们通常会得出的结论是:Watson能力不够或将非传统的解决方案归咎于系统故障。更重要的是,机器无法向人类解释为何它的处理是合理的,因为人类并不能完全理解它太过于复杂的机器学习算法。因此,这反而导致了更多的不信任与猜疑,使得许多医生直接忽视AI的那些看似异乎寻常的建议,而始终坚持自己在肿瘤方面的专业知识。
因此,IBM Watson的主要医疗合作伙伴安德森癌症中心在最近宣布了将要放弃这个计划的决定。无独有偶,丹麦一家医院在发现其肿瘤医生在2/3以上的病例上与Watson有着不同意见后,也放弃了这一人工智能项目。
许多专家认为未来社会将会建立在有效的人机合作上。但信任的缺乏仍是阻止这种情况发生的唯一最重要因素。Watson肿瘤解决方案的问题就是由医生根本不信任它而引起的。
人类的信任通常是基于我们对他人如何思考和了解其可靠性的理解上。这有助于创造一种心理安全感。而另一方面,AI对于大多数人来说是非常萌新且陌生的。它使用复杂的分析系统以识别潜在的隐藏模式和来自大量数据的微弱信号,从而进行决策。即使能从技术上进行解释,对大多数人来说,AI的决策过程通常也是难以理解的。
对AI的不信任可能会造成最严重的社会分裂。
因此,如果要想让AI充分发挥其潜力,我们必须找到让人们信任的方法,特别是当AI提出的建议与我们通常所用的建议截然不同时。幸运的是,隧道的尽头毕竟有光——我们已经有了一些如何提高对AI信任的方法了。体验:一种解决方案是在日常环境下为自动化应用程序和其他AI应用程序提供更多的实际操作体验。
因此,与其将索尼推出的娱乐机器人“AIBO机器狗”作为上流社会可享有的独家产品,我们更建议将这些创新变得更容易被大众接受。
洞见:另一种解决方案或许就是打开机器学习算法的“黑匣子”,让其运作方式稍微变得透明些。Google,Airbnb和Twitter等公司已经开始定期发布透明度报告。这些报告提供了有关政府要求和监管披露的信息。AI系统的一个类似实践可以帮助人们更好地理解算法决策是如何作出的。因此,让人们对机器学习系统有一个最高层次的理解,或许对缓解算法厌恶起到很大的帮助。
控制:最后,制造更多的协作决策过程将有助于信任的建立,并让AI能从人类经验中学习。在Avantgarde Analytics公司的工作中,我们也发现让人们更多地参与到AI的决策过程能提高信任度和透明度。类似的是,宾夕法尼亚大学的一组研究人员最近也同样发现,给予人们对算法的控制可以帮助人们增加对AI预测的信任。
在他们的研究中,被赋予了稍微修改算法的权利的人会对它感到更满意,更有可能相信它的卓尔不凡,并且更有可能在未来使用它。
这些指导方针有助于让AI系统对受其决策影响的个人变得更加透明和易于理解。我们的研究表明,如果人们对AI的使用拥有更多的体验和控制,而非简单地被告知需遵循神秘的计算机系统的命令,那么人们或许会更加的信任AI。人们并不需要了解AI系统复杂的内部运作,但如果他们至少得到一些有关和如何执行的信息和控制,他们就会更乐于接受人工智能。