2020年2月7日-2月12日,AAAI 2020在美国纽约举办。由Freddy Lecue等人发表的可解释人工智能的演讲引发诸多关注。这场演讲发布了关于可解释AI的基础、工业应用、实际挑战和经验教训等方面的内容,是构建可解释模型的重要指南。
教程目标包括:什么是可解释的AI(XAI)?为什么可解释的AI重要?在大规模部署AI系统时,真正需要解释的实际应用是什么?在计算机视觉、自然语言处理方面,最先进的解释技术是什么?部署现有XAI系统的经验教训和局限性是什么?XAI的未来前景如何?
人工智能在未来在于让人们能够与机器协作来解决复杂的问题。可解释AI旨在通过将象征性AI与传统机器学习相结合来应对这些挑战。可解释的AI(Explainable AI,简称XAI)可定义为能够以人类可解释的方式解释其决策结果的人工智能算法及系统。
本教程简要介绍了XAI迄今为止的工作,也调查了AI社区在机器学习和符号化AI相关方面的重点工作。本教程重点介绍两种特定的方法:(i)XAI使用机器学习 (ii)XAI使用基于图形的知识表示和机器学习的组合。下面将详细解释其方法、目前的技术状态、下一步的限制和研究挑战,最后概述XAI的实际应用。
第一部分:介绍和动机。AI解释的入门介绍,描述可解释AI技术的需求。
第二部分:人工智能的解释(不仅仅是机器学习!)。人工智能在各个领域的解释概述,以使每个人都适应各种解释定义。第三部分:可解释的机器学习(从机器学习角度)。在本节中,我们解决了可解释的机器学习管道的广泛问题。第四部分:可解释的机器学习(从知识图谱的角度)。在本教程的这一部分中,我们将说明基于图的知识库与机器学习方法相结合起来的解释能力。第五部分:XAI工具的应用、经验教训和研究挑战。
我们将回顾一些XAI开源和商业工具在实际应用中的例子。