人工智能(AI)早已渗透到我们生活的各个角落。它不仅是围棋、电子游戏等竞技中战无不胜的最强对手,还正帮助各个领域的科学家解决难题。无论是哪种AI,都离不开强大的计算系统的支持。在这样一个“AI时代”,来自全球数十家AI领军机构的计算系统“同台竞技”又是一种怎样的体验?
著名的机器学习开放联盟MLCommons每年都会组织名为MLPerf的基准测试,它们能够在AI计算系统的速度和效率等方面给出统一的测量标准,并让研究人员通过比较各种技术创新,推动最佳创意和解决方案的进步。
MLPerf测试每年有4次,其中包括训练性能测试和推理性能测试。为了更好地理解这个语境下的“训练”和“推理”,我们可以先简单说一说AI的工作原理,它们为什么如此与众不同,如此富有魅力。
AI学者贾内尔·沙内在《你看起来好像……我爱你:AI的工作原理以及它为这个世界带来的稀奇古怪》一书中举了一个生动的例子:如何训练AI讲笑话。如果采用传统编程让计算机讲一则笑话,我们就必须把笑话中所有“规则”用程序语言告诉它。但训练AI截然不同,许多AI专家都认同,和传统编程相比,编写AI程序更像“教学生”。
在MLPerf测试中,训练性能测试相对简单。它主要分为单机和集群两种场景,考察计算系统完成主流AI模型训练的时间,完成得越快,自然意味着系统性能越强。但此次公布的推理性能测试则更加全面,设置上也更复杂,它就像体育比赛中的全能比赛或者铁人三项,更准确地说是“铁人33项”。推理性能测试针对不同场景,设置了各种指标,考察计算系统完成各类AI任务的速度和能力。它也因此成为行业中的权威标杆之一。
这次MLPerf推理性能测试共有19家机构参与,总计超过千项数据被提交。其中,浪潮AI服务器在总共33项任务中,斩获了27项冠军,其中包括数据中心全部16项冠军,以及边缘17个单项中的11项冠军,在各项任务中创下了新的AI推理速度纪录。这代表着当前最先进的AI计算水平。随着AI应用在各个行业中的持续深化,更快的推理速度将带来更高的AI应用效率和能力,加速产业智能化转型。