AI摄像机傻傻分不清楚,光头裁判:离我远一点。通常情况下,AI都是非常聪明的。但是,利用深度神经网络为输入(图像或语音)进行分类的AI却总会出现一些“智障”操作,犯的错误也可以低级到让人惊叹。这种情况就是科研人员经常提到的AI的脆弱性。因为AI目前仍然非常缺乏像人类一样的对现实世界复杂性的理解能力,而导致了它有时会以意想不到的方式迅速崩溃。
由于新冠疫情的大流行,广大球迷们不能到现场去观看比赛,为了给球迷们带来更好的观看体验,苏格兰的因弗内斯足球俱乐部启用了AI摄像师。AI摄像师可以在比赛直播时追踪足球的位置,确保可以为观众持续提供比赛的最佳视角。但是,在最近的一场比赛直播中,AI摄像师被一名裁判的光头迷惑。它无法正确判断哪个是真正的足球,多次将自己的目光焦距在裁判的光头上,甚至给了特写镜头,导致观众无法正常观看比赛。
这是一个展示AI脆弱性的有趣案例。人类是不会出现这种错误,但一个对足球和人类构造都理解有限的机器学习系统来说,却很容易犯这种错误。这种错误与自动驾驶汽车所犯的一些导致致命车祸的错误是类似的相似,因为它们的视觉识别系统都不能准确地判断物体。在足球比赛上无伤大雅,但是在自动驾驶汽车上确是人命关天。
AI的发展势不可挡,我们不能否认AI为人类做出的贡献。
尤其是在全球疫情大流行的状态下,当人与人的交往受到限制时,AI发挥了它前所未有的作用。科学技术的发展从来不是一帆风顺的,AI技术亦是如此。存在弱点,受到质疑是必然要经历的过程。因此我们需要的是面对它、接受它、解决它。对于AI的脆弱性,有专家提出过解决思路。一个解决思路是给AI更多数据,让AI反复暴露在有问题的例子下,不断地纠正它的错误。而另一个解决思路是减少AI学习的数据,让其学会学习。
当训练一个新的任务时,通过复用部分或整体的预训练网络来作为训练的起始点,从而实现迁移学习,甚至进一步学会如何学习。