谁能想到,全民换脸的时刻这么快就来临了。在一夜之间,朋友圈几乎被ZAO刷屏,亲朋好友们纷纷用自己的脸换上了电影明星的脸,“上演天下好戏”。这种以假乱真的换脸视频技术,其实已经不是什么新鲜事了。但一直以来,它还只是名人们的“烦恼”,例如担心自己成为色情片的主角。而如今ZAO的火爆却证明,换脸对常人的吸引力到底有多大。上热搜,登顶应用商店,一度被挤爆服务器,这款简单的换脸APP获得了惊人的流量。
然而在火爆之后,质疑声也接踵而至。很多人开始针对ZAO的用户协议提出批评,直指你的脸有可能被恶意利用,甚至在出现侵权问题时也可能是你来背锅。让AI技术触及大众本来是件好事,那换脸视频到底出了什么问题呢?要了解这种换脸视频是如何实现的,Deepfake技术是绕不开的话题。2017年,一位叫做“Deepfakes”的Reddit网友上传了几个色情视频,引起轰动。
令人意外的是,这些视频里的演员都是名人,比如“神奇女侠”盖尔·加朵和“赫敏”艾玛·沃森。当然这些视频并不是真的,而是借由AI技术伪造,这种技术因此得名Deepfake。
这就是被称为“生成对抗网络”(GAN)的一种深度学习技术。简单来说,要伪造视频,我们首先需要两个神经网络来参与。网络A会生成一个假的视频片段,然后问网络B这个视频是否为真,网络B的反馈能够加强网络A所生成图像的可信度。前者被称作生成网络,后者则为判别网络。就这样,两个神经网络在不断对抗中学习,直至Deepfake生成以假乱真的视频。
如今,Deepfake让“眼见不一定为实”有了新的诠释。
“无图无真相”的时代早已过去,换脸、换头甚至换声音的技术让真相变得更加扑朔迷离。在这些技术的加持下,轻易就能伪造却难以辨伪的内容,可能让社会面临种种威胁,而色情视频只是其中一个缩影。评论者们指出,任何人都将无法保护自己的隐私权和肖像权,假新闻更容易猖獗,政客甚至可以用其攻击竞争对手,别有用心的人可能借此影响股市等。
个人信息的安全也更难保证,合成的语音或视频将欺骗生物验证,例如需要真人才能验证的语音和面部识别。
面对Deepfake的泛滥,一个很自然的解决方法是,技术引发的问题交给技术来解决。从技术上来说,Deepfake会在篡改视频上留下可预测的伪造痕迹,而深度学习算法能够检测到它们。
这些算法是公开的,也有像罗切斯特理工学院的马特·怀特(Matt Wright)这样的研究者,正在尝试搭建能够探测假视频的网站,用户可以在时间轴上看到视频可能被篡改的位置。而对于Facebook这样的大平台来说,他们也会用自己开发的算法来过滤假视频。
除技术之外,我们还有办法应对Deepfake的横行吗?目前的Deepfake还无法做到非常逼真,因此有些细微瑕疵还是能够通过肉眼识别。为此,Buzzfeed总结了一些辨别方法:1.不要妄下结论;2.考虑内容的来源;3.验证这些内容都出现在哪些地方;4.检查人物的嘴部动作;5.放慢视频,仔细观察。