AI换脸,曾经只会困扰名人,如今却会直接影响到我们普通人的财产安全。伪造人脸盗号、转账的新闻不在少数,今年8月,就有两名犯罪嫌疑人因使用手机软件制作人脸识别动态视频,并“伪装”登录他人的网络账号盗取资金而被警方抓获。另有一则新闻提到,由于制作简单,一个视频价格仅为2至10元,“客户”往往是成百上千购买,牟利空间巨大。
根据新闻报道和法院裁定书,这类案件的非法获利几千至几十万元不等,全国各地都已经发生了许多类似案件。甚至有不法分子利用银行的人脸识别授权功能,再通过木马病毒拦截短信验证码盗取存款,涉案总金额超200万元。
AI换脸,术语是Deepfake(深度伪造),是把Deep learning(深度学习)和Fake(伪造)组合在一起,用AI把一个人的脸换到另一个人的照片/视频当中的技术。
围绕AI换脸有着相当多的“犯罪应用”,包括且不限于:攻击刷脸验证、制作虚假色情图片/视频、实时换脸通话、制造虚假信息、发布假新闻等。在这当中,刷脸验证与普通人关系最大,因为它验证的是一个人的身份,一旦这个信息被突破,你的资产安全与信息安全都会受到威胁,很容易在网络上“裸奔”。
除了Deepfake技术,还有相当多的方法可以干扰人脸识别认证,比如造一个“骗AI眼镜”。在图像识别领域的经典文献中,研究者通过数学运算设计了一种特定的“眼镜”,戴上就可以让一个人被AI人脸识别认成另外一个人。另一种骗检测设备的方式是3D面具,比如Kneron这家公司的产品,他们在2019年底声明,对于微信、支付宝的刷脸支付和火车站的人脸识别闸机,都可以戴着面具伪装成别人通过。
AI换脸,特别在哪?对普通人来说,上述技术还不必过于担心,因为它们有着各种各样的缺陷,比如“骗AI眼镜”主要是针对静态图片识别,无法突破动态人脸识别,而“人脸面具”需要定制、价值不菲且制作工艺复杂,用在普通人身上性价比并不高。但AI改变了这一切,简直把造假成本降到了“白菜价”。视频越短、像素越低、实时性要求越低、欺骗对象警惕性越低、可用素材越多,造假成本就越低。
普通人在面对AI换脸进入生活时,能做些什么来应对跟它相关的不法行为呢?针对刷脸验证身份这一类场景,伪造的视频需要通过的是人脸识别系统的自动验证,或者说“骗过”机器。普通人能做的就是平时守护好自己的个人信息,并且尽量采用多种方式结合的身份验证。如果不幸被盗刷,立刻报警,配合警察追踪不法分子、追回违法所得,同时上报平台,让平台获取更多的信息来修补漏洞、升级系统。
欺骗真人的AI换脸,比如面对个人的勒索、诈骗,还有面对大众的虚假新闻,则显得更加隐蔽和多样化。从根本上来说,有了AI换脸技术以后,普通人在面对图像信息时都应该多留个心眼,不能一味相信“眼见为实”。如果被人用伪造的裸照、不雅视频勒索,不要回应,直接报警。如果被人用伪造的视频诈骗,多渠道验证很重要,各个社交平台、邮箱、短信、电话,不要因为对方看起来很着急就想都不想地打钱。
还有一些小诀窍,可以帮助你更好地判断一个视频是不是AI换脸伪造的。关注脸型、皱纹、背景、光影、五官的位置和大小、独特的面部特征、头发、动态等,都是一些辨别AI伪造视频的要点。除了以上的理论知识,你还可以试着去这个网站实操做题,提升一下自己鉴别假视频的能力,说不定还能帮科学家对抗使用AI换脸的不法行为。
只要还有很高的潜在非法收益,不法分子就会不惜加大投入,制作更精美、更“真实”的虚假视频,去欺骗普通人、大公司、大机构乃至政府。所以,除了个人能做到的事情外,其实也更应该由政府、公司从政策法规和技术建设上不断完善和加强,让技术的进步真正造福于人类,而不是沦为伤害他人的犯罪工具。