在新冠疫情期间,许多新技术被投入疫情防控中,包括能在戴口罩情形下使用的AI面部识别技术,AI增强的红外体温检测等。这些新技术应用能帮助有关部门定位病毒密切接触者的行踪,也能帮助社区和公共场所对进出人员的身份进行验证与管理。与此同时,这些技术的应用往往会涉及到对公众个人隐私信息的收集和使用。
然而,公众是否认同这些新技术的使用?AI技术在应用时,其数据隐私安全是否规范,公众是否有途径管理自己的隐私数据?这些问题亟待讨论。
5月17日,由北京智源人工智能研究院人工智能伦理与安全研究中心和中国科学院自动化研究所中英人工智能伦理与治理研究中心联合完成的《人工智能与健康社会系列调研报告》第一期上线,这份关于人脸识别与公共卫生的报告,探讨了公众对人脸识别等检测技术在新冠疫情期间和疫情结束后进行使用的态度。
该报告使用了一千余份在线问卷调查的结果。报告显示,受访者普遍认可人脸识别技术在公共卫生安全中的作用,但也普遍关心人脸识别的隐私问题,且多数受访者希望在疫情带来的“公共卫生危机”状态结束后,减少相关技术的使用。研究者认为,“在安全问题突出时,人脸识别技术应用易被接受;当安全问题不突出时,隐私问题则相对更被关注”。
目前我国和世界范围内针对AI技术应用的数据安全和隐私保护的现状如何?为什么我们需要在意个人数据安全?应该如何平衡社会安全的收益和所付出的个人隐私代价?
就以上问题,《知识分子》专访了北京智源人工智能研究院人工智能伦理与安全研究中心主任,中国科学院自动化研究所曾毅研究员和研究工程师鲁恩萌。曾毅指出,大多数受访者有数据隐私保护需求的,他们愿意去知道自己的数据是否安全,储存在何处,由谁管理。
对于AI和其他基于个人用户收集和利用的技术,不能因为新冠疫情这样的紧急公共卫生问题,以至不做伦理与安全评估就上线。目前,我国针对AI伦理与治理方面的原则、规范大多尚停留在软性的倡导和建议层面,AI伦理与个人隐私数据立法方面的工作未来还有很长的路要走。未来,应该鼓励关于社会安全和个人隐私如何平衡的公开探讨。