在数据保护和人工智能技术监管方面,欧盟一直走在立法实践的最前端。
当地时间4月21日,欧盟委员会公布了名为“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts”的草案,对人工智能技术应用进行了风险评定。
根据这份草案,欧盟将全面禁止大规模监控和利用人工智能技术的社会信用体系,同时对特定领域的“高风险”应用进行严格限制。2020年2月19日,欧盟委员会曾发布了名为“White Paper on Artificial Intelligence - A European approach to excellence and trust”的白皮书,就如何促进人工智能发展及解决相关风险进行了讨论。
而21日发布的这项草案正是白皮书的法律延伸,目的在于为实现可信赖的人工智能生态系统提供牢固的法律框架。一旦得到通过,这项法案将在很大程度上对其他地区的人工智能治理带来影响,就如2018年5月25日生效的《欧盟一般数据保护条例》(GDPR)一样。欧盟竞争事务负责人Margrethe Vestager在公布草案时表示:“通过标志性法规,欧盟正在确立全球规范,以确保人工智能是一项值得信赖的技术。
通过制定标准,我们可以为符合伦理的人工智能技术铺平道路,并确保欧盟在此过程中保持竞争力。”Politico专门负责AI报道的Melissa Heikkilä则认为,这个草案有着一定的先发优势,它将在很大程度上影响由欧洲理事会、经合组织、北约、联合国教科文组织和七国集团主导的全球人工智能伙伴关系(Global Partnership on Artificial Intelligence)的探讨。