2017年,在加利福尼亚州阿西洛马的BenencialAI会议上,来自全球的2000多人包括844名人工智能和机器人领域的专家,基于对AI和Robot迅猛发展的深切关注,联合签署了23条AI发展原则,称为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,来共同保障人类未来的利益和安全。
虽然这23条定律可能无法得到全面落实,但仍然可以改进人工智能的开发过程,确保这些技术符合道德标准。
就在今年5月,北京智源人工智能研究院联合北大、清华等高校、科研院所和产业联盟也共同发布了《人工智能北京共识》,提出AI各参与方应遵循的有益于人类命运共同体构建和社会发展的15条原则,其中包括造福、服务于人、负责、控制风险、合乎伦理、多样包容、开放共享等原则。
但随着人工智能的快速发展,政府(Government)、公司(Private Sector)、政府间组织(Inter-govermental organization)、民间团体(Civil Society)和多方利益共同体(Multistakeholder)都对人工智能所应遵守的原则持有不同观点。这些原则究竟是大相径庭?还是有更多的共同点来表明行业规范?
有的原则在本质上是不违反道德的,有的则借鉴了人权法。这些原则对人工智能的未来发展又有何影响?
人们希望能有一种方法可以同时查看各类组织的相关原则文件,对它们进行单独的评估并确定重要的趋势。近日,哈佛大学伯克曼克莱恩互联网与社会中心的研究人员构建了一个多方原则图。当前所用的数据涉及5类大数据集,共包括37个原则文档。研究人员在每个原则中收集了多达80个数据点,这些数据点包括文档的编写参与者、发布日期、目标受众、地理范围以及关于原则本身详细数据等。
从单一科技公司对自身实施人工智能技术的指导方针,到多方利益相关者联盟,再到各国政府将伦理原则纳入整体人工智能战略,各种各样的人工智能参与者都有其所遵守的准则,他们希望能够通过比较分析找到一些关键的原则。统计发现,这些原则主要涉及了9个方面,许多文件或多或少都涉及到了这些原则,这九项原则中又包含很多主题。
但观其共性,这5类组织全都遵循问责制、隐私、安全和公平原则,可见,在目前阶段,大多数组织都对人工智能的安全、隐私、责任较为重视。但他们中有一半都没有遵循人权引用这一原则。