绝不开发武器!谷歌发布AI 使用七原则,但仍与美国防部合作

来源: 新智元(ID:AI_era)

发布日期: 2018-06-09

谷歌CEO Sundar Pichai发表文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标,并明确列出谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。尽管如此,谷歌并不会终止与美军的合作,将继续在网络安全、培训、退伍军人医疗保健、搜救和军事招聘方面与美国政府和军方合作。

昨天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。

上周五,谷歌宣布与国防部Maven合同在明年到期后不再续约,并表示将发布关于使用AI的新道德准则。昨天,谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。

不仅如此,Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器或其他以人身伤害为主要目的的技术、违反国际公约收集或使用信息的技术,以及违反人权和国际法的技术。Pichai在文中写道,“这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策”。

Pichai还表示,这些原则是谷歌和人工智能未来发展的正确基础。这种做法与2004年谷歌成立之初“创始人的信”中所提出的价值观一致。谷歌云CEO Diane Greene也发表了题为《Incorporating Google’s AI Principles into Google Cloud》的文章,响应新的准则。

这篇谷歌AI新准则的文章,是为了回应之前谷歌内部员工以及随后公众对谷歌与美国防部的合作项目Project Maven。该项目旨在建立一个类似“谷歌地球”的监测系统,让五角大楼的分析师能“点击建筑,查看与之相关的一切”,并为“整个城市”建立车辆、人员、土地特性和大量人群的图像。

谷歌在2017年9月底获得了Maven项目的合同,此后合作一直处于保密状态,直到今年有员工在谷歌公司内部沟通平台将这件事曝光出来。部分谷歌员工几乎是立即就站出来表示反对。之后,更有数千名员工签署请愿书,要求谷歌取消该项目的合同,数十名员工辞职以示抗议。

事件不断发酵,关于Project Maven是否有违谷歌成立之初立下的“不作恶”原则,讨论越来越多,越来越激烈。根据新智元此前的报道,谷歌的高层曾非常支持Maven项目,因为这将让谷歌云在赢得更大的五角大楼合同的道路上走得更远,但他们同时也对外界如何评判谷歌参与军事项目十分担忧。

最终,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。谷歌已经为Maven做了大量工作,并且取得不错的成果。

根据Gizmodo获取的消息,谷歌已经构建了一个系统,检测专业图像标签所遗漏的车辆;谷歌的高级工程项目经理Reza Ghanadan在一封邮件中写道,几个案例表明,模型对专业标签错过的车辆检测率准确率能达到90%。

不过,谷歌将继续与美国政府和军方开展在网络安全、培训、退伍军人医疗保健、搜救和军事招聘方面合作。这家网络巨头正在争取两项数十亿美元的国防部门办公和云服务合同。

这些原则对公司将如何遵守规则提供了有限的细节。Pichai概述了谷歌应用AI的7个核心原则,包括要对社会有益,可以构建并测试安全性,避免产生或加强不公平的偏见等。Pichai表示,谷歌还将评估其在人工智能领域的工作,考察其技术“适应有害使用”的程度。

谷歌一名要求匿名的代表坦率地表示,该公司数月来一直在制定道德准则,并将聘请外部顾问进行内部审查,以确保人工智能准则得到执行。AI是谷歌网络工具的重要组成部分,包括图像搜索和识别,以及自动语言翻译。但这也是其未来雄心的关键,很多都涉及到自己的道德领域,包括自动驾驶部门Waymo和谷歌Duplex系统,这个系统可以通过模仿人的声音完成预定晚餐的任务。

但谷歌的新限制似乎并没有减缓五角大楼的技术研究人员和工程师的速度,他们认为其他承包商仍然会竞相帮助开发军事和国防技术。美国国防部高级研究计划局副局长Peter Highnam表示,没有经营Maven项目,但因帮助发明互联网而获评的五角大楼代理机构称,DARPA的“有数百家(如果不是数千家)积极出价的学校和公司” AI等技术研究项目。

“我们的目标,我们的目标是创造和防止技术突袭。所以我们正在考虑什么是可能的,“DARPA信息创新办公室副主任约翰埃弗里特周三接受采访时说。 “任何组织都可以自由参与这个正在进行的探索。”

Pichai 署名文章:谷歌AI使用原则。以下为谷歌CEO Sundar Pichai今天发布的署名文章:AI的核心是可以学习和适应的计算机编程,它不能解决所有的问题,但拥有巨大的潜力改善我们生活。在谷歌,我们使用AI让产品更有用,从没有垃圾邮件并且更容易撰写的电子邮件,到可以自然对话的数字助理,再到突出有趣内容供你欣赏的照片。

除了我们的产品,我们正在使用AI来帮助人们解决紧急问题。一对高中生正在构建AI驱动的传感器来预测野外火灾的风险。农民正在使用AI监测牛群的健康状况。医生也开始用AI来帮助诊断癌症并预防失明。这些显而易见的好处是Google大力投入人工智能研发,并通过我们的工具和开源代码使其他人也能普遍使用人工智能技术的原因。

我们认识到,这种强大的技术对其使用也提出了同等重要的问题。人工智能如何开发和使用,将对未来多年的社会产生重大的影响。作为人工智能领域的领导者,我们深感重任。所以今天,我们宣布了七项原则来指导我们今后的工作。这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。

我们也意识到,这个领域是不断变化和不断发展的,我们将以谦逊态度对待我们的工作,对内对外都是如此,我们也愿意随时间的推移调整我们的方法。AI应用的目标。我们将根据以下目标评估AI应用。我们认为AI应该:对社会有益;避免制造或加强不公平的偏见;建立并测试安全性;对人负责;纳入隐私设计原则;坚持科学卓越的高标准;为符合这些原则的用途提供。

许多技术都有多种用途。我们将努力限制可能有害或滥用的应用程序。

在开发和部署AI技术时,我们将根据以下因素评估可能的用途:主要目的和用途;性质和唯一性;规模;Google参与的性质。我们不会追求的AI应用。除了上述目标之外,我们不会在以下应用领域设计或部署AI:已造成或可能造成整体性伤害的技术;武器或其他主要目的是导致或直接造成人身伤害的技术;收集或使用信息的技术违反国际公认的规范;其目的与国际法和人权普遍接受的原则相违背的技术。

我们希望明确的是,虽然我们没有在开发用于武器的AI,但我们将继续在其他许多领域与政府和军方合作,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。这些合作是很重要的,我们将积极寻找更多方法来加强这些组织的关键工作,并确保服役人员和平民的安全。

长期的人工智能。虽然这是我们选择的应用人工智能的方式,但我们明白,在这场讨论中还有许多观点存在空间。随着人工智能技术的进步,我们将与一系列利益相关者合作,采用科学严谨、多学科方法提升这一领域的领导力。我们将继续分享我们在改进AI技术和实践方面的经验。

我们相信这些原则是我们公司和人工智能未来发展的正确基础。这种做法与2004年我们最初的“创始人的信”中提出的价值观是一致的。

在那封信中,我们明确表示,我们打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们确信了。原文地址:https://www.blog.google/topics/ai/ai-principles/。本文转载自公众号“新智元”(ID:AI_era)。《环球科学》6月刊现已正式上市,点击阅读原文立即购买。

UUID: 1fde1372-8c86-40c7-bb58-e5b1ca94d397

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/环球科学公众号-pdf2txt/2018/2018-06-09_绝不开发武器!谷歌发布AI使用七原则,但仍与美国防部合作.txt

是否为广告: 否

处理费用: 0.0068 元