杀手机器人要来了吗?

作者: 张章

来源: 中国科学报

发布日期: 2015-06-09 18:03:07

文章讨论了美国国防部高级研究计划局推进的两个项目可能促成“杀手机器人”的研发,以及人工智能在军事和医疗领域的应用及其伦理风险。

目前,美国国防部高级研究计划局(DARPA)正在推进两个项目:“快速轻型机器人”(FLA)和“敌对环境下联合作战”(CODE)。前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序——搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成“杀手机器人”的研发。

在近日发表于《自然》杂志上的一篇评论文章中,4位相关领域的研究领军者分享了他们对智能机器社会风险的担忧和解决方案。支持方观点——积极讨论,不要厌恶机器人。1. Sabine Hauert(英国布里斯托尔大学机器人学讲师):我们并非一群恶魔,我们花费多年时间潜心研发,目的是为了开发那些能够帮助老人,改善健康,让我们的工作环境更加安全和有效率,并让我们能够探索太空和海洋的设备。

2. Russ Altman(美国斯坦福大学生物工程、基因学、医学和计算科学教授):人工智能在加速生物和医学领域的科学发现及改变医疗卫生方面有惊人潜力。人工智能系统有望帮助弄清若干新型数据:基因组学、蛋白质组学和新陈代谢组学等“组学”的测量值;电子病历;健康信号的数字传感器监控。

反对方观点——杀伤力让人类毫无招架之力。

1. Stuart Russell(美国加州大学伯克利分校的计算机科学教授):这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,“这不是我们所梦想的未来场景”。该领域的风险很高,致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。

2. Russ Altman(美国斯坦福大学生物工程、基因学、医学和计算科学教授):我有两个担忧。首先,人工智能技术将加剧目前的医疗卫生不平衡状况。例如,在美国,失业人员会经历各种水平的护理。只有特殊群体或能支付得起的人,才能获益于先进的诊断技术,这是不公平、不合理的。第二,我担忧临床医生理解和解释高性能人工智能系统所得出的结果的能力。

大多数卫生保健提供者不会接受一个来自决策支持系统的没有明确描述如何和为何能出现效果的复杂治疗建议。

怎么办?人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什么都不做就等于是表示支持继续发展和使用。专家需要成为信息传递者。

研究人员应利用社会媒体这一公共平台,诱导相关讨论变得平衡。我们能够探讨最新进展和限制因素,解开人工智能技术的神秘面纱。人工智能和机器人领域需要思想领袖,以便与霍金等杰出评论家和Elon Musk等风险投资家建立友好的关系,并在世界经济论坛等会议上设置机构等。而且,公众参与也将有助于筹集经费。

UUID: 3da5b904-f970-4e5c-bafe-c0dd27af6cd2

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/中国科学报公众号-pdf2txt/2015-2016/中国科学报_2015-06-09_杀手机器人要来了吗?.txt

是否为广告: 否

处理费用: 0.0033 元