伦理嵌入:人工智能奇点后人类自保之途?

作者: 王佳雯

来源: 中国科学报

发布日期: 2017-12-06 16:30:00

在人工智能迅速发展的背景下,科学家们讨论了人工智能的伦理问题及其对社会的影响,提出了将伦理嵌入人工智能系统的必要性,并强调了中国科学家在国际伦理规则制定中的角色。

近日,在由中科院学部科学道德建设委员会主办,学部科学规范与伦理研究支撑中心、福建省科协共同承办,《科学与社会》编辑部协办的“人工智能:在效率和安全中寻求统一”2017科技伦理研讨会上,北京大学信息科学技术学院教授查红彬表示,如果没有在伦理方面作好准备,人类将来创造出的就可能是怪物。

随着基于深度学习的AlphaGo连续战胜多位人类围棋名将,人工智能将对人类社会产生何种影响,以及人类是否存在被人工智能取代的风险等涉及人工智能伦理的讨论便从未停歇过。在查红彬看来,AlphaGo事实上还是在环境已知、规则化的封闭环境中取得的研究成果,而未来关于人工智能的研究对象应该是未知、非规则化环境中的机器人。

中科院科技战略咨询研究院研究员李真真表示,应从两个维度看待人工智能的发展,即人工智能应用带来社会智能化的过程、人工智能系统自身的发展及其引发的问题。智能化的过程令社会发生了变化,从社会生态视角来看,人工智能发展带来了人机关系的核心问题。事实上,当下人工智能的发展已经带来了诸多伦理挑战,比如是否会导致大规模失业、是否会带来个人隐私与社会安全的隐患等。

不过,与会专家更关注的是“奇点”到来后,人类将如何自处?据查红彬介绍,人工智能的技术奇点是指人工智能超过人类智力极限的时间点,“此后世界的发展将会超出人类的理解范畴”。依据库兹韦尔的“加速循环规则”,技术的力量正以指数级的速度迅速增长,技术奇点将于2045年到来。这无疑会增加人类的紧迫感,但科学家也表示,对此并非无计可施。

据浙江大学预言与认知研究中心教授廖备水介绍,他们正在考虑将伦理嵌入到人工智能系统中。在他看来,当下人工主体的探讨并没有涉及社会层面的内容,而规范主体应当是人工主体与社会规范和伦理的结合。廖备水表示,他们通过数学模型处理各种不一致情境中的推理,同时可实现不同利益攸关方的求同存异。这样便可“为解释自主智能系统的决策提供一种自然而形象的途径”。

与会专家对探讨人工智能发展的伦理框架态度积极,同时肯定了其发展对人类社会带来的益处。上海交通大学计算机科学与工程系教授吕宝粮表示,无创的可穿戴脑机交互系统可实现对人、动物在自然场景下的情绪识别和调控。“如特殊岗位的极端情绪和情感监控以及抑郁症的检测量化等都可以实现。”会上,中科院院士裴钢特别提醒,现在的伦理体系多是西方主导的伦理,这应当引起中国科学家的注意。

他建议,中国科学家应加快探讨相应伦理规则的步伐,在国际社会上发出自己的声音。

UUID: f6a28cb1-767c-47d8-990d-be234e8ee898

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/中科院之声公众号-pdf2txt/2017/中科院之声_2017-12-06_伦理嵌入:人工智能奇点后人类自保之途?.txt

是否为广告: 否

处理费用: 0.0027 元