霍金最新演讲:让人工智能造福人类及其赖以生存的家园

作者: 霍金

来源: 微信公众号《长城会》

发布日期: 2017-05-06

霍金在GMIC北京2017大会上发表演讲,探讨了人工智能的崛起及其对人类的影响,强调了人工智能的潜力与风险,呼吁对其进行负责任的研究与开发。他还回答了来自中国科技界的多位专家的问题,涉及人工智能的伦理、未来科技的发展及人类面临的挑战。

前言:作为“全世界最具智慧的头脑”,剑桥大学物理学家斯蒂芬·威廉·霍金在前沿科技领域的探索和思考从未止步。4月底,霍金专门为GMIC北京2017大会做了主题为“让人工智能造福人类及其赖以生存的家园”的视频演讲,并回答了中国科技大咖、科学家、投资家和网友的8个问题。

演讲全文:在我的一生中,我见证过深刻的社会变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。是好是坏,我不得不说,我们依然不能确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许科学研究应该暂停片刻,使研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在中立于目的的中性技术上投入了大量的关注。但我们的人工智能系统的原则依然需要按照我们的意志工作。

跨学科研究可能是一条可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

文明所产生的一切都是人类智慧的产物,我相信生物大脑能取得的成就,与计算机可以达到的成就,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智慧,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧这样的结果,即创造出可以等同或超越人类的事物:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可能会发展出自我意志,一个与我们冲突的意志。

很多人认为人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能解决世界上大部分问题的潜力成为现实。但我并不确定。尽管我对人类一贯持有乐观的态度。

2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。

在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”担任科学顾问委员会的职务,这是一个旨在缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。在收获人工智能带给我们的潜在利益的同时,这封公开信号召我们也要展开能阻止潜在问题的直接研究,并致力于让研发人员更加关注人工智能的安全问题。

此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能具有根除疾患和贫困的潜力,但是研究人员必须能够创造出可控的人工智能。那封公开信只有四段文字,题目为《应优先研究强大而有益的人工智能》,在其附带的十二页文件中对研究的优先次序作了详细的安排。

在过去的20年或更长时间里,人工智能领域一直专注于建设智能代理相关的问题,即在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交融被应用在人工智能、机器学习、统计学、控制论、神经科学以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。

例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

随着这些领域的发展,从实验室研究到有经济价值的技术之间的流动,已形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更大的投入和研究。

目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的——毕竟文明能提供的一切,都是人类智力的产物;但当这种智力被人工智能提供的工具放大过后,我们无法预测我们获得的结果。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何获益并规避风险是非常重要的。

现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期两个角度来讨论。

一些短期的担忧,与无人驾驶相关,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在大事故的小风险和小事故的大概率之间进行选择。另一个担忧是致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。

还有另外一些担忧:由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险——由于不遵循人类意愿行事的超级智能的崛起,这样强大的系统将威胁到人类。如今这样的话题是否会成为现实?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

当前控制人工智能技术的工具,例如强化学习、简单的效用函数,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来解决掌控这一问题。

近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入正倾注这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。

当我们的想法被人工智能放大以后,我们无法预测我们将取得怎样的结果。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。

今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急地等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果将是全球粮食体系崩塌、末日般的动荡,很可能导致大部分人死亡。

我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控人工智能的崛起。

去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。

也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。

人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。

令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是给机器人提供作为电子人的权利,这等同于公司法人(的身份),是否有可能。

报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,进而挑战人机关系。

报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。

我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。

谢谢。

霍金答中国科技大咖、科学家、投资家和网友问:

霍金答中国科技大咖、科学家、投资家和网友问Professor Hawking, we have learned so much from your insight. Next I’m going to ask some questions. These are from Chinese scientists and entrepreneurs.

Q: Kai-Fu Lee, CEO of Sinovation Ventures: "The large internet companies have access to massive databases, which allows them to make huge strides in AI by violating user's privacy. These companies can’t truly discipline themselves as they are lured by huge economic interests. This vastly disproportionate access to data could cause small companies and startups to fail to innovate. You have mentioned numerous times that we should restrain artificial intelligence, but it’s much harder to restrain humans. What do you think we can do to restrain the large internet companies?"

A: As I understand it, the companies are using the data only for statistical purposes, but use of any personal information should be banned. It would help privacy, if all material on the internet, were encrypted by quantum cryptography with a code, that the internet companies could not break in a reasonable time. But these security services would object.

Q: Professor, the second question is from Fu Sheng, CEO, Cheetah Mobile: “Does the human soul exist as a form of quantum or another form of higher dimensional space?"

A: I believe that recent advances in AI, such as computers winning at chess and Go, show that there is no essential difference between the human brain and a computer. Contrary to the opinion of my colleague Roger Penrose. Would one say a computer has a soul? In my opinion, the notion of an individual human soul is a Christian concept, linked to the afterlife which I consider to be a fairy story.

Q: Professor, the third question is from Ya-Qin Zhang, President, Baidu: “The way human beings observe and abstract the universe is constantly evolving, from observation and estimation to Newton's law and Einstein’s equation, and now data-driven computation and AI. What is next?”

A: We need a new quantum theory, which unifies gravity with the other forces of nature. Many people claim that it is string theory, but I have my doubts. So far about the only prediction is that space-time has ten dimensions.

Q: Professor, the forth question is from Zhang Shoucheng, Professor of Physics, Stanford University: “If you were to tell aliens about the highest achievements of our human civilization on the back of one envelope, what would you write?"

A: It is no good telling aliens about beauty or any other possible art form that we might consider to be the highest artistic achievement, because these are very human specific. Instead I would write about Godel’s Incompleteness Theorems and Fermat’s Last Theorem. These are things aliens would understand.

Q: The next question is from myself: “We wish to promote the scientific spirit at all 9 GMIC conferences globally. What three books do you recommend technology leaders read to better understand the coming future and the science that is driving it?”

A: They should be writing books not reading them. One fully understands something only when one has written a book about it.

Q: The next question is from Weibo user: "What is the one thing we should never do in life, and the one thing we should all do?"

A: We should never give up, and we should all strive to understand as much as we can.

Q: The next question is also from Weibo user: “Human beings have experienced many evolutions, for example, the Stone Age, the age of steam to the age of electricity. What do you think will drive the next evolution?"

A: Advances in computer science, including artificial intelligence and quantum computing. Technology already forms a major part of our lives but in the coming decades, it will permeate every aspect of our society. Intelligently supporting and advising us in many areas, including healthcare work education and science. But we must make sure we control AI not it us.

Q: Professor Hawking, the last question is from Hai Quan, Musician and VC: “If the technology is not mature yet for interstellar immigrants, do human beings have unsolvable challenges that could lead to human extinction apart from external catastrophes like asteroid hitting earth?"

A: Yes. over-population, disease, war, famine, climate change and lack of water. It is within the power of man to solve the crises, but unfortunately these remain serious threats to our continued presence on earth. These are all solvable, but so far have not been.

本文原载微信公众号《长城会》,《知识分子》获授权刊载。

UUID: 47a8f5c9-5090-4b49-9bfb-87e46c79d02b

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/知识分子公众号-pdf2txt/2017年/2017-05-06_霍金最新演讲:让人工智能造福人类及其赖以生存的家园视频.txt

是否为广告: 否

处理费用: 0.0277 元