全球华语科幻星云奖由“世界华人科幻协会”设立,旨在世界范围内发掘、评选和奖励优秀的华语科幻作家、作品、编辑、出版单位等,展示华语科幻文化成果,推进华语科幻文化产业的发展。10月31-11月2日,2014年第五届全球华语科幻星云奖由果壳网在京承办,三千余人次参与了本届盛会,引起科幻出版界、电影界极大关注。
果壳网也邀请到一批国内顶尖的优秀企业参与本届大会,感谢百度、一汽马自达、七匹狼、ELIFE智能手机S5.1对本届科幻大会的前瞻性支持。
科幻其实是一种思想实验,是一种“What...if...”的未来向思维方式。近百位科幻作家、科学家与三千多位参与者在3天内共同开了无数脑洞。在以“人类的70亿种未来”为名的开幕论坛,星云奖(美)、雨果奖双奖得主、华裔科幻作家刘宇昆与上海纽约大学竹人教授组成组合,分享了“比科幻还科幻的现实” :在近未来史诗之中,属于机器、或者说人工智能的剧情,已经拉开。
很快,机器将会学习到人类的优点和缺点,像人那样犯错,模拟人类的感情。而人类已经让手机成为人类的器官,还要用穿戴设备来改变自己。在不久的将来人类将要上传自己的意识,并自由穿行于网络的空间里面。未来,机器人将要如何发展,人类应当怎样自处?
刘宇昆:机器人革命
刘宇昆正在讲述他对未来的机器人的看法。摄影师:iGreeny
我们想象中的机器人是什么样子?现实当中机器人是什么样子?科幻类电影里,机器人都是很厉害、很英雄,很聪明的。而现实中的机器人只不过是一些笨重的玩具,或者是做家务的那种很简单的机器人,这就是科幻和现实的区别。
智能机器人Baxter
今天已经出现了一种叫做Baxter机器人,它是智能的机器人。Baxter是一个很神秘,很有意义的机器人。它是两年前出厂的,大概有一个人那么重,花2.2万美元就可以买到——差不多相当于雇佣一个工人一年的价钱。Baxter的工作比较简单:配套、装箱,从流水线上把东西取下来放上去。
看起来很简单,但Baxter的特别之处是,教Baxter做新工作并不是编程,而是像师傅教徒弟一样把它的手抬起来,比划一下,把他从一个地方移动到另外一个地方,再把他的手抬起来按一些显示按纽之类的就可以了。任何一个不是计算机专业的人都能做到,这是史无前例的做法。它的意义就像在发明电子表格一样——即便不知道高数数学,仍可以做出非常复杂的数学表格。
Baxter也一样,不需要编程、不需要知道任何原理就可以教它做工作。
传统的机器人很笨重、很大,而且很复杂,我们需要花好几个月才能教会它们一个工作;它们也很危险,这种机器人一定要和人员工分开。但Baxter不是:它既便宜,使用起来又非常容易、安全。由于特别的设计,Baxter也能够在碰到人的时候停下来。而且Baxter每次软件版本升级就会变得越来越聪明,两年前的Baxter和现在的Baxter已经完全不一样了,现在的Baxter可要聪明的多。
不过就算是最新版本的Baxter,严格的来讲也没有多少智慧,那么为什么我们会对Baxter有兴趣?这个世界上,大多数工作其实不需要多少智慧,这些工作Baxter都可以完成。从摩尔定律、经济定律和人口定律推测,世界的未来将充满着机器人。Baxter的发明者罗尼(Rodney)是MIT的教授,他认为真正的人工智能并不是相信智慧等于逻辑这种传统思维。
并不是说发明人工智能就需要在电脑里建立一个世界的模型,让它从上往下产生非常理性、非常逻辑的做法。罗尼认为人工智能应该像动物学:建立一个有走路功能的大腿神经和肌肉,靠神经反射和反馈学会怎样迈步就行了——他认为这才是好的机器人。当时来中国做外包的时候,罗尼就觉得“世界工厂”没什么前途:人工成本会越来越高,而机器人则会越来越便宜。他认为美国的制造产业未来将会依赖机器人。
机器人工作,我们做什么?
在发达国家里人口老龄化是大趋势,而在发展中国家,人口结构则类似金字塔形状——青壮年是主力。目前,很多外国企业依靠外包制造提升自己的行业水平。如果发达国家使用机器人作为劳动力,发展中国家应该怎么办?就业将成为一个很大的问题:什么样的工作会留下来给人来做?
各国人口比例和总数。
先来说下服务类工作。《纽约时报》曾做过一个调查,美国经济遇到问题时,哪种岗位上的就业仍然比较多?最高的是美甲沙龙。剩下的工作都跟服务业有关系,比如照顾老年人,或者在医院里做护工。但是这种工作未来也不一定需要人来做,在欧美和日本,照顾老年人的工作已经让机器人来做了。中国最后不知道会不会有这种现象,可能现在不会有,但是日本是一个很有意思的例子。
另外一种工作就是所谓的白领。白领工作看来需要真正的“智慧”,但其实现在,或不久的未来,大多数白领的工作机器人都能做。一个叫“Quill”的程序已经能够把电子表格里的数据变成一个叙述报告——其实大多数白领工作就是这样。而机器做的会比我们更好。算法交易,就是金融上的交易,也是这样。
在2010年,芝加哥和纽约之间修建了一条光缆。一般建光缆从A到B,如果中间有岩石山脉可以绕过去,而这条是直直地穿过去。为什么要花这么多钱修这样一条网路呢?仅仅是为了芝加哥到纽约之间的网路传播时间从16毫秒缩小到13毫秒。
举个例子,这两个证券都和标准普尔500指数密切相关,它们的图表在一天,一小时,一分钟的尺度上是完全吻合的,但是在毫秒尺度上还是有区别的。如果做算法交易,3个毫秒内足够有很多机会套利。人是不可能做这种事情的,我们只能靠机器人和算法。
其他的工作,比如医生或者做律师,大家可能觉得机器人不能做,其实不然。律师第一年的时候做的那些工作,其实大多数机器人都可以做——不外乎就是写报告。大家都知道几年前的Watson——赢过Jeopardy的一个人工智能,已经可以做医生了,而且诊断的结果比人还要精确。最后一种工作则是有创造性的工作,大家觉得一定是人来做的,其实也不一定,比如Watson(沃森是一个使用自然语言来回答问题的人工智能程序)。
Watson现在已经会学着新的事情,它还可以烹饪人从来没做出过的食物。Watson很有意思,它有一个方法能够判断出新的食物组合是好吃还是不好吃,并据此发现各种各样新的食谱。结果是,大家都觉得机器人做出来的挺不错。Watson这种创造力已经从单纯的外部学习变成发展新的东西。如果你是一个画家,观赏、临摹前人的画作来启发自己是很常见的事情。
所谓的创意其实很多时候就是把以前看到的毫无相干的东西组合起来,稍微变一下,变成一个新的东西。音乐也是,机器人也能自己谱写音乐,虽然不是很伟大的作品,但是听起来已经很不错了,人们根本没法区别是人还是机器人创造的。
2011年,沃森参加问答综艺节目《危险边缘》(Jeopardy),并击败人类获得大奖。
人与机器人的未来我们和机器人的未来会是什么样子的?
按弗林效应来看,发达国家年人均的IQ似乎在逐渐升高,但是这种趋势就算是有也只是线性提高。而根据摩尔定律,计算机功能每18个月就会翻一倍,机器人绝对会比人更快地变“聪明”。而且机器人现在自己已经可以教自己,自己把自己变得更加聪明。最后的结果是,大多数工作人根本做不了,只能由机器人去做。这样对未来是好事还是坏事?
一种说法这是好事,现在世界上有70亿人,大多数人都是日复一日的做的没有任何意义的机器人的工作,如果是那样,为什么不让机器人来做?这样更多的人可以去做自己想做的有意义的事。但是如果这么多人突然间没有工作,这个世界上会变成什么样?特别在一些发展中国家就业将是一个非常大的问题,这就是坏事了。
机器人最后总是比人要厉害,这个世界上大多数工作最后都会由机器人来做,这是一个好的未来还是不好的未来?我们应该怎么看待这个问题?
竹人:机器眼中的未来
竹人老师描述他对人工智能和机器人的看法。摄影师:iGreeny
韩松老师说过一句非常精彩的话:“现实比科幻还科幻”。今天我和大家分享的,就是学界最近一些挺“科幻”的结果。
人类的历史大概有20万年,在茫茫宇宙长河之中其实只是短短短的一瞬。在这段历史中,我们又培养了一个“他者”,只有七十岁,那就是计算机。孔子说,六十耳顺,七十随心所欲。从这个标准来说,计算机这个“他者”,非但没有从心所欲,而是被我们虐着做些很苦逼的事。比如接个电话,发个消息,扮个鬼脸,最多其中的有些被派去陪宅男聊天。
大概两三年前,机器人开始玩我们人类玩的游戏。这个游戏叫Atari,是80年代风行的一个游戏,现在我们人类都废弃不玩了,因为游戏的分辨率非常低,不爽。计算机玩这个游戏的时候只是“观察”屏幕图像,然后操作游戏棒,像我们人一样,跌倒了再爬起来,爬起来再跌倒地折腾。不出意外,没花多大力气计算机就玩得相当好,而且轻轻松松地就打败了人类。
这个工作其实是一个叫DeepMind的公司做的,在去年被Google以4亿美金的高价买下。
机器人,像人类那样学习
你会问,这有什么可以值得惊讶的?深蓝打败了人类国际象棋冠军,IBM Watson在问答上也击败了人类。这些,难道不比玩Atari难出好多?奇特之处有好几个。其一是DeepMind这个系统集成了人工智能最有希望的两个大思路。
一个是强化学习,就是不断在试错中找到正确的方法,这和人学习的方法是一致的。第二,它还使用了一个深度神经网络,是一种类似大脑的计算结构。最重要的是,它只观察图像,和游戏互动,就打败了人类。这和深蓝以及Watson是本质的不同,因为这两个都是按照人类设计的规则运作的。DeepMind从最简单、最外层的观察开始,可以说是完全自学成才。
如果说宇宙是一个很大的谜团,那么人脑是如何工作在我看来是个更大的谜团,理论上说。我们认识或想象的宇宙是人脑“创造”出来的。人脑有10的11次方个神经元,和宇宙星系一个量级,但更重要的,是有10的15次方的神经元之间的链接。研究这个问题是神经科学家的事,他们做得相当的辛苦,因为毕竟我们不能打开人脑来观察所有神经元的动作和响应。
但现在,在我们眼前突然来了这么一个透明的“脑”,它的行为和我们一样甚至更好,而且我们可以观察每个神经元的动作,但问题是,我们还是不怎么明白这个脑是怎么工作的。我们教小孩子玩游戏的时候,会说这有个潜水艇那有个电脑,可是显然没有任何人去告诉DeepMind这些概念和知识。既然如此,所谓的概念和知识,究竟是什么,有什么用?这让我觉得特别不可思议。
我最近刚刚和上海纽约大学的一个计算神经学的教授共同申请的项目,考虑用DeepMind的框架实现老鼠认知实验。老鼠实验有不少数据,包括脑神经元的。这样的话,我们就有两个脑,一个“电脑”一个“鼠脑”,我们可以来做比照实验。我相信,对理解人脑的工作原理,这个项目也许会提供一些答案。这个工作相当有挑战性,未知数很大。
机器人,也将有“偏见”?
电脑和人脑之间有鸿沟,在某些区域变小,其他的在放大。要从真正意义消灭或者缩小这个距离,不但要理解我们做对的事情电脑怎么做好做快,也要去理解我们人脑怎么犯错在电脑上实现出来。现在,机器犯的某些高级错误,我们人类反而倒不会,比如“蓝屏技术”。
我们人类会犯什么样的错误?我们来看看这些图片。下面这两个动物我们都认识,左边那个是狼,右边那个是哈士奇。它们眼睛的不同是重要的判据——哈士奇比较二。哪只是狼,哪只是狗?那蠢萌的眼睛还是出卖了你啦,右边的那只哈士奇。
如果我们把它们变成独眼龙,判断不会有问题。不过像下面这张遮住两只眼睛,有时候就判不对了。为什么?
我们的一个假设是这样的。我们知道人脑的结构是分层渐进的,从见到的特征组合到复杂的,这没有问题。但我们有理由相信,你先验的判断、猜测或者偏见会关闭认知通路中的某些特征。换言之,你的偏见会影响你的认知。
这是狼还是哈士奇?两眼一黑。
我们最近完成的一个工作,对上面的这个问题做了一些探讨。当然,我们没有去分狼和哈士奇,而是构造了一个同构的问题,就是把两个叠在一起数字分开。对人来说,这需要一些猜测,以那个猜测做指引,来把两个数字分别提取出来。结果是,有挺大的成功率,但电脑也经常自以为是,以错误的猜测开始,到达一个错误的结论。这发生的概率,和图像被污染的程度有关。污染大的时候,“想”看到什么,就看到什么。
有时候,电脑在提取图像的时候和人脑一样会猜错。
这是一个很有意思的结果。解释了先入为主、指鹿为马的事情在日常生活中为什么经常发生。那么,更深层的原因是什么?
首先,我们认为人脑这种结构是进化压力下的优化结果,可以用尽量少的神经元识别尽量多的物体。但这种结构会使得污染和遮蔽影响认知的结果。这使得先验、快速的猜测有介入的必要,这样,在感觉有危险的时候不需要全面彻底但耗时的分析就能快速反应。但这样,就引入了额外的副作用。
比如说你跟女朋友走在大街上迷了路。你找街上一个姑娘问路,回来之后你女朋友很不高兴。她说你在搭讪,说明明听到你在记数字,你一定是找她要电话号码。你说没有我在问路,我在重复地址,而且雾霾这么大连那个女生长什么样我都没看清。但我相信你一定很难说服她。这是因为,从心理学上说,想法会左右观察的结果:你女朋友很爱你但她没有安全感,所以她会坚持“听到”你在问别人电话号码。
所以当一件事情刚刚出现,谣言满天飞的时候,其实就没有真相。每一个族群都会有自己的判断,这判断与其说是看到真相,不如说是在反观自己。科学控有“科学的”解释,基督教看到上帝,佛教徒看到佛光。
想看到什么,习惯看到什么,就真的“看到”。我们更多看到的,是自己心灵对世界的折射。这样的事情,每分每秒都在发生。
科幻作家和科学家之间的关系很有意思问题。科幻作家是制造理想,科学家的任务则是要么实现它,要么毁灭它。不管怎么样,科幻作家都是科学家的“领导”。你们忙起来,我们才有活儿做!(编辑:Jerrusalem)