2018年3月14日,英国著名物理学家史蒂芬·霍金去世,享年76岁。一直致力于探索宇宙奥秘的霍金,曾经做出过哪些令人膛目结舌的预言呢?霍金2014年1月提出这一论断时,一度震惊了科学界,因为这与他自己过去提出的理论相悖。1974年,霍金提出了著名的“霍金辐射”学说,该学说是霍金对天体物理学做出的最大贡献之一。霍金在该学说中指出,黑洞在形成中质量减少的同时,还不断在以能量形式向外界发出辐射。
但一旦黑洞浓缩并蒸发消失后,其中所有信息就随之消失,与量子力学认定该类物质信息永不会完全消失的理论相矛盾。这就是所谓的“黑洞悖论”。很多年来,霍金试图以各种推测来解释这一矛盾观点。霍金认为,至少以目前为止人类概念中的黑洞来衡量,黑洞是不存在的。他进而认为所谓的“事件穹界”同样也不存在。按照相关理论,“事件穹界”是一条无法观测到的边界,边界内可以留存包括光在内的一切物质。
希格斯玻色子又被称为上帝粒子。霍金曾与美国密歇根大学的一位教授打赌,认为希格斯玻色子不会被找到。但此后,欧洲核子研究中心的科学家宣布发现了上帝粒子,霍金输了100美元。但是霍金在事后表现出对上帝粒子的担忧,并警告上帝粒子的出现可能会加快地球乃至宇宙毁灭的速度。霍金曾多次表示,“彻底开发人工智能可能导致人类灭亡”。霍金宣称,未来100年中,人类将面临比人类更聪明的人工智能的挑战。
2015年年初,霍金曾与特斯拉CEO伊隆·马斯克共同发表公开信,他们认为人工智能的发展应该受到控制。信中称,如果智能机器无法保障安全,人类可能陷入黑暗的未来。信中警告科学家们警惕人工智能将抹杀人类。2017年12月,在中国某机构举办的一个活动上,霍金再次表达了对人工智能无限制发展的隐忧。“人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。
我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。”“人工智能也有可能是人类文明的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。除非人工智能系统需要按照人类的意志工作。”霍金十分确信在地球之外的其他世界存在着智慧生命,但他警告人类应当想尽一切办法避免与这些外星生命接触。
霍金说过:“在无限的茫茫宇宙中,一定存在着其他形式的生命。”“而真正的挑战在于将外星人找出来。”霍金表示:“我们只需要看看自己,就知道智能生命是如何发展到无法自给自足的地步了。我设想他们现在就乘坐着一艘艘的大船,已经耗尽了他们星球上的所有资源。他们可能已经成为了游牧民族,伺机征服并殖民他们能够抵达的任何星球。如果外星来拜访人类,我想其结果会变得与哥伦布到达新大陆时非常相似,那对美洲土著可并不有利。
”霍金预言未来千年将是人类的大限,到时地球将难以承受人类的消耗,人类只能选择移民外星或者灭亡。霍金认为,未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此,他强调人类必须移居其他星球。霍金表示:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。
”霍金不止一次地否定过生命在死后依然延续的观点。他认为,大脑就像一台电脑,零件坏掉的时候就会停止运行。对于停止运行的电脑而言,死后既没有天堂也没有生命的延续。他认为相信有天堂和来世,只是那些害怕死亡的人的一个“童话故事”。生命的最后时刻除了大脑的颤动以外,什么也不存在。