但是今天,如果我们问顶级的科学家们,世界末日有没有,可能会得到一个答案“有”,如果再问“世界末日”是哪一天,我们得到的答案会是“不知道”。
在宇宙137亿年的发展历程中,46亿年历史的地球,已经微乎其微。而人类出现在地球上的时间,只不过两三百万年,人类的文明从起步到今天,也不过2万年以内的事。举个例子,如果把地球的历史比作一天的24小时,人类的出现时间是在23:57分。也就是说,人类文明的历史放在茫茫的宇宙中,可能就像漆黑的森林中,偶尔一只萤火虫发出的微弱的光芒。很难说我们人类文明会不会一直延续下去并与宇宙共存亡。考古发现也证明,属于恐龙的世界灭亡了,龙类世界的“世界末日”已经清晰的摆在地球上供我们人类去参观研究。如果人类无法应对外力对人类文明的入侵(比如小行星撞地球),如果人类无法把握文明的走向(比如人工智能),人类的“世界末日”是早早晚晚要来到的,只是这个时间点,我们今天还无法预知。
但是当代最伟大的科学家(没有之一)斯蒂芬·威廉·霍金教授预言:
“人工智能在并不遥远的未来可能会成为一个真正的危险,它可以设计改进自己,使得它们比我们所有人都更聪明。“
我们可以在现代科技的基础上做一推演,未来的某一天(人类未来学家尼克·博斯特罗姆预言在2075年),我们人类的计算机科技发展到极高的水平,利用计算机技术,人类迈过了强人工智能的最后一道门坎——完成了人体大脑的设计,并将之赋予超出人类的智商,在高速互联网的联接下,这一设计被迅速复制到全球其他地方,并被纳米技术及生命合成技术3D打印出来,一个超出人类智商的“强人工智能”诞生了,它会自我复制,自我升级,自我改进,在很短的时间,地球上出现了一个新的物种——“人工智能“,它们可以随时找到散落在全球的核武器、生化武器,并随时可以启动引爆按钮,在它们眼里的人类,就如我们今天人类眼中的黑猩猩,是低等生物而不是伙伴和母亲。”人工智能“拥有人类无法比拟的智力和能力,但它们没有人类的情感、伦理、道德和法律。它们在这个星球上可以为所欲为,最终,在”物竞天择“的进化法则中,它们无情的将人类踢到进化的舞台之下。
让我们一起再看一次霍金教授的论述:
人类在下一个世纪可能面临人工智能的大规模崛起,这些人工智能的智力超过人类。与其担心谁来控制人工智能的问题,人类更应该担心的是,人工智能到底愿不愿意被人类控制。人工智能可能导致人类的灭绝,在接下来的100年内就将人类取而代之。如果这样的事情早晚成为现实,我们今天就要确保计算机和我们站在同一战线上。我们的未来是一场不断增长的科技力量,与人类驾驭科技的能力之间的竞争。人类不应任由人工智能发展而不加以控制,以使人工智能按照我们的意志行动。
霍金教授的预言,虽比不了“玛雅预言“有那么多的信众,但他的担忧是客观存在的。而这种担忧,恰恰是今天的人们觉得”离我们很遥远“的事情。试想一下,如果有来自外太空的文明,告诉地球人:未来的60年内,将对地球展开一场战争。相信地球上的所有国家,会立即化解掉所有矛盾,组成一个“地球脑”,交出自己的核武器,组成地球联军,联合对抗外星的入侵。因为这关系到地球的存亡和人类文明的延续。
而对比地球的存亡和人类的命运,今天的很多人更关心自己和家族的命运。那么我们设想,今天我们去街道上随便问个爷爷奶奶,你的儿子或者孙子就要被外星人抓走了,你怎么办?爷爷奶奶肯定说,在哪里,我和它拼命!很不幸,60年后的我们,就是孙儿的爷爷奶奶,我们将与我们的子孙们一起面对人工智能的到来。