2013年,英国牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆做了一个调查问卷,被调查者是数百位人工智能领域的专家。问卷的统计令他本人都非常吃惊,如果说我们人类目前处于弱人工智能时代,那么最悲观的(最晚的)估计是有90%的可能在2075年人类迎来强人工智能时代的到来。他也因此写下下面这段话:
人类可能毁于自己之手,因为人类科技的发展而带来的危险,人类正陷于灭绝的危险之中。而最为糟糕的是,目前人类对此知之甚少,而且大大低估了这种风险。
而当这些技术的门坎被逐一攻破,我们将不得不接受这样的现实:在未来的几十到一百年间,超级运算、存储和识别的计算机系统,设计出超智能生物的模型,在超级生命合成科技的指导下,干预和重组细胞核(DNA),由(纳米)3D打印机(应该叫生物制造机了),复制出等同于人类智能的“人工智能生物”,然后他们开始自我进化和生产,并在很短时间创造出高出人类智商数万倍的“强人工智能生物”。并且,他们具有独立思维和独立行为,但没有情感、道德和法律。他们将开启“人工智能”的“后人工智能时代”,而他们的母亲——人类——将被他们无情的踢下物种的舞台!
如果你今年20岁,也许你会亲眼看到这一天的到来!
爱因斯坦的求助信
2013年美国《财富》杂志年度商业人物,特斯拉汽车CEO埃隆·马斯克曾经说过这样一句话:人工智能可能比核武器还危险。而斯蒂芬·霍金教授则更直截了当:“强人工智能会是人类历史上最重大的事件,不幸的是,它也可能是最后一个大事件。”
当人工智能即将来临前的几十年,我们人类似乎还没有对强人工智能的到来做好准备,甚至很多人都不知道它是什么。但我们知道核武器,知道目前全球拥有的核武器足以毁灭地球。那就让我们回过头来,看看马斯克眼中,比起人工智能还不算最危险的核武器的发展历程。
1939年8月2日,爱因斯坦给时任美国总统罗斯福写了封求助信,信中,他主要向罗斯福说了以下几个问题:
1、德国正在研制核武器,美国必须抢在德国之前研制出来。
2、由此引发的许多问题,我们要提高警觉性,建议罗斯福派一位最信任的人来领导美国的核武器研制工作。以便美国政府随时掌握核武器研制的进程。
3、请求提供经费。
罗斯福接到爱因斯坦的信后,反复思量,举棋不定。最终在1942年,决定使用军队管理的最优先级,全面开启美国研制核武器的计划,这就是后来载入史册的“曼哈顿计划”。
1945年8月6日和9日,当爱因斯坦听到美国在日本的广岛和长崎投下两枚原子弹,对平民造成巨大的毁灭性伤亡之后极度震惊,他不无遗憾的说:
“我现在最大的感想就是后悔,后悔当初不该给罗斯福写那封信……我当时是想把原子弹这一罪恶的杀人工具从疯子希特勒手里抢过来,想不到又将它送到另一个疯子手里。”
当然,历史证明,“疯子”罗斯福手里有了原子弹,比疯子希特勒要好10000倍。
历史过去了70年,站在2015年的我们,回首核武器的发展历程,至少有7次,它威胁到人类生存的安全,甚至差一点毁灭地球。
1、假如纳粹德国先行研制出原子弹(事实上,德国1928年就启动了核武器研制)。美国、前苏联,中国、欧洲大部分土地将陷于沉寂。
2、假如当时投放日本的原子弹加大了威力(当时并不知道它有多大的威力)。将彻底摧毁东亚乃至太平洋国家。
3、冷战时期,1962年古巴“导弹危机”。美苏双方在核按钮旁徘徊不定,差点毁灭地球。
4、1986年4月26日,前苏联(乌克兰)切尔诺贝利核泄漏。造成4000人死亡,辐射尘飘至欧洲大部分地区,在此之后的数十年间(2065年前),将有几十万人因此患癌死亡。