对话DeepMind创始人:建立通用人工智能

那他的其他方面呢?孩子、朋友和正常生活?“毫无疑问,我会尽力去平衡生活,不然确实有些疯狂。”关于孩子们,最酷的地方是他们几乎成为能以相同方式占用你时间的唯一事情。

他和朋友们保持密切联系:他和DeepMind的另一位联合创始人Shane Legg相识于伦敦大学学院,他们都是PhD,对彼此比较了解,Mustafa Suleyman是他的发校他还讲了一个在剑桥和同事Dave Silver相识的过程,在业余时间他会教Silver玩棋类游戏——包括特别古老的中国棋类。我注意到,David Silver是DeepMind AlphaGo团队的主要程序员,也是最近Nature论文的第一作者。“是的,Dave和我认识很久了,我们曾梦想在我们的有生之年做这件事(用人工智能解决围棋),所以(既然我们现在已经在做),当年19岁的我们应该很欣慰,我们已经走到了这一步。”

他主动补充到:“事实确实如此,我没有太多的正常生活。每一个醒着的时刻,我都在思考问题,或许在梦中也是如此。因为这太令人兴奋了,它如此重要,这就是我最令我充满热情的事情。”

从他眼里我看到了像孩子般天真无邪的对梦想的执着。“我感觉自己很幸运,我无法想象还有什么问题能比我研究的更加有趣,因此我会每天都在思考它们。每个时刻我都在做自己真正信仰的事情。不然我为什么要做这些呢?人生如此短暂。”

如果对人工智能的忧虑真的像史蒂夫·霍金、比尔·盖茨、埃隆·马斯克、Jaan Tallinn 和 Nick Bostrom 等伟大的科学人物所说的那样,那生命会变得更加短暂。从无节制的AGI武器到对技术奇点恐惧的担忧都会导致一场“智能爆炸(intelligence explosion)”,即机器将有能力进行无限循环的自我进化,它们将能超过人类大脑的智力,也超出我们的控制力。当超级智能灾难开始显现,历史就不再是一个可靠指标,我们将无法预见到应该何时从人工智能军备竞赛中全身而退,直到这一切开始发生。罗伯特·奥本海默(原子弹之父)有句名言:“当你在某项技术上尝到甜头时,你会继续前行,只有当你获得技术上的成功后才会去考虑应该如何对待它。”几十年之后,Bostrom也提到:“如果有一种方法可以保证高级人工智能永远不会伤害人类,那这种智能就已经被创造出来了。如果没有任何办法去做出这种保证,那它们也有可能被创造出来。”霍金近期总结到:“在创造人工智能方面取得的成功将会是人类历史上最重要的事情。不幸的是,这也可能是最后一件。”

“这么说吧,我希望不会。”Hassabis不动声色的说到。在他看来,公众对于通用人工智能的危言耸听阻碍了极具潜力的近期收益,并且本质上就错了,至少时间尺度上有问题。“我们距离那种能够达到人类级别的通用智能还得好几十年,”他提醒我,“我们才爬到梯子的第一级,只是在玩游戏。”他认可有一些“合理风险需要我们现在去思考”,但显然这些并不是科幻小说里的那些反乌托邦式的场景,在那些小说里,超级智能机器总是会无情的除掉它们的人类造物主。

另外,他坚信,当涉及减少通用人工智能的潜在危险时,DeepMind同样走在了前列。虽然不像那种类似政府领导的阿波罗或曼哈顿之类的项目需要接受官方审查,但这家公司的操作相当透明。它更倾向于发布它的代码,而和谷歌的此次交易的协议中还附带一个条款:禁止将该技术应用于军事或情报用途。Hassabis和他的同事们在推动2015波多黎各人工智能大会召开方面发挥了重要作用,并在呼吁将此项技术应用于“善举”并在“避免潜在危害”的公开信上公开签字。他们最近联合组织了另一场在纽约的同类会议,而他们公司内部的道德董事会和咨询委员会目前也召集完毕(尽管是秘密进行的)。Murray Shanahan表示:“Hassabis完全了解人工智能的安全系数,他当然不是天真无知,更不是把头埋进沙子里的鸵鸟。”

“DeepMind在鼓励讨论这些事情方面是行业的领先者,”Bostrom对此表示了赞同,“在参与一些需要应对长期挑战的研究方面亦是如此。”

我让Hassabis列出他认为的最主要的长期挑战有哪些。“由于这些系统变得越来越复杂,我们需要思考如何充分利用它们,以及它们又能将什么东西进行优化,如何进行优化,”他回复道:“技术本身是中立的,但它是一个学习系统,所以不可避免的,它们会承担一些价值体系的印记和设计者的文化,所以我们需要非常小心翼翼地思考这些价值观。”