误解四:“简单的程序修补就能解决AI的控制难题。”
假设创造出比人类更伟大的AI,我们将面临一个严重的问题,那就是:控制问题。如何在家里安置以及控制ASI?如何确保ASI对人类是友好的?在这些问题上,未来主义者和AI理论家们完全不知所措。最近,佐治亚理工学院的研究人员天真地认为AI可以通过阅读简单的故事来学习人类的价值观和社会习俗。这可能远不是读几个小故事能解决的。
“人们推荐了很多可能解决整个AI控制问题的简单技巧,”阿姆斯特朗说。示例包括为ASI编写取悦人类的程序,或者仅仅使ASI作为人类的工具使用。再或者,我们可以将积极的概念,比如爱或尊敬整合进他的源代码。为了防止ASI对社会只有单一偏激的看法,我们可以给它编写欣赏智力、文化和社会多样性的程序。
但是这些方法要么太过简单,这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。比如,对“尊敬”这个词,要确定内涵一致又普遍接受的定义是极度困难的。
“并不是说这些简单的技巧是没用的。这些对策里面有很多给研究指明了道路,对解决这个终极难题有所帮助。但是这些只是想法,具体的操作还需要我们做更多的开发研究工作。”阿姆斯特朗说。
正如《机械姬》里所描述的一样,要控制比人类还聪明的人工智能将会十分困难
误解五:“人工超智能很聪明,不会犯错。”
电影《少年透明人》(1957)中的超级计算机
AI研究者兼Surfing Samurai机器人开发者Richard Loosemore认为大多数假设的AI毁灭世界的情景都不符合逻辑。人们总假想在这种情景下,AI可能会说:“我知道毁灭人类文明只是我的设计故障,但我不得不这么做。”Loosemore指出如果AI像这样打算毁灭人类时,那它一生会很多这样的逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。他还断言,那些认为“AI只会按照指定程序做事”的人,与当初用这样的话评价电脑不具备灵活性的人一样,犯了同样的错误。
就职于牛津大学人类未来研究所(Future of Humanity Institute)的皮特麦金泰尔(Peter McIntyre)和斯图尔特阿姆斯特朗(Stuart Armstrong)都对此有不同看法。他们认为人工智能将很大程度上受到编程的限制。他们相信AI也会犯错误,或者他们还没有聪明到了解人类想从他们那里得到什么。
“从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。”麦金泰尔如是告诉Gizmodo。 “它将十分清楚我们用他们来做什么。”麦金泰尔和阿姆斯特朗相信AI只会做程序编写的任务,如果它能变得足够聪明的话,它将能理解依照程序完成任务与领略规则精髓的不同,也将能理解人类的意图。
麦金泰尔把人类未来的困境比作老鼠的困境。老鼠想要在人类居所寻求食物和栖息地,人类不愿居室内有老鼠,两者冲突。麦金泰尔说,“正如我们明白老鼠的目的,超级智能系统也能知道人类想要的,但仍对此漠不关心。”
误解六:“我们将被超级人工智能毁灭。”
没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者Eliezer Yudkowsky所说:“AI既不会恨,也不会爱,但人类由原子构成的,除了智能以外,人类还有感情。”
牛津大学的哲学学者Nick Bostrom在他的书《超级智能:路径、危险与策略》中提到,真正的超级人工智能一旦完成,将比以往人类的任何发明都危险。一些著名的学者如Elon Musk, Bill Gates, and Stephen Hawking(后者曾警告AI也许是人类史上最糟糕的错误)也提出了警告。