人类对人工智能十大误解:AI很聪明不会犯错?

  但是这些方法要么太过简单,这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。比如,对“尊敬”这个词,要确定内涵一致又普遍接受的定义是极度困难的。

  “并不是说这些简单的技巧是没用的。这些对策里面有很多给研究指明了道路,对解决这个终极难题有所帮助。但是这些只是想法,具体的操作还需要我们做更多的开发研究工作。”阿姆斯特朗说。

  5. “人工超智能很聪明,不会犯错。”

  AI研究者兼Surfing Samurai机器人开发者Richard Loosemore认为大多数假设的AI毁灭世界的情景都不符合逻辑。人们总假想在这种情景下,AI可能会说:“我知道毁灭人类文明只是我的设计故障,但我不得不这么做。”Loosemore指出如果AI像这样打算毁灭人类时,那它一生会很多这样的逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。他还断言,那些认为“AI只会按照指定程序做事”的人,与当初用这样的话评价电脑不具备灵活性的人一样,犯了同样的错误。

  就职于牛津大学人类未来研究所(Future of Humanity Institute)的皮特?麦金泰尔(Peter McIntyre)和斯图尔特?阿姆斯特朗(Stuart Armstrong)都对此有不同看法。他们认为人工智能将很大程度上受到编程的限制。他们相信AI也会犯错误,或者他们还没有聪明到了解人类想从他们那里得到什么。

  “从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。”麦金泰尔如是告诉Gizmodo。 “它将十分清楚我们用他们来做什么。”麦金泰尔和阿姆斯特朗相信AI只会做程序编写的任务,如果它能变得足够聪明的话,它将能理解依照程序完成任务与领略规则精髓的不同,也将能理解人类的意图。

  麦金泰尔把人类未来的困境比作老鼠的困境。老鼠想要在人类居所寻求食物和栖息地,人类不愿居室内有老鼠,两者冲突。麦金泰尔说,“正如我们明白老鼠的目的,超级智能系统也能知道人类想要的,但仍对此漠不关心。”

  6. “我们将被超级人工智能毁灭。”

  没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者Eliezer Yudkowsky所说:“AI既不会恨,也不会爱,但人类由原子构成的,除了智能以外,人类还有感情。”

  牛津大学的哲学学者Nick Bostrom在他的书《超级智能:路径、危险与策略》中提到,真正的超级人工智能一旦完成,将比以往人类的任何发明都危险。一些著名的学者如Elon Musk, Bill Gates, and Stephen Hawking(后者曾警告AI也许是人类史上最糟糕的错误)也提出了警告。

  但没有什么事是可以确定的,没人知道AI将采取什么行动以及如何威胁到人类。正如Musk指出的,人工智能可以用来控制、调节和监视其它人工智能。也许可以它灌输人类的价值观,使之毫无保留地对人类保持友好。

  7. “我们不应该害怕AI。”

  一月份,脸书创办者马克扎克伯格说我们不应该害怕AI,AI会为世界带来难以估量的好处。扎克伯格只说对了一半。我们随时准备从AI身上收获巨大的利益——从自动驾驶汽车到新药物的研制,但是没有人能保证AI的所有影响都是良性的。

  高度智能化的系统也许了解某一特定任务的一切,例如解决令人厌烦的财务问题,或者黑进对手的系统。但是在这些特殊领域之外,高度智能系统会变得极其无知无觉。谷歌的DeepMind系统精通围棋,但除围棋以后,它在其他方面没有探索的理性和能力。

  8. “AI和机器人造成的风险是相同的。”

  这是一个特别常见的错误认识,不加鉴别发布消息的媒体和好莱坞电影比如《终结者》系列使这一错误更加深入人心。

  如果一个超级人工智能比如天网想要毁灭人类,它不会使用端着机枪的机器人。其实还有更高效的办法,如散播瘟疫,引发纳米级灰雾(grey goo,具备自我复制能力的微小机器人)灾难,甚至仅仅破坏大气层。人工智能有潜在的危险,不是因为它所昭示的机器人的未来,而是它在世界上的自我定位。

  9. “未来的AI和科幻小说里的AI是相同的。”