关于AI最终能否超越人类智慧?这里通往终极答案

5.人工智能可能强迫所有人在大脑中植入芯片,将人类变成“电子人”,以便于被其直接控制;

6.人工智能可能奴役人类,包括强迫人类接受冷冻或关入集中营;

7.利用完美洞察人类生理机能的能力,人工智能也可能折磨和虐待人类,令痛苦最大化;

8.人工智能可能对人类使用杀精剂,这可以说是对人类来说最糟糕的结果,可能导致人类灭亡;

9.人工智能可能对地球造成不可逆转的破坏。地球是太阳系的重要组成部分,而太阳系又是整个宇宙的组成部分,为此可能造成连锁反应;

10.鉴于超级智能的危险我们无法完全预测到,因此还可能有其他更危险的假设发生。

亚姆博尔斯基表示,尽管这些假设听起来可能十分遥远,但人工智能的威胁必须被严肃对待。他说:“在对待人工智能的标准思维框架下,我们总是提议建立新的安全机制。然而,在网络安全研究人员在寻找安全漏洞的同时,也需要关注人工智能带来的威胁。创造人工智能失控假想清单可以更容易预防其发生。”亚姆博尔斯基与皮斯托诺认为,现在只是出现值得警惕的迹象,比如研发人工智能技术缺少监管。

对人工智能威胁论的反驳意见

在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采访时发表了对人工智能威胁论的看法,他认为人工智能研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。

Yann LeCun 提出了与威胁论支持者不同的人工智能未来发展路径,他提到大部分人觉得人工智能的进展是个指数曲线,其实它是个S型曲线,S型曲线刚开始的时候跟指数曲线很像,而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及S曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。

微软剑桥研究院主管克里斯·毕索普(Chris Bishop)认为,马斯克的极端观点可能阻碍人工智能技术的进步。他称担心智能机器人会导致人类无法继续享受机器人带来的好处。毕索普还称,任何“人工智能成为人类生存威胁”的假设近期内都不会发生,这可能是数十年之后需要讨论的问题。现在我们依然控制着这些技术,我们依然有很多路径可供选择。

中国科学院院士谭铁牛在 2015中国人工智能大会上表示“水能载舟,亦能覆舟,甚至有的时候是魔鬼,走的好把握的好了魔鬼就不会出现。所以这个我认为非常重要。所以尽管在我看到的未来人工智能还难以超越人类,但是它对人类社会影响反响很大。这是大的科技革命。”

中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃教授在“人工智能九文九答”一问中提到“我尊重任何人发表任何观点的权利,但对“人工智能威胁论”、“奇点理论”之类的论调,我的态度是坚决反对。

百度首席科学家,斯坦福大学人工智能专家吴恩达表示:“担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至都还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?”

地平线科技创始人,人工智能专家余凯相信:“即使到2029年,人工智能的进展也不会对人类产生威胁。因为那时的机器还没有好奇心,没有情感,没有自我意识。它们是智能的机器人,但不是智慧的机器人。智能是偏工具性的,而智慧会创造。”

破除争议的难点在哪?

总体看,目前包括图灵测试在内的各种方案中还存在无法定量分析人工智能发展水平的问题,只能定性的判断一个人工智能系统是否和人一样拥有同等水平的智力。但这个系统和人类智慧进行对比,高低程度如何,发展速度与人类智慧发展速度比率如何,目前研究没有涉及到可具体执行的思路和方案。