13位最强AI达人对话AlphaGo投资人

A: 对我而言,这个预测并没有那么准确。要让 AI 成为一种类似于水电的工具服务,需要满足两个条件:

这项技术变得更为通用和能干。在很多场合下,你可以像租用计算能力这样,租10 分钟的 AI 服务。

即便 GAI(General Artificial Intelligence,通用人工智能)在经济中发挥重要作用,经济体中的其他因素仍然能发挥特定作用。

这两个观点实际上是直接矛盾的:要是 AI 变得更加强大和普及,经济体中的其他因素就会被削弱。最终,这样想吧:经济是人类制度,要是 AI 比人类能干,可能就不需要人类经济了,就像人类不需要蚂蚁经济。

用 Eliezer Yudkowsky(MIRI,Machine Intelligence Research Institute 的创办人之一)的话来说,拥有超级智慧的 AI,可以自由重组宇宙里的任意原子。它们甚至不需要赚钱来养活自己。 一旦拥有重组原子结构的能力,它们可以制造出任何它们想要的东西。

但也有人和我持不同的观点。有些人认为:即便 AI 拥有超群的智力和通用性,现有的经济体系也能维持下去。我的朋友 Robin Hanson, 一位约翰梅森大学的经济学教授,就认为超高智慧的 AI 将出现在现有的经济体系,并受其约束,而不是将它颠覆并且毁灭。

张本宇(CloudBrain 创始人)

Q: 你认为有什么比较重要的方向被低估了,且没有得到足够的投资?”

A: 我觉得是 “价值观对接研究”(value-alignment research)。这个概念第一次由斯图尔特·J·拉塞尔(Stuart J. Russell,世界首屈一指的计算机科学家)在《人工智能:现代方法总论》(Artificial Intelligence: a Modern Approach)中提出。他认为:我们需要重新定义 AI 研究的目标。不停留于单纯的智能开发上,而是开发能充分对接人类价值观的超级智慧。但从世界范围内 AI 的发展来看,这一领域在目前的研究中被极大地忽视了。

这固然是一项非常艰巨的挑战,诚如慈善评估机构 Givewell 在一份有关 AI 风险的报告中提到的:知识是可以被验证的,但价值观却不能。如果 AI 学习了错误的数据,做了错误的预估,人们会很快发现并加以纠正。但对于错误的价值观,我们是很难察觉并且纠正的。

我们没有选择,必须面对这个挑战。如果我们想要给子孙后代留一个未来,就必须尽快解决 AI 价值观对接的问题。当然,我不是说对于 AI 其他风险的研究就不重要了。

Q: 对于 AI 在 3-5 年后的研究和开发,你认为瓶颈将会是什么呢?比如说:计算机能力?或者是先前沿用冯·诺伊曼(计算机之父)理论本身的问题?人类目前有限的知识?政府的管制?或者说是因为容易赚钱的方式越来越多,导致研究人员的不足?

A: 长期以来,AI 领域缺乏富有洞见的人才,和强大的计算能力(这将极大地提升神经网络技术)。短时间内,这两个瓶颈仍然难以突破。

一个有意思的话题是 “快钱” 如何影响人才。一方面来说,高涨的需求势必会刺激供给。但另一方面,它给行业带来不少噪音,让人才难以专心研究。

从基础理论上来说,目前的 AI 技术更多采用 GPU(图像处理单元),而不是 CPU(计算处理单元)。所以在很大程度上,这个行业已经抛弃了诺伊曼的理论。

吴甘沙(前英特尔中国研究院院长、驭势科技 CEO)

Q: 你是 Deepmind 的早期投资者,推动 AI 对人类智能的赶超,同时又是剑桥 “存在风险研究中心” 和 MIT “生命未来研究所”的创始人,后者致力于探讨 AI 对人类产生存在性风险的可能性和解决方案。这两者之间存在一定的冲突。你如何在伦理和社会影响方面给 Deepmind 反馈和指导?

A: 在 Deepmind 任职期间,我们举办过一些相关的讨论会。为了 AI 未来发展的安全,Deepmind 专门招聘了研究人员,并开始与牛津大学的 Future of Humanity Institute 合作,还和 Google 创立了 “伦理与安全” 委员会。当然,作为一家资金与人员都十分有限的创业公司,DeepMind 对这一领域的贡献仍然非常有限。但我相信他们会持续投入精力做“价值观对接”的研究。