YC专访:如何防止人工智能颠覆

Elon Musk:就像你知道的那样,我对 AI 有所顾虑已经有一段时间了。我和 Sam,和 Reid [Hoffman],和 Peter Thiel,还有其他人,谈了许多次。我们在思考,“有没有某种方法可以确保——或者提升——AI 以有益的方式发展的概率?” 作为几次谈话的结果,我们得出了创立一个 501c3 组织的结论(译者注:501 (c) 是美国国内税收法(Internal Revenue Code, IRC)中的一项条款(美国国内税收法, § 501 (c)),列出了 26 种享受联邦所得税 (federal Income tax)减免的非营利组织,501 (c)(3) 为宗教、教育、慈善、科学、文学、公共安全测试 (Testing for public safety)、促进业余体育竞争和防止虐待儿童或动物等七个类型的组织,来自维基百科):一家非营利性组织,不具有让利润最大化的义务,可能会是一件不错的事情。同时,我们也会对安全性非常重视。

那么从哲学的角度上来说就有了一个重要的元素:我们希望 AI 能被广泛传播。有两种流派的思想——你是想要 AI 的数量很多,还是很少?我们认为可能数量多是一件好事。而且从你可以将它作为人类意愿的延伸这个方面来看,这也是一件好事。

人类意愿?

Musk:就像你自身有一个 AI 的延伸部分,每个人在本质上都与 AI 共生、而不是 AI 作为一个与你无关的大型中央智能(large central intelligence)。想象一下你将会怎么使用,比如说网络上的应用:你可以收发邮件、玩转社交媒体、你的手机上还有许多其它 app——它们让你变成了一个能做很多事的超人,而你并不会认为它们是与你无关的,你会觉得它们是你的延伸。所以我们想要尽力引导 AI 往这个方向发展。我们已经找到了一些和我们有相似理念的 AI 领域的工程师和研究者。

Altman:我们认为 AI 发展的最好方式就是,它应该是关于让个人变得强大、让人类的生活变得更好的东西,对于所有人来说都是免费的,而不是一个比其他人类强大一百万倍的精英。因为我们并不是一个比如 Google 那样的追求盈利的公司,我们可以不用关注于如何让股东们财源滚滚,而是关注于对于人类未来而言,我们相信的、在实际上最好的东西。

Google 不是也将它的进展与公众分享吗?比如它最近在机器学习领域做的那样

Altman:他们的确与公众分享了许多研究成果。随着时间过去,随着我们逐渐接近那种超越人类智能的东西,Google 还会与公众分享多少成果是值得怀疑的。

你们在 OpenAI 中研究的东西不是也会超越人类智能吗?

Altman:我预期它会,但是它会是开源的,任何人都能使用,而不是只能被,比如说 Google,来使用。这个团体研发的任何东西都将对所有人开放。如果你拿去以后做了一些改变、让它适应其他用途,你也不会有义务要和公众分享你的成果。但是只要是我们做的任何工作,都会对所有人开放。

如果我是邪恶博士(Dr. Evil),我利用了它,那么你们不就是在助纣为虐吗?

Musk:我想这是一个很精彩的问题,我们为这个争论过不少次。

Altman:关于这个问题有一些不同的思路。就像科幻作品中用 “大部分人类都是善良的,而人类的集体力量中可能有一些邪恶的元素” 的事实来对抗邪恶博士那样,我们认为,比起一个单独的比其他任何东西都强大无数倍的 AI,许多许多的 AI 致力于阻止偶尔出现的邪恶 AI,这种可能性要大得多。如果那个强大无比的 AI 脱离了人类掌控,或者邪恶博士得到了它、没有东西能与它抗衡,那么我们就真的落到了很糟糕的境地。

对于 OpenAI 公布的东西,你们会有监管吗?

Altman:我们的确希望能够随着时间建立起监管机制。一开始将只有 Elon 和我。我们距离实际开发出真正的 AI 还有很长很长的距离。但我想我们将会有足够的时间来建立监管的机制。

Musk:我确实想要将一些时间花在这个团队上,大概会是每周在办公室花上一两个下午的时间来了解研究进展、提供我的想法和反馈,对于 AI 的现状和我们是否在接近一种危险的东西有一些更深的理解。我个人将会对安全性极其敏感,我对这个问题有许多顾虑。如果我们看到了某种我们认为在安全性上有风险的东西,我们会将其公之于众。