炒作人工智能的危害

人类总是容易被一些美好的概念所打动,比如人工智能(AI)。回溯过去的五十年里,人工智能总是被一次次宣扬地仿佛就要成为现实。最近,一批关于人工智能的憧憬随着新一年趋势的展望,似乎又要卷土重来。但纽约大学神经科学家加里·马库斯(Gary Marcus)在《纽约客》网站发表文章,称人工智能(AI)还有很长的要走,过度炒作会危害它的发展。因为透支读者的期许,最后会让他们无法再信任并理 解这个技术的未来。

/uploads/allimg/140103/110603C35-0.jpg

作为证据,他介绍了目前领先的“深度学习”系统Deeply Moving,并谈到了AI面临的最大挑战。毕竟复制人类的大脑,真不是一件容易的事情。

以下为全文摘要:

从《纽约时报》近日发表的一些文章来看,真正的人工智能似乎指日可待。对于科幻剧集《太空堡垒卡拉狄加》的粉丝来说,这听上去倒是令人兴奋。但心理学家、认知科学家和科普作家史迪芬·平克(Steven Pinker)看过这些文章后,给我发来一封电邮,说:“我们又回到1985年了!”1985年,正是主流媒体上一次对神经网络大肆炒作的时候。

炒作有什么危害?

“过去五十年里,炒作已经把AI害死了四次。总是有人宣布马上就会取得什么成就(通常是为了打动潜在投资者或资助机构),然后却无法拿出成果。于是反噬接踵而至。”Facebook新建的人工智能实验室的主管、纽约大学研究者伊恩?勒坤(Yann LeCun)在Google+的一篇帖子中说。它相当于是发给媒体的一封公开信。

现在的AI肯定比几十年前强大了很多。谷歌、苹果、IBM 、Facebook和微软都在这方面进行了较大的商业投资。创新产品也已经出现,比如可能很快就会推向市面的无人驾驶汽车。神经形态工程学(注:Neuromorphic Engineering,建立类似大脑处理信息的器件,往往是模拟的方式)和深度学习(注:Deep Learning,是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络)的发展固然令人兴奋,但它们能否真的产生人类级别的AI,目前尚不清楚——尤其是在涉及到“理解自然语言”等一些充满挑战性的问题时。

“深度学习”系统Deeply Moving

研究者已经开始用深度学习来理解自然语言,但迄今为止,成果都相当有限。已经公开的系统中,最好的可能就是斯坦福大学的Deeply Moving了,它用深度学习来理解人们的影评。有趣的部分是,你可以亲自尝试,把一则影评的内容剪切和粘贴进去,马上就能看到这个程序对它的分析结果,你甚至还可以教导它进行改善。但这个深度学习系统的效果令人失望。

比如说,它不能讲述一篇影评的大意,也提炼不出来评论者喜欢电影的哪些方面。这种事情连六年级小学生都能办到。

这个系统大概唯一能做的事情,就是进行所谓的情感分析,即判断一篇影评到底是“好评”或“差评”。比如你输入“这部电影比《猫》强”的评价,该系统可以正确地判断出这是好评。但即便只能做这样的判断,它也未必总是判断正确。

我从烂番茄网站上找了一则影评来测试它,内容是“《美国骗局》是一部松散、超长、超喧嚣的故事,演员也选得不怎么样,但当你走出影院的时候还是会感到非常兴奋。”很明显,评论者是采用了先抑后扬的修辞手法,或者是认为这部电影的整体效果大于各种元素的简单叠加,但Deeply Moving深度学习系统分辨不出来,它跟我说,这则影评是非常差的差评。

我的一个朋友也用“这不是一本可以被忽略的书”和“关心这个问题人都不该忽视这本书”做了测试,结果第一个被判为差评,第二个判为中评。如果说Deeply Moving是深度学习系统中的佼佼者,那么真正的AI(可以阅读报纸,就像人类那样)前面还有很长的路要走!

言过其实地宣传新技术,可以在短期内激发大家的热情,但常常也会带来长期的失望。正如勒坤在Google+帖子上说的:如果初创公司声称对一些随机任务有“90%的准确度”,请不要相信;如果一家公司说“我们正在依照人脑计算原则,开发机器学习软件”,那你就更要多一个心眼了。

AI面临的最大挑战

我认为,AI面临的最大挑战跟常识性推理(common-sense reasoning)有关。像深度学习和神经形态工程学这样的时髦新技术,让AI程序员侧重到一个特定类型的问题上,这个问题关乎于给熟悉的东西分类,但是跟如何应付我们以前没有见过的东西,就没有什么关系了。

虽然机器在给它们可以识别的东西分类方面,以及在某些任务(比如语音识别)获得了显着改善,但在其他方面(比如理解有一个扬声器意味着什么),进展却比较缓慢。

神经形态工程可能会出现令人兴奋的进展,但也许需要比较长的时间。近日,包括亨利?马克拉姆(Henry Markram)在内的一些神经科学家,对目前实施的神经形态系统表示了怀疑,因为它们对大脑的表现过于简单化和抽象了。

我同意马克拉姆的看法。很多AI程序员,似乎都侧重在寻找一个单一的强大机制(深度学习、神经形态工程学、量子计算,或其他东西),以便从统计数据中导出一切。这种做法过于简单化了。

总之,我觉得大家有必要记住一个基本事实,即人类大脑是已知宇宙中最复杂的器官,我们几乎仍然不知道它是如何运作的。谁说复制人类大脑的威力会很容易?