本文为机器之心(微信号:almosthuman2014)投稿。原文作者为人工智能创业公司Demiurge Technologies 联合创始人Bragi Lovetrue,其受EETimes之邀写了这篇文章。翻译由机器之心完成。
编者按:Bragi Lovetrue是Demiurge Technologies 的联合创始人,该公司位于瑞士,旨在推进服务于人类的深度学习、类脑工程和智能机器人领域的科技突破与应用转化。作为一位跨领域科学家,Bragi 在美国纽约大学和卡耐基梅隆大学期间为了发现制约人工智能发展的根本问题,设计了一套重新改造计算机科学基础的综合性研究项目。Bragi 和他的联合创始人Idonae Lovetrue正在带领一支全球最顶尖的专家团队测试实现下一代人工智能的感知计算「图灵机」。
阿兰·图灵坚称人脑和现代计算机有着相同的计算模型,即「图灵机」。然而,约翰·冯·诺依曼认为大脑在本质上不同于现代计算机的体系结构,即「冯·诺依曼架构」。如果他们不可能都正确呢?
近期,类脑芯片的话题在全球引发了广泛关注。科学界和工业界启动了一系列先进项目打造硅基大脑,希望能够赋予下一代智能机器(无人机、机器人和自动驾驶汽车等)真正像人一样的智能。大规模协作将神经系统科学家与计算机科学家召集在了一起——比如欧盟的人类脑计划(HBP),DARPA资助的SYNAPSE项目(译者注:DARPA和IBM合作的类脑芯片研发项目),还有美国脑计划——这些都吸引了足够多的眼球,并激发着我们的想象力。
在最近参加两次相关峰会——Brain Forum和CapoCaccia Neuromorphic Engineering Workshop之后,我不禁好奇,我们对人工智能的追求,是否在朝着正确的方向迈进。
计算机是表达和处理信息的机器。自现代计算机出现以来,脑科学的目标就是理解大脑作为计算机是如何工作的,而人工智能的目标是建造出像大脑一样的计算机。但是,现代计算机的两位奠基者却在「大脑在本质上是不是现代计算机」这一议题上存在着分歧:阿兰·图灵坚称大脑和现代计算机有着相同的计算模型,即「图灵机」,然而,约翰·冯·诺依曼认为大脑在本质上不同于现代计算机的体系结构,即「冯·诺依曼架构」。
深度学习和神经形态工程学是脑科学与人工智能目标交叉融合的绝佳典范。在深度学习和神经形态工程学界有着广泛的共识——理解大脑的工作原理和建造类脑计算机都需要在保留「图灵机」的基础上彻底改变「冯·诺依曼架构」。
但是,这种观点是站不住脚的,原因在于:计算机架构只是计算模型的物理实施方案,而计算模型本质上是一种数学构建。因此,要真正改变冯·诺依曼计算架构, 就必然要改变图灵计算模型。那么什么时候会出现模型上或者架构上的根本性变革?我们应该期待哪一种变革先行到来?
通常来说,全新的计算模型会先出现于全新的计算机架构,因为科技史不断重演着这样的发展规律:原理的发现先于系统的设计。而另一方面,科学史中也有不计其数的惨痛教训表明,我们在通过反向工程自下而上地理解物理系统的数学模型时是多么的盲目。毕竟,图灵的计算模型几乎比冯·诺依曼的计算机架构早出现十年。
鉴于大脑可能是宇宙中最复杂的物理系统,我们在对大脑进行反向工程时势必会处于最盲目的状态。这种盲目已经成为人工智能历史上种种「无法兑现的承诺」的罪魁祸首。而对这种盲目的无视正在将人工智能和脑科学置于另外一场本末倒置的危机中。欧盟脑计划和美国脑计划这类项目建立了开放式的合作机制来收集海量全面的大脑数据,但缺乏对等的合作机制来探究统一基本的大脑理论。一些神经形态芯片项目,无论是IBM的TrueNorth还是高通的Zeroth,虽然都声称已经成功开发出了非冯·诺依曼的新型计算机架构,然而就背后对应的非图灵机的新型计算模型,仍无头绪。
为什么如此多聪明的头脑和资源丰富的机构在期待一场颠覆式的「革命」,但同时却在行动中转向了一次循序渐进的「演变」呢?我对上述事项的观察结论是,问题的症结在于人工智能和脑科学领域用于引导渐进式发展的基准并不适用于启发革命性突破。「演变」所需的基准衡量的是新的结果是否比以前更好,但「革命」所需的基准衡量的是新的结果是否离目标更近。比过去更好往往并不一定意味着离目标更近。工程师文化中对于渐进式改良和立即可用的偏好产生了许多非常有效的基准来引导渐进式发展,比如计算机视觉领域中的ImageNet。 但是工程师思维的盛行令人工智能与脑科学的发展更加受制于对反向工程致命缺陷的忽视,正在阻碍着革命性突破的到来。如同以「演变」的档位驾车行驶在「革命」的高速公路上,虽然我们一直在前行,但慢车速会让我们被迫从快车道切换到慢车道,在不知不觉中渐渐驶出「革命」的高速公路。虽然提出「革命」所需的基准是一项困难重重的挑战,但我们能从生物大脑和现代计算机的对比中发现一些原则性线索。
四条线索
第一条线索是生物大脑和现代计算机所处理的是不同类型的信息。从有302个神经元的秀丽隐杆线虫到拥有1000亿个神经元的智人, 生物大脑处理的是由各种感官传感器收集的感知信息。从智能手机到超级计算机, 现代计算机处理的是由程序员定义的符号信息。处理感知信息对大脑来说极其容易,但对现代计算机来说却异常困难。相反,处理符号信息对大脑来说相对困难,但对现代计算机来说却是小菜一碟。这与被认为是人工智能迄今最重要的观察—莫拉维克悖论相一致。即便大脑和图灵机都是通用计算模型,但是它们在本质上是处理不同类型信息的不同模型。
第二条线索是大脑和现代计算机有着截然不同的功耗与表现之间的动态关系。在处理感知信息方面,大脑的表现和功耗都要优于现代计算机多个数量级。对于大脑而言,功耗和算法表现存在着亚线性的动态关系,即大幅提升算法表现只需增加少量功耗。但对于现代计算机而言,功耗和算法表现却存在着超线性的动态关系,即略微提升算法表现需要增加大量功耗。 即便像IBMTrueNorth那样的神经形态架构能够达到大脑级别的功耗水平,或像FacebookDeepFace那样的神经网络模型能够达到大脑级别的表现水平,但它们没有实现功耗与表现之间的亚线性动态关系,因此并非突破性进展。
第三条线索是大脑和现代计算机有着不同的信息处理与信息存储之间的关系。就大脑而言,信息的处理与存储不可分割,大脑的每一个计算单元在信息处理和存储中都发挥着同等作用。相较之下,就现代计算机而言,信息的处理与存储相互分离,一些计算单元负责信息处理,其他计算单元负责信息存储。即便一个新的计算机架构(例如IBM TrueNorth芯片)极大缩小了信息处理单元与存储单元之间的距离,但只要信息处理和存储依然是分离的,那么这与冯·诺依曼架构并无本质区别。
传感器和感知信息的指数级增长正在加速从符号计算到感知计算的范式革命。但一个不容忽略的事实是,生物感知计算机已经存在了数亿年之久,而第一台符号计算机则出现在70年前。科学的发展史表明,许多显著的复杂系统实际上都是被一些相对简单的通用定律所支配,现代计算机就是一个范例。因此,第四条线索是感知计算机的计算模型必须要像图灵机一样简洁通用。否则,相对于由大量电力驱动的人工符号计算机,生物感知「计算机」不可能在一个能量相对匮乏并且供应不稳定的真实世界里繁荣发展并延续至今。
通过对大脑进行自下而上的反向工程以试图破解大脑的计算模型在理论上是可能的,但实际上未必可行。因为在起点的毫无头绪令我们极易浑然不知地选错方向,而在途中的各种发现带来的自我肯定令我们更难察觉起初方向上的错误, 直到尽头时,现实与预期之间的巨大反差令我们难以在耗费大量时间和资源后从头再来。但是从以上四条线索我们可以按图索骥,建立一个新的基准来指导我们以自上而下的方式探求大脑背后的通用计算模型,即感知计算的「图灵机」:大脑使用0和1来表达通过物理传感器收集来的信息,现代计算机使用0和1来表达由人类自由定义的信息。两段分别由大脑和现代计算机生成的拥有完全相同的01组合的二进制代码,却表达着截然不同的信息。大脑生成每一个比特的信息都有着特定的物理维度,而现代计算机生成每一个比特的信息则没有这样的维度。图灵机定义的符号计算从一开始就假设每一个比特本身没有任何信息维度,因此大脑的感知计算模型必然超越了「图灵机」。
等待下一个「图灵」
对于我们现在所关心的深度学习模型和神经形态芯片来说,我们处在下一个阿兰·图灵出现之前百家争鸣的阶段。神经形态计算领域一直被欧洲研究者取得的成就所主导。我在欧洲的观察也表明,这里比全世界其他任何地方都准备好了实现非图灵计算模型的突破,因为欧洲的领航者们已经建立了完备的用于测试下一代神经网络模型的基础设施:Steve Furber,当今智能手机芯片所采用的ARM架构之父,在曼彻斯特大学已经建成了世界上第一个专门用于测试下一代神经网络功能属性的数字「风洞」设施 SpiNNaker ;Giacomo Indiveri, 在全球类脑计算中心苏黎世大学已经建成世界最先进的用于测试神经网络物理属性的模拟「风洞」设施ROLLS。
正在极速增长的对人工智能普世应用的庞大需求, 使人工智能学术界与产业界正在以过去无法想象的速度融合,令人工智能的科学价值与应用价值正在以前所未有的方式统一。因此,神经网络计算模型的突破将会为全人类的生活来带来质的飞跃。我们虽然无法预测何时何地会出现下一个「图灵」,但我们一定能够共创最优的生态系统来吸引下一个「图灵」