我一直觉得 David Marr 有点像是「神经科学里的图灵」。
1976年,Marr 提出了一个非常有名的概念:
了解任何复杂的生物系统都需要经过三层分析:
the computational level: 这个系统的目标是什么?(即,the goal of the system)
the algorithmic level: 实现这个目标所需的过程和计算 (即,the process and computations that realise this goal)
the implementation level: 在生物体内这套「算法」是如何实现的 (即,the precise mechanism by which the algorithm(s) are physically implemented in a biological substrate)
今天——特别是感觉人人都懂计算机的知乎上——这个概念极其容易理解。
但这并不是说「大脑就像是机器一样。」
机器和大脑有根本性的区别;机器的使命是解决一个问题,做到最好、最快、最省;大脑的使命是,在未出生之前,就用一个答案去面对无数未知的问题。前者关键在「答案」,后者关键在「问题」。
虽然「大脑的感知功能 像是一个 贝叶斯机器 (Bayesian machine)」这个概念因为 Karl Friston 的 Predictive Coding (预测编码)在大脑感知研究中称霸一方(我曾在《大脑无时无刻不在「预测」世界 》中提到过业内 @Friston 过度的现象)。但 这句话并不是说「大脑是机器」,而是指「在算法层(the algorithmic level)上,大脑的感知功能可能类似贝叶斯统计」。
虽然方向不同,但计算机学家和神经科学家走在同一条路上。
从某种程度来看,我们都在研究一个问题就是智能的感知和认知是如何工作的。只是,again,一个是有问题、需要找到答案;而另一个是已经有了「答案」,需要问正确的问题。
就现在看来,在找到那个问题和那个答案之前,我们都还有很长的路要走。如果超AI是AI的奇点,那它绝对不会在神经科学奇点带来之前,而遗憾的是,我们连神经科学的奇点到底是什么都不明确。
神经科学的发展离不开AI,AI的进步也离不开神经科学。
神经科学(或者是说 「生物智能」或「大脑智能」)对于发展人工智能(以下简写为 AI)的好处有两大方面:
第一个方面,在「如何智能」上,神经科学已经有很多话可以说。换言之,神经科学可以为人工智能带来启示,带来全新的算法和结构,这些算法或结构可能 独立于传统的、当下主流的、以数学逻辑为基础的方法,也有可能与之相辅相成。譬如说,人类大脑是如何学习理解新语言的?当我们明白这个认知功能之后,就可以将算法移植到 AI 上,或是这套算法至少是解决AI语言理解的一个优秀的备选。
这个方面非常好理解,往早期一点讲,深度学习和强化学习就是两个很好的例子。但神经科学对AI的影响并没有、也不会、仅限于AI早期的发展。当下,神经科学在注意力、情节记忆、工作记忆和连续学习上的研究也对当下的AI研究有实际影响。
这部分详情可以参考 Demis Hassabis (Alpha狗的亲爹)在7月19日《神经元》上发的综述《由神经科学启发的人工智能(Neuroscience-Inspired Artificial Intelligence)》;如果大家感兴趣,我可以慢慢把这篇综述的内容整理到专栏上来,但其实这篇综述 虽其内容极为充实,但调理清晰语言易懂,若非语言障碍,并不需要旁人整理,直接阅读也不应该有任何问题,裂墙推荐。
上个月有不少技术类媒体报道这篇综述,但总觉得口吻怪米怪眼的。我还发现,新浪新闻将相关文章(题目:《只有了解大脑 才能开发更强AI》)放在「体育–>棋牌」这个类别之下。额,alpha狗是下围棋的但并不是AI只做棋牌生意啊。
人工智能被炒到神乎其神,Hassabis这个神人脱不开关系。大多数人想到Hassabis,第一个反应估计是他是个人工智能专家、计算机学家,但别忘了,他博士是认知神经科学,主要研究记忆和想象,还把论文发在Science,是当年的全球最有影响力的10大研究之一。
最近谷歌在伦敦招认知神经科学博士,工资高的发指。剑桥和UCL作为Hassabis的母校,搞人工智能和认知神经科学的都被他挖的千疮百孔了。(快让我也成为其中一个疮一个孔吧!)
咳咳。
第二个方面,在「如何智能」这个问题上,大脑是一个已知的高分答案。对于已有的AI技术,如果我们能在大脑中找到类似的结构、算法,那么便能够认可这个技术在修建「通用人工智能系统」中的一席之位。