深度学习的坎坷之路
2012年11月23日,应该是一个让时任谷歌人工智能实验室专家的Geoff Hinton倍感欣慰的日子,在这一天,纽约时报发布了名为《Scientist See promise in Deep Learning Program》(科学家们在深度学习上看到了希望)的报道,正式标志着深度学习被学界乃至全社会完全接受,从那时开始,Hinton大神数十年的默默坚持,终于给深度学习带来了一段持续至今的全盛期。
谁也无法否认在计算能力爆炸性增长的今天,的深度学习确实取得了巨大的成就,每一个置身于AI研究行业的人或许都永远不会忘记,在李世石和AlphaGo的对决中,人们的态度由最初的漫不经心,到中间的震惊和沉默,第四局李世石战胜之后的狂喜,和最终的叹息和敬佩。可是在这股科学界“全民DL”的风潮下,却逐渐有人开始对它提出了自己的质疑。
CVPR2016上,Mobileye的CTO Amnon Shashua在演讲中说道:他认为深度学习的研究绕了远路。因为真正的AI应该能帮人类解决人类解决不了的问题,而目前的AI的表现却仅限于人类已经能非常明确的理解和解释的领域。
同样是在CVPR期间,巴黎高等计算机视觉研究所的主任Nikos Paragios表示,深度学习方法几乎已经垄断了目前的计算机视觉,甚至是AI科研领域的所有研究,导致其他的方法和基础研究无人问津,对此感到有些担忧。
而在本届的IJCAI上,在计算机哲学上已有数十年经验的Aaron Sloman也在演讲中表示,自己认为AI作为一门科学(而不是工程学)已经在过去的二三十年间失去了方向。
今天Facebook搞了个大新闻:有多家主流媒体报道了Facebook即将建立的新数据中心和专为深度学习而研制的服务器Big Sur,而这个新闻却反而再次唤醒了我们心中的疑问:Facebook和Google它们现在努力的方向,会不会错了?
让我们先来看看关于Facebook这个服务器的其中一条新闻吧:
走进Facebook AI数据处理的心脏
从北美的西部访问facebook的话,你的访问数据有很大可能会经过一个位于俄勒冈州中心的高地沙漠中一块被充斥着满满的杜松香气的空气所冷却的服务器群。在普林维尔的市区,一个有大概9000人常住着的地方,Facebook存储着他们数以亿计的数据。一行一行的电脑整齐的排列在四座总占地面积将近75000平方米(800000平方英尺)的巨型建筑里。这些建筑被设计成刚好能让从西北吹来的干燥,并且通常相当凉爽的风吹进它们之间。过道中堆叠着的服务器闪着蓝色和绿色的灯,发出着单调的噪音,但在内部它们其实每时每刻都在不间断的处理着Facebook登陆、赞和“大笑”之类的服务进程。
Facebook最近在普林维尔的设备中加入了一些新的机器:他们在这里安装了一组全新的,用来加速训练类似翻译软件、私人助手和文字理解之类程序的高性能服务器。
这些最新的“大苏尔”服务器(Big Sur servers)是围绕一种最初被制造用来进行图像处理的,以GPU的名字为大众所知的高性能处理器而设计的。这些芯片对最近AI领域取得了极大发展的深度学习技术有着更好的支持。在GPU的支持下,曾经的深度学习软件得以处理规模和复杂程度大得多的数据集,因而在最终识别图像和语音等方面应用的效果取得了显著的改善。
Kevin Lee,Facebook的一名服务器工程师说,由于拥有了更快的速度,他们得以帮Facebook的研究者们用更多数据训练了他们的深度学习软件,“这些服务器都是针对AI研究和机器学习计算而特制的。”他说,“这些GPU可以把图片分成无数个细小的局部然后同时处理它们。”
Facebook在每台大苏尔服务器上放置了大概8台NVIDIA——这种芯片的领导级制造商——制造的GPU。Lee不愿透露已经部署了多少台这种服务器,但是他说Facebook至少已经有数千个GPU投入工作了。大苏尔服务器已经被安放在了公司在普林维尔、阿什本和弗吉尼亚的数据中心。
由于GPU的耗电量极其庞大,Facebook不得不用比其它服务器更低的密度来在数据中心中布置这些服务器,否则可能会形成一些过热的情况,不仅会对冷却系统造成更大的负担,也会消耗掉更多的能量。一个2.1米(7英尺)高的机架上可以堆叠8台大苏尔服务器 ,而相同的机架可以容纳30台标准的Facebook服务器,如果是处理日常任务的话,它们其实可以做得更快。