传播免费的AI技术——开源
在Facebook目前已经开源的AI清单中,既包括软件,也包括硬件。
先说说它的硬件开源。去年年底,Facebook宣布开源它的AI硬件平台Big Sur。Big Sur的设计特点是主板易于维修,带有8个NVIDIA(英伟达)的Tesla M40 GPU(GPU是用于深度学习算法的微处理器,每个GPU包含数十个功耗300瓦的芯片,是专为执行复杂的数学和几何计算而设计的)。Big Sur可以操控计算机,以类似人脑神经网络的方式理解及使用数据。通过Big Sur,Facebook希望使AI技术能够阅读新闻、回答问题,以及操作游戏,免去人工的介入。开源硬件平台的好处不仅在于可以加速AI技术的发展,对Facebook来说,还可以快速在业界建立自己的硬件标准,摊平成本,提高其普及率。
软件方面,虽然Facebook涉足AI领域没有几年的时间,但短短数年中其开源项目却越来越多,从中,我们也可以看到Facebook巨大的实力和更大的潜力。由于篇幅所限,在此仅举几例。
2015年1月,FAIR开源了一系列软件库,该软件库在 Facebook 被称作模块。用它们替代机器学习领域常用的Torch 的默认模块,可在更短时间内训练更大规模的神经网络模型。Facebook的模块一部分可用于训练大型计算机视觉系统,一部分模块可以用来训练不同类型数据的模型。部分模块还把大型卷积神经网络模型的训练速度提升了23.5 倍。
2016年6月,Facebook开源基于Torch的深度学习框架Torchnet。近年来有关机器学习的框架层出不穷,比较著名的有Caffe、Theano、Torch等。主流的机器学习框架Torch不能执行抽象和公式化(boilerplate)的代码实现,因此研究人员不得不重复执行一些算法的实验。Facebook在Torch的基础上,提供了一种可抽象和公式化逻辑的开源框架Torchnet,可以模块化编程和代码重复使用,从而减少Bug,并直接使用异步数据加载和高效多GPU运算。Torchnet 是用 Lua 脚本语言写成的(Lua由标准C编写而成,几乎在所有操作系统和平台上都可以编译和运行),易于集成安装于任何架构中。它对于想要训练大规模深度学习系统的机构来说,可以大幅节省I/O的成本。
2016年8月,Facebook开源文本分类专用工具fastText。fastText是一款快速文本分类器,提供简单高效的文本分类和表征学习的方法,Facebook称fastText比其他学习方法要快得多,能够训练模型在使用标准多核CPU的情况下10分钟内处理超过10亿个词汇,与深度模型对比,fastText能将训练时间由数天缩短到几秒钟。此外,通过利用语言的形态结构,fastText可以支持多国语言,包括英语、德语、西班牙语、法语及捷克语。
同样在8月,Facebook又开源了三款机器视觉工具——DeepMask 分割构架、SharpMask 分割精炼模块和MultiPathNet 的代码。人们看一张图片时,可以将物体识别到最后一个像素。FAIR致力于将机器视觉推进到新阶段——在像素的层面上理解图像和物体。FAIR称,最近正在设计能够识别和分割图像中每个物体的技术,它将带来很多全新的应用,推动FAIR进步的最主要的新算法是 DeepMask 分割构架和SharpMask 分割精炼模块。它们使FAIR 的机器视觉系统可以探测并精确勾画出图片中所有物体的轮廓。在识别过程的最后阶段,FAIR使用的是一个特定的卷积网络 MultiPathNet,它可以标记出每个物体掩码(mask)所含有的物体类型(例如人、狗、羊)。Facebook的此次开源是希望它能帮助机器视觉领域快速发展。
Facebook的AI主攻方向
今年11月3日,Business Insider发表了对Yann LeCun进行的专访,访问中,LeCun介绍了FAIR的主要任务是推进AI科学与技术,通过实验发展AI技术在各领域的应用,例如计算机视觉、对话系统、虚拟助手、语音识别、自然语言识别等等。他也谈到了AML的主要方向是将科学转化为技术,通过构建应用平台,将AI服务变为产品团队可以使用的东西。
LeCun提到了一个非常重要的问题,也是Facebook目前面临的最大问题,时刻需要解决的问题——就是将最好的内容向呈现给每个用户。为了解决这个问题,Facebook必须理解内容,理解每个用户,然后把内容和对它感兴趣的人相连接。只有做到这一点,人们才会选择Facebook的News Feed。