苹果的人工智能之路走了多远?它亲自告诉你

一向不喜欢明说自己突破了什么的苹果最近真的是一反常态,而且还都是冲着人工智能去的。看起来,现在苹果对这一个技术领域真的是非常重视。过去不显山不露水的苹果如今在这项技术上干得到底好不好,我们今天就来看一看。

一反常态

每一个科技公司都有自己的研发分支,这是理所当然的事情。不过,果粉们也从来不期望能够从苹果的口中知晓它在技术上究竟有了什么突破,只能通过专利、收购这些事情来摸索一下蛛丝马迹。不过任何事总是会有例外,现在我们就真正见识到了苹果的研发实际进展。

在周二的一场学术会议上,苹果人工智能研究组的负责人Russ Salakhutdinov在演讲中透露,苹果允许他们发表自己的研发成果,还能与其他非苹果公司的学者进行讨论。这个消息我们已经有报道。有趣的是,苹果那天带来的消息可不仅仅只有这一句承诺,还有公司在人工智能领域上的实际进展。

从苹果的角度上来看,突然表现出一种和公司传统截然不同的姿态也是可以理解的。如今微软、谷歌、Facebook、亚马逊,这些大厂无一不将人工智能视为现有智能手机技术发展成熟之后,下一个突破的关键点所在。不需要太多佐证,只要听听这些公司在各自的开发者会议上的表态就能明白。这种趋势意味着人工智能方面的人才将会成为抢手货。

苹果的盛名对招揽研究人才几乎没有什么帮助,因为研究者们关心的是自己加入后能够走得多远。对于这样一家保密工作好到此前曾让整个人工智能领域都以为它根本就没接触过这个技术的公司,很难让研究者相信自己在其中能够一展身手。

正因为如此,苹果需要给出诚意,除了承诺自己有意要采取更加公开的态度外,更具体的表示也是必不可少的。

苹果的进展

尽管那次学术会议仅仅只有一小部分受邀的人才能参与,但通过与会者流出的苹果所展示的幻灯片,我们还是能够了解到在人工智能的研究方面,苹果究竟有着怎样的成绩。

那么苹果究竟关注人工智能的哪些应用呢?主要有图片的识别和处理,用户行为及现实世界中各种事件的学习和预估,为个人助手编排语言,并让它尝试理解那些依靠算法无法做出准确决定时的不确定意外。

总的来说,苹果在人工智能方面需要面对的问题和它的竞争对手们并没有很大的不同,毕竟只要是想在移动电子设备上发展这项技术,那就必须要解决图片识别,用户行为学习,语音识别和判断这些最常见的课题。

那么苹果的优势在哪呢?幻灯片中显示,苹果打造的神经网络相比谷歌的要小得多,后者足足是前者的4.5倍,然而前者却比后者快了1倍。谷歌的神经网络非常庞大,它会建立一种向下传授的关系,让一个神经网络能够“教导”另一个神经网络。苹果通过为神经网络“瘦身”,它就可以在iPhone、iPad这些iOS设备上独立工作负责处理各种各样的识别和学习工作,不需要依赖一个远程的“老师”,也就没有上传数据的必要了。

苹果的另一个卖点是它在人工智能算法上对GPU(图形处理单元)的利用效率非常高。GPU在深度学习中通常被用来提高处理速度。苹果表示,自家的图像识别算法可以做到每秒处理3000张图片,而谷歌的只能做到每秒1500张。而且,苹果做到这一点所需的GPU性能仅是竞争对手的三分之一。

最有趣的是,其他的厂商完成这些处理工作一般依赖的是特别定制的芯片,以保证一个较高的处理速度。苹果则立足于最广泛的消费级市场,更倾向于使用标准的GPU来实现同等甚至更好的效果。

汽车也不能落下

很有一个值得关注的点,那就是苹果宣称要将人工智能技术应用在所谓“LiDAR的体积识别”和“结构输出预估”上。所谓的LiDAR,指的是激光识别及测距。这两个用途,一般来说都是在汽车的自动驾驶系统中最为常见,因为它们可以用来识别车辆周边物体的形状和距离,从而判断车外究竟是什么状况。