2. 更快的硬件。GPU的再次使用、低成本计算能力的普遍化,特别是通过云服务,以及建立新的神经网络模型,已经极大的增加了神经网络产生结果的速度与准确率。GPU和并行架构要比传统的基于数据中心架构的CPU能更快的训练机器学习系统。通过使用图像芯片,网络能更快的迭代,能在短期内进行更准确的训练。同时,特制硅的发展,比如微软和百度使用的FPGA,能够用训练出的深度学习系统做更快的推断。另外,从1993年开始超级计算机的原计算能力有了极大发展(图2)。在2016年,单张英伟达游戏显卡就有了类似于2002年之前最强大的超级计算机拥有的计算能力。
图2:全球超级计算机的原计算性能,以GFLOPs测试
成本也有了极大的降低。英伟达GPU(GTX 1080)有9 TFLOPS的性能,只要700美元,意味着每GFLOPS只要8美分。在1961年,串够IBM 1620s每提供1 GFLOPS需要的钱超过9万亿。
图3:每单位计算的价格有了极大下降
3. 更好、更普遍可用的算法。更好的输入(计算和数据)使得更多的研发是面向算法,从而支持深度学习的使用。例如伯克利的Caffe、谷歌的TensorFlow和Torch这样的开源框架。比如,刚开源一周年的TensorFlow,成为了GitHub上有最多forked repositories的框架。虽然不是所有的人工智能发生于普遍可用的开源框架中,但开源确实在加速发展,而且也有更多先进的工具正在开源。
方向
虽然本报告的重点是人工智能的发展方向以及公司如何把握这个方向,但是了解人工智能对我们生活的影响程度也是很重要的。
在线搜索。就在一年多以前,谷歌透露,它们已经开始将大量的搜索工作移植到了RankBrain(一个人工智能系统),使其和链接(links)以及内容(content)成为了谷歌搜索算法的三个最重要的标志。
推荐引擎。Netflix,亚马逊 和Pandora都在使用人工智能来确定推荐什么样的电影和歌曲,突出哪些产品。5月,亚马逊开源了它们的深度可扩展稀疏传感网络引擎(the Deep Scalable Sparse Tensor Network Engine(DSSTNE),简称「Destiny」),它被用于产品推荐,同时可以被扩展以实现超越语言和语言理解以及异议识别的目的。
人脸识别。Google(FaceNet)和Facebook(DeepFace)都投入了大量的技术来确定您的照片中的人脸和真实的人脸是不是几乎完全吻合。1月,苹果采取了进一步措施,购买了Emotient(一个致力于通过读取人的面部表情来确定其情绪状态的AI创业公司)显然,这些技术远远不止于对照片进行标记。
虽然个人助理应用产品有无数的用户,比如苹果的Siri,信用贷,保险风险评估,甚至天气预测。在接下来的篇幅中,我们探讨企业该如何使用这些技术来加速增长,降低成本和控制风险。从这些技术及其使用这些技术的应用的发展速度来看,它们充其量不过可以为公司和投资者提供一些方向,以保持他们的竞争力。
加强未来的生产率
美国的劳动生产率在90年代中期的快速增长和过去十年的缓慢增长和之后,近年来已经停止增长了。我们认为,就像20世纪90年代互联网技术被广泛采用那样,消费类机器学习和人工智能的扩散有可能大幅度地改变全球产业的生产范式。
在整个行业中,我们发现在自动化的促使下,劳动时间减少了约0.5%-1.5%,同时,由于AI / ML技术带来的效率增益,到2025年,这些技术将对生产力增长产生高达51-1154个基点(bps)的影响。虽然我们期望AI / ML可以随着时间同时提高生产率的分母和分子,不过我们认为最重要的是,早期的影响将是低工资任务的自动化,即以更少的劳动时间推动类似的产出增长水平。我们的基本案例AI / ML驱动提高了97个基点,这意味着2025年的增长生产率中的1.61% 将由IT贡献,比1995 - 2004年高出11个基点(图9,10)。