打造更智能明天 NVIDIA GPU加速深度学习研讨会

  日前,NVIDIA在北京启动了以“成就创新企业梦想”为主题的“GPU加速深度学习研讨会”。本次研讨会是继NVIDIA发布深度学习中国战略后,围绕此战略展开的具体举措,旨在推进新兴企业和研究机构对深度学习领域的研究和应用,进一步推动中国深度学习生态链建设。

  研讨会北京站由NVIDIA与清华大学CCOE中心(CUDA 卓越中心)联合举办,会议针对深度学习的实用性及发展前景做了分析和讨论,并介绍了GPU应用的算法优势。同时在深度学习研究领域的先行者们还分享了他们的应用成果和经验。

  深度学习研究领域的快速发展,吸引着越来越多初创企业的加入,本次研讨会旨在为那些积极参与深度学习研究的新兴企业提供一个学习和交流的平台,会议吸引了近百位来自新兴企业的技术和研究人员参加。对于整个深度学习产业链来说,新兴企业的积极参与起着越来越重要的作用。

  会上,NVIDIA业务发展总监何犹卿先生对深度学习市场做了分析和展望。他指出,“深度学习是目前最接近人脑的智能学习方法,它通过建立深度神经网络像人脑一样去学习知识。而深层模型的并行化框架和训练加速方法是深度学习走向实用的重要基石。GPU强大的并行计算技术可以大幅加速深度学习模型的训练,同时也可大幅降低计算成本和功耗”。

  结合GPU的广泛应用以及众多优化算法的出现,深度学习已在诸多实践中有了用武之地。包括Facebook、Google、百度、腾讯等互联网巨头都开始尝试将深度学习算法运用到产品开发中,包括计算机视觉、文本检索、语音识别以及自然语言理解等,以期使产品更智能化,更好地提升用户体验。而像SenseTime、爱奇艺等新兴公司也在图像识别和视频应用方面取得了可观的进展。

  GPU和CUDA推动深度学习研究

  作为深度学习研究技术平台领导厂商,NVIDIA致力于为深度学习研究提供出色的技术平台和解决方案。

  针对深度学习这一热点方向,已经在高性能计算和超级计算行业中成为主流的NVIDIA Tesla GPU加速器一直发挥着重要作用。凭借Tesla GPU突破性的性能和更大的内存容量,企业用户可以快速地处理大数据分析应用所产生的海量数据,数据科学家利用Tesla加速器可以轻松处理多达拍字节的数据,而且速度比使用CPU时快10倍。对计算科学家来说,Tesla加速器可提供所需的处理动力,能够以前所未有的速度运行更大型的模拟。

  NVIDIA最新发布的GeForce GTX TITAN X GPU,在图像分类模型AlexNet的训练中,只需不到3天时间便可完成,比基于16核CPU的系统快15倍。而NVIDIA的下一代GPU架构Pascal,更可将深度学习加速10倍。

  应用广泛的CUDA并行计算架构也针对深度学习推出了cuDNN函数库。cuDNN可以直接集成到目前流行的深度学习框架中,例如Caffe、Torch7和Theano等,开发人员可以快速无缝在系统中整合GPU。通过cuDNN,开发人员不必再关心以往深度学习系统中的底层优化,他们可以将注意力集中在更高级的机器学习问题。

  拥有强大并行计算能力的GPU和针对深度学习的CUDA并行加速架构,已成为加速深度学习研究的强大基础。

  深度学习的多元化研究和应用

  深度学习研究领域的快速升温,不断推进了多元化的研究和实际应用的发展。会议中,致力于机器学习课题研究的清华大学朱军教授分享了基于数据的表征学习内容,并从非参数贝叶斯预测模型、深度学习产生模型等角度做了详细阐述,还展示了利用NVIDIA GPU加速分类模型的效果。此外,朱军教授还指出表征学习是解决大数据时代下信息过载问题的关键。

  清华大学朱军教授

  爱奇艺首席科学家王涛在会上分享了爱奇艺如何通过深度学习技术,将智能化算法应用到视频处理过程中,并改变大数据时代下的视频体验。通过利用NVIDIA GPU加速的深度学习技术,爱奇艺实现了对海量视频的自动智能分析,包括内容检测、安全审核、广告滤除、关键帧筛选、智能编辑等诸多过去需要人力才能完成的任务,同时还可做到对用户兴趣的预测。同时,利用精准度大幅提高的图像识别和分类能力,爱奇艺还推出了“Video out”技术,能够通过智能算法,进行视频内物品快速精准识别,自动添加语义标签和商品信息,并做出导向购买的操作,这种虚实结合可以为视频行业带来更多机会。