NVIDIA:构建加速计算生态,推动深度学习应用落地

  在技术应用快速变迁的时代,对于开发者而言,技术架构的相对稳定和编程技能的通用性是难能可贵的。近日,NVIDIA全球副总裁Shanker Trivedi及NVIDIA全球副总裁、中国区PSG与云计算总经理Ashok Pandey接受了CSDN记者的专访,介绍NVIDIA对前沿技术应用趋势的判断,以及NVIDIA如何在技术、产品、生态等方面进行布局,以一种通用技术架构应对从当前深度学习热潮到未来物联网世界的挑战,让各行各业能够以更少的编程工作实现应用的智能化。

  

图片描述

 

  NVIDIA全球副总裁Shanker Trivedi(左)与NVIDIA全球副总裁、中国区PSG与云计算总经理Ashok Pandey

  从深度学习到互联网+

  NVIDIA专注于视觉计算和加速计算,深度学习是其过去一年的战略重心之一。Shanker Trivedi表示,神经网络的概念已经存在了三四十年,但是之前缺乏强大的计算能力以及相应的编程工具,编程非常麻烦,其发展受到制约。而对于NVIDIA而言,GPU可以提供强大的计算能力,CUDA则让数据科学家可以更容易地使用GPU和编程,所以在深度学习领域的发力就成了顺其自然的事情。

  支持深度学习和人工智能的技术并不是最终目的,NVIDIA希望将深度学习带到一些行业应用中,包括医疗、机器人、教育、制造业等,最终是把这些在互联网上发展的技术应用到所有的传统行业,使他们也能获得智能化的应用,这也是当前所说的“互联网+”。

  通过CUDA、OpenACC并行计算平台, NVIDIA强调加速计算、减少编程。NVIDIA的一个特点,是从云到端的整个产品线都基于同一个框架,都由CUDA支撑的。从做模型训练的(云)服务器,到最后的部署,可能部署到一个机器人,或者一个摄像头,或者任何一种设备,整个框架都是用的CUDA,这样编程和数据处理等方面,工程量和难度就会降低很多。目前模型精度没有极限,训练和部署是一个需要不断完善的动态工作,使用同一套框架,可以非常平滑地做到两者的协调改进。反之,如果训练用一个平台,部署的时候用的是另外一个平台,那这两件事情做完的时候,还需要去处理两套系统的协调,中间会增加很多的工作量,实现起来就比较困难。Shanker Trivedi认为,NVIDIA这种端对端的解决方案,这个框架是NVIDIA真正的价值。

  构建加速计算生态

  为实现其目标,NVIDIA从企业/行业合作伙伴、开发者、开源技术、初创企业等方面构建其技术生态系统,并将中国市场置于最重要海外市场的位置。

  Shanker Trivedi介绍了NVIDIA面向未来的整体策略。

  NVIDIA非常强调要与教育界,特别是大学研究机构,开展广泛的交流和合作,因为他们是位于研究未来最前沿的。NVIDIA目前在全世界大概和600多所大学有相应的合作,希望借此了解最前沿的研究人员面临什么样的问题,他们的问题越有挑战性,NVIDIA的兴趣就越大,NVIDIA的工程师也会和他们一起去解决问题。

  NVIDIA和开发者群体做很多的沟通,比如经常举办开发者研讨会等,帮助他们更好地理解GPU,介绍NVIDIA有什么样的工具和技术,面临的问题可以怎样利用GPU来解决等。有时候NVIDIA会收到这些开发者的感谢信,关于NVIDIA和他们的交流以及技术的讲解,帮助他们解决了很大的问题等。

  产品层面的部署,除了在基础的GPU产品上有CUDA编程环境,针对一些专门的领域,NVIDIA也有相应的产品,如神经网络方面的cuDNN,虚拟GPU方面的vGPU,科学计算方面的cuFFT,针对天气、医疗、金融等其他方面的一些应用领域,NVIDIA也会有相应的产品,提供给所在具体领域的公司使用。

  HPC应用是需要加速计算的典型,GPU+CUDA已经在发挥作用,在目前TOP10的HPC应用中,有9款支持GPU加速,如果扩展到TOP50的HPC应用,有35款(70%)支持GPU加速。同时,现在也还有很多新出现的应用程序无法支持加速计算。所以,NVIDIA希望不仅能够对已有应用程序的进行加速计算,更希望能够帮助支持到新应用程序。NVIDIA加入到OpenPOWER,希望能够有更大的生态系统,来为基于POWER的应用程序进行加速的客户提供服务。出于这样一种兴趣,NVIDIA与IBM结成伙伴关系,直接把GPU加速计算提供给整个的OpenPOWER的成员。这和NVIDIA之前针对x86处理器所开展的工作类似。未来,NVIDIA还可能针对其它的平台处理器开展类似的合作。