英伟达CEO黄仁勋:GPU是AI时代利器,发布全球首款可编程AI引擎
我们看到已经脱下显卡厂商标签的英伟达,在人工智能的路上走得越来越远。
9月26日,英伟达于北京召开的GTC 大会中国站正式开幕,英伟达创始人兼CEO黄仁勋用了两小时的时间系统的介绍了英伟达的人工智能生态发展。
在主题为《AI Trends, Challenges and Opportunities》的演讲中,黄仁勋表示人工智能无处不在,摩尔定律已经终结,而深度学习强势袭来,这其中GPU将发挥出强大的力量。
如果给老黄这次的演讲画个重点的话,主要有下面几大块:
TensorRT3深度学习引擎,减少推理过程的延迟
黄仁勋花了很大篇幅介绍了英伟达最重要的产品——深度学习推理引擎TensorRT3,TensorRT3是一种可编程的AI推理加速器,支持现阶段大部分神经网络框架,并能加速现有和未来的网络架构。
作为连接深度学习框架和硬件的中间桥梁,英伟达TensorRT3 的性能非常卓越,黄仁勋举了个例子:运行在Volta上的TensorRT3在图像分类方面比最快的CPU还要快40倍,在语言翻译方面则要快140倍等等。
为了进一步展示TensorRT3的性能,英伟达现场展示了用语音在《权力的游戏》视频内搜索“The Winter is coming”的片段,从语音到文字再到画面的搜索,几乎没有任何延迟。
通过 TensorRT3,开发者可以大幅减少推理过程的延迟现象,几乎可达到实时反应的情况,对于像在线影音分类、对象侦测以及自动驾驶的应用来说,这些都是是非常重要的特性。
和国内云服务公司合作,大规模投入Tesla V100芯片的服务器
今年五月,英伟达发布全新Volta架构时,首先推出的就是专为HPC和AI的融合而设计的Tesla V100计算卡。目前,它主要整合在HGX-1加速器中被使用。
关于英伟达的Tesla V100,黄仁勋介绍了目前国内一批合作项目。其中,阿里巴巴、腾讯、百度、京东、讯飞都已经采用了英伟达Volta GPU,免于建造超级计算机的复杂性以及高昂的建造费。
而英伟达的HGX服务器则是在8个Tesla V100 加速单元的基础上搭建的AI专用加速器,单个HGX服务器在语音/图像识别推理方面的计算性能相当于150个传统CPU 服务器。
英伟达宣称,在深度学习任务中,HGX-1 与传统基于CPU的服务器相比,性能可以提升100倍,人工智能训练任务的花费为后者的 1/5,AI推算的十分之一。黄仁勋提到每台 V100 服务器可以为客户节省50万美元的成本。
在GTC China上,英伟达也表示已经和国内的阿里云、百度云、腾讯云合作,大规模投入使用搭载新一代 Tesla V100芯片的服务器。
下一个AI时代,正走入与人类交互的机器中来
这几年,英伟达一直非常关注人工智能的发展,黄仁勋说,下一个AI时代,是AI离开云端,走入与人类交互的机器中来。
这次主题演讲中,黄仁勋也推出了他们的全球首款自主机器处理器Xavier,该芯片会出现在下一代Jetson系统上,2018年第四季度会正式大规模推出。
不过,京东X会率先采用英伟达的Jetson平台,两家将共同研发仓储机器人 jRover 及自动送货无人机 jDrone,实现自主机器。
这次GTC大会上,英伟达还介绍了他们的开放自动驾驶计算平台Drive,目前已经有145家初创公司正在研制基于英伟达Drive的自动驾驶汽车、卡车、高精制图及服务。在黄仁勋的演讲中,我们看到已经脱下显卡厂商标签的英伟达,在人工智能的路上走得越来越远。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新