快速一键发布
手机号码*
验证码*
联系方式只用于平台与您联系,牛选时刻保障您的隐私安全
需求描述*
确认发布
取消

英伟达推出TensorRT 3人工智能推理软件

新浪科技   新浪科技-周峰阅读:308赞:02017-09-26

?在GTC China大会上,英伟达CEO黄仁勋宣布推出全新的TensorRT 3人工智能推理软件,该软件可以大幅提升云端及包括机器人、无人驾驶汽车在内的终端设备的推理性能,并有效降低成本。

在GTC China大会上,英伟达CEO黄仁勋宣布推出全新的TensorRT 3人工智能推理软件。该软件可以大幅提升云端及包括机器人、无人驾驶汽车在内的终端设备的推理性能,并有效降低成本。

据介绍,TensorRT 3与英伟达GPU的结合能够基于所有的框架、为诸如图像和语音识别、自然语言处理、视觉搜索和个性化建议等人工智能服务提供快速且高效的推理。此外,TensorRT和英伟达Tesla GPU加速器的速度可达到CPU的40倍,而相较于基于CPU的解决方案,成本仅为其十分之一。

黄仁勋在现场表示,英伟达Tesla V100 GPU与TensorRT结合,在处理图像时可以实现7ms延时,处理语音时延时不超过200ms,是标准云服务的理想目标。

而根据现场演示,由于GPU与TensorRT结合后的性能加速,一台8 GPU的服务器可以替换160台双CPU服务器,或者4个机架。而每台采用Tesla V100 GPU的服务器可以节省约50万美元。

黄仁勋表示,英伟达的人工智能计算平台,已经被中国互联网和IT行业的领军企业采用。阿里巴巴、百度、腾讯均已在其云端人工智能基础设施上部署了英伟达的Tesla V100 GPU,而华为、浪潮、联想也已经作为OEM厂商,开始生产基于HGX的GPU服务器。

但黄仁勋同时表示,以上成绩都只是关于建立深度学习网络,而网络一旦建成,人工智能推理将会成为下一个重大挑战。

神经网络的应用会接连变革每个行业。人工智能将会注入到2000万台云服务器,以及上亿台汽车和制造机器人当中。最终,数以万计的物联网设备和传感器将能够监测从心率、血压到设备震动状态的一切数据。

而这项变革的背后,是人工智能网络架构的爆炸式增长。黄仁勋在现场介绍表示,Inception计算要求是AlexNet的50倍,DeepSpeech3的计算要求是4年前第一代的30倍,而MoE语言翻译器的计算要求是2年前OpenNMT的10倍。这对使得人工智能深度学习网络基础建成之后,人工智能推理成为该领域的下一项重大挑战。

据现场介绍,目前,阿里云、腾讯、百度云、京东、科大讯飞均已采用TensorRT 3,用以支持指数级增长的人工智能工作负载。

标签:

作者: 新浪科技-周峰

来源: 新浪科技

免责声明:本文仅代表作者本人之观点,电商头条网发表或转载此文只是出于传递更多信息之目的,其原创性以及文中陈述文字和内容未经电商头条网证实;电商头条网对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如其他媒体、网站或个人从电商头条网下载使用,必须保留电商头条网注明的“稿件来源”,并自负版权等法律责任。电商头条网倡导尊重与保护知识产权。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至电商头条网客服邮箱;service#hotniu.cn(请将#改成@),我们将及时沟通与处理。
侵权投诉反馈邮箱:service#hotniu.cn(#改成@)

  • 今日头条
  • 本周头条
  • 本月头条