您的位置:首页 > 品牌资讯 >

科技推荐:Nvidia满足了对自然语言处理的需求

时间:2021-06-11 11:45:16 来源:互联网

科技改变生活,也在一定的程度上科改善生活!那么现如今生活条件越来越好以后大家更多的关注点都不同,但是近来有很大一部分了却同时关注到了Nvidia满足了对自然语言处理的需求的消息!

随着对聊天机器人和人工智能交互的自然语言处理需求的增长,越来越多的公司需要能够提供它的系统。Nvidia表示其平台可以处理它。Nvidia在对话自然语言处理(NLP)培训和推理方面拥有突破,可以在客户和聊天机器人之间实现更复杂的交换,并立即做出响应。

Juniper Research的数据显示,预计这种技术的需求将增长,因为预计未来四年内仅数字语音助理将从25亿增加到80亿,而Gartner预测,到2021年,所有客户服务互动的比例将达到15%。 AI将完全处理,比2017年增加400%。该公司表示其DGX-2 AI平台在不到一个小时的时间内培训了BERT-Large AI语言模型,并在2+毫秒内完成了AI推理,使得开辟人员可以使用最先进的语言理解 - 规模应用。“

变形金刚的BERT或双向编码器表示是一种基于Google的AI语言模型,许多开辟人员认为在一些性能评估中,它比人类具有更高的准确性。这一切都在这里讨论。

Nvidia设置自然语言处理记录

总而言之,Nvidia声称拥有三张NLP记录:

1.培训:运行最大版本的BERT语言模型,Nvidia DGX SuperPOD配备92个运行1,472 V100 GPU的Nvidia DGX-2H系统,可将培训时间从几天缩短到53分钟。单个DGX-2系统的大小与塔式PC相当,在2.8天内训练了BERT-Large。

应用深度学习研究副总裁Bryan Catanzaro在一份声明中说:“我们可以越快地训练模型,我们可以训练的模型越多,我们对问题的了解就越多,结果就越好。”

2.推论:在其TensorRT深度学习推理平台上使用Nvidia T4 GPU,Nvidia在2.2毫秒内对BERT-Base SQuAD数据集进行了判断,远低于许多实时应用的10毫秒处理阈值,远远领先于40使用高度优化的CPU代码测量的毫秒数。

3.型号:Nvidia表示其新的定制模型,称为Megatron,拥有83亿个参数,比BERT-Large大24倍,是世界上最大的基于变形金刚的语言模型,变形金刚是用于BERT和其他自然语言AI的构建模块楷模。

为了让FOSS的拥护者感到高兴,Nvidia也通过GitHub提供了大量的源代码。

使用PyTorch的NVIDIA GitHub BERT培训代码

TensorFlow的NGC模型脚本和检查点

TensorRT在GitHub上优化了BERT样本

更快的Transformer:C ++ API,TensorRT插件和TensorFlow OP

MXNet Gluon-NLP,支持AMP的BERT(培训和推理)

AI Hub上的TensorRT优化BERT Jupyter笔记本

Megatron-LM:用于训练大型变压器模型的PyTorch代码

并不是说这很容易消耗掉。我们正在谈论非常先进的AI代码。很少有人能够做出正面或反面。但这种姿态是积极的。

免责声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,并不代表本站赞同其观点和对其真实性负责。如有侵权行为,请第一时间联系我们修改或删除,多谢。
精选展示

Copyright © 2021 山西商业网 All Rights Reserved