随着自然语言处理对聊天机器人和人工智能之间交互的需求越来越大,越来越多的公司需要能够提供这种需求的系统。Nvidia意味着它的平台可以处理它。Nvidia在NLP训练和推理方面有所突破,可以实现客户和聊天机器人之间更复杂的交流,并即时响应。
根据Juniper Research的数据,预计对这项技术的需求将会增长,因为仅数字语音助手就有望在未来四年内从25亿增加到80亿,而Gartner预测,到2021年,所有客户服务交互的比例将达到15%。AI将全面处理,比2017年增长400%。该公司表示,其DGX-2 AI平台在不到一个小时的时间内训练了BERT-Large AI语言模型,并在2毫秒内完成了AI推理,以便开发人员可以使用最先进的语言来理解规模应用。"
变形金刚的BERT或双向编码器表示是基于Google的AI语言模型,许多开发者认为它在一些性能评估中比人类具有更高的准确性。这些都在这里讨论。
在Nvidia中设置自然语言处理记录
总结一下,Nvidia号称有三条NLP记录:
1.训练:运行最大版本的BERT语言模型。英伟达DGX SuperPOD配备了92个运行1472个V100 GPU的英伟达DGX-2H系统,可以将训练时间从几天缩短到53分钟。一个单独的DGX-2系统就像一台塔式电脑那么大,而伯特-拉奇只用了2.8天就训练好了。
应用深度学习研究副总裁布莱恩卡坦扎罗(Bryan Catanzaro)在一份声明中说:“我们训练模型的速度越快,我们训练的模型越多,我们对问题的了解就越多,结果就越好。”
2.推断:在其TensorRT深度学习推理平台上使用英伟达T4 GPU,英伟达在2.2毫秒内推断出BERT-Base SQuAD数据集,这远远低于许多实时应用程序10毫秒的处理阈值,也远远领先于高度优化的CPU代码测量的40毫秒。
3.模型:英伟达表示,其新定制模型名为威震天,拥有83亿个参数,比BERT-Large大24倍。它是世界上最大的基于变形金刚的语言模型,变形金刚是BERT和其他自然语言AI的模型构建块。
为了让FOSS支持者高兴,Nvidia还通过GitHub提供了大量源代码。
使用PyTorch的NVIDIA GitHub BERT训练代码
张量流的NGC模型脚本和检查点
TensorRT在GitHub上优化BERT样本。
更快的转换器:C API、TensorRT插件和TensorFlow OP
Netmxgluon-NLP,BERT(训练和推理)支持放大器
人工智能Hub上的TensorRT优化了BERT Jupyter笔记本
用于训练大型变压器模型的PyTorch代码
不是说容易消费。我们在谈论非常先进的人工智能代码。很少有人能理解。但这种态度是积极的。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!