首页>IT > 正文

NVIDIA发布:NVIDIA AI平台的多项重要更新

2022-04-06 08:08:13来源:中关村在线 原创

GTC 2022期间,NVIDIA发布了NVIDIA AI平台的多项重要更新。该平台是一套致力于推进语音、推荐系统、超大规模推理等工作负载的软件套件,目前已被Amazon、Microsoft、Snap和日本电信电话株式会社等全球行业领导者所采用。

NVIDIA AI 大力推进语音、推荐系统和超大规模推理领域的发展

NVIDIA也宣布了NVIDIA AI加速计划,以助力确保NVIDIA软件和解决方案合作伙伴所开发AI应用的性能和可靠性。该计划针对各种经过验证的AI加速应用增加了可见性,使企业客户能够放心地在NVIDIA AI平台上进行部署。Adobe、红帽和VMware等100多家合作伙伴参与了计划启动仪式。

NVIDIA创始人兼首席执行官黄仁勋表示: “NVIDIA AI可定义为全球AI社区的软件工具箱,从AI研究者和数据科学家们,到数据和机器学习的运营团队。NVIDIA在GTC 2022上有着大量的新发布。无论是创建互动能力更强的聊天机器人和虚拟助手,还是构建更加智能的推荐系统来帮助消费者做出更完善的购买决策,亦或是以最大的规模编排AI服务,NVIDIA AI始终能够针对您的需求提供强大的助力。”

NVIDIA AI可供开发者免费使用,包括用于语音AI的NVIDIA Riva和用于智能推荐系统的NVIDIA Merlin,这两款软件均已正式全面上线。而整个软件套件也进行了更新,包括NVIDIA Triton、NeMo、Maxine和TAO工具包等工具。

此外,NVIDIA AI Enterprise 2.0现已经过优化和认证,并支持所有主要的数据中心和云平台,包括裸金属服务器、虚拟化基础设施和纯CPU系统。该套件现在支持Red Hat OpenShift和VMware vSphere with Tanzu。

用于构建领先AI应用的软件工具

NVIDIA AI是由多项具有关键功能的SDK和工具所组成,可用于跨多个节点上对AI工作负载进行快速部署、管理和扩展,为复杂的训练和机器学习工作负载提供有力的支持。它包含以下软件和工具:

· NVIDIA Triton:NVIDIA Triton是一款多功能开源超大规模模型推理解决方案。其最新版本包含三项关键更新:用于加速部署优化模型的模型导航器、用于在Kubernetes中进行高效扩展的管理服务,以及能够对基于树的模型进行推理的森林推理库,其具有可解释性,可在每个应用中实现快速、经过优化和可扩展的AI。

· NVIDIA Riva 2.0:这款语音AI SDK包含具有领先识别率的预训练模型,使开发者能够为其行业定制实时语音AI应用程序,其准确率比普通服务高2倍。Riva 2.0包含7种语言的语音识别、基于深度学习仿真人发音的语音合成(包括男声和女声)以及可通过NVIDIA TAO工具包进行的自定义调优。NVIDIA还发布了涵盖企业级支持的付费产品NVIDIA Riva Enterprise。

· NVIDIA NeMo Megatron 0.9:NeMo Megatron是一个用于训练大型语言模型(LLM)的框架。研究者和企业能够用它来训练模型,使模型能够收敛和扩展至数万亿个参数,以便用于对话式AI、推荐系统和基因组学等应用。其最新版本中新增的优化和方法能够缩短端到端开发和训练时间,并添加对云端训练的支持。NVIDIA加速计算LLM的早期用户包括京东、AI Sweden、Naver和佛罗里达大学。

· NVIDIA Merlin 1.0:这是一个加速端到端推荐AI框架,用于大规模构建高性能推荐系统。它包含两个新库:Merlin Models和Merlin Systems。这些库使数据科学家和机器学习工程师能够确定哪些功能和模型最适合他们的应用场景,并将推荐系统流水线部署为微服务。

· NVIDIA Maxine:这个音频和视频质量增强SDK使用AI重塑实时通信,并引入回声消除和音频超分辨率。这两项新功能能够提高音频质量,带来更清晰的通信体验。

NVIDIA AI深受客户的欢迎

各个行业的领导者正在使用NVIDIA AI来提高成本效益、打造更具吸引力的客户体验并优化AI应用的功能。

Snap对话式AI负责人Alan Bekker表示:“在Snapchat上,我们的社区每天使用Lenses超过60亿次。Snap正在使用NVIDIA Riva来优化基于AI的语音功能,并将这些功能提供给Lens Studio创作者,助力其打造新一代高质量AR体验。”

微软技术研究员兼Azure AI首席技术官黄学东表示:“Microsoft Azure认知服务Translator中的文件翻译功能,能够在翻译文件时保留源文件的格式和结构,提高企业与客户的互动效率。通过NVIDIA Triton,我们能够部署最新的Z-Code模型,在保证低延迟的前提下大幅提高文档翻译质量,为用户提供一流的翻译服务。”

NVIDIA AI Enterprise支持跨数据中心和云的容器化AI

作为一款端到端、云原生的AI和数据分析工具与框架套件,NVIDIA AI Enterprise 2.0软件套件能够加速各个行业的AI开发和部署。Red Hat OpenShift是企业级Kubernetes平台,获得Red Hat OpenShift认证的客户能够通过VMware vSphere使用容器化机器学习工具,更轻松地在裸金属或虚拟化系统上构建、扩展和共享模型。

红帽合作伙伴生态系统部门高级副总裁Stefanie Chiras表示:“NVIDIA AI Enterprise已获得Red Hat OpenShift认证,并且OpenShift已在NVIDIA LaunchPad上线,因此用户可以同时获得顶尖的AI开发工具以及具有一致性的混合云基础。现在,IT团队和数据科学家可以在Red Hat OpenShift上构建并管理NVIDIA AI,帮助企业加快实际生产中的智能应用交付速度。”

NVIDIA AI Enterprise 2.0还引入了更多支持训练和推理的NVIDIA AI软件容器。对NVIDIA TAO工具包的支持使企业开发者能够对NVIDIA预训练AI模型进行微调和优化,从而简化自定义生产就绪模型的创建,而无需具备AI专业知识或大量训练数据。该软件套件还包含最新发布的NVIDIA Triton推理服务器。

日本电信电话株式会社是日本电信电话集团旗下的全球领先信息和通信技术解决方案提供商。该公司已采用NVIDIA AI Enterprise来助力研发团队加速构建自然语言处理(NLP)和智能视频分析应用。

日本电信电话株式会社创新中心技术部总监Shoichiro Henmi表示:“我们的许多应用开发者现在都在使用加速计算,并有赖于内部基础设施来提供易于使用且具有高成本效益的GPU环境。我们认为NVIDIA AI Enterprise是作为支持AI平台的理想解决方案,它将为我们在VMware vSphere、Kubernetes和云基础设施中的大规模开发工作提供支持。”

客户可以授权NVIDIA AI Enterprise在NVIDIA认证系统(NVIDIA-Certified Systems)上运行,也可以在没有NVIDIA GPU的相同型号服务器上运行,包括来自思科、戴尔科技、新华三、慧与(HPE)、浪潮、联想、宁畅和超微等领先制造商的服务器。

企业还可以选择在托管于全球各地Equinix International Business Exchange(IBX)数据中心的服务器上进行部署。现已支持来自AWS、谷歌云和Microsoft Azure的云实例。NVIDIA AI Enterprise现已包含于NVIDIA DGX系统中。

供货情况

作为NVIDIA开发者计划的一部分,开发者均可使用NVIDIA的AI软件集。

企业IT团队和AI开发者可以在NVIDIA LaunchPad实验室中体验NVIDIA AI软件,其是由Equinix Metal在全球九座Equinix IBX数据中心提供的免费托管计划。新增加的LaunchPad实验室包括Riva语音AI实验室,以及多个可以体验Red Hat OpenShift、VMware vSphere with Tanzu、TAO工具包和Triton推理服务器(带有FIL后端)的NVIDIA AI Enterprise实验室。

关键词: 推进语音 红帽合作伙伴 推荐系统

相关新闻

Copyright 2015-2020   三好网  版权所有 联系邮箱:29 59 11 57 8@qq.com  备案号:豫ICP备20005723号-9 营业执照公示信息