NVIDIA和Cloudera这两家公司扩大合作伙伴关系,为GPU、机器学习和AI提供更多功能,以助力企业数字化转型。Cloudera继续支持NVIDIA的先进AI技术,为企业数字化转型提供一流的应用程序。
公司支持NVIDIA关键技术的公有云和私有云环境旨在帮助客户高效构建和部署AI应用程序。通过使用NVIDIA GPU,Cloudera与NVIDIA的技术合作新阶段将为数据工程、机器学习和AI增加跨代GPU功能。
在NVIDIA受到美国对中国AI芯片限制的影响之际,这一合作伙伴关系的扩展到来。中国市场占公司芯片收入的25%。
致力于加速AI和机器学习工作负载
Cloudera Machine Learning (CML)是Cloudera数据平台的领先服务,旨在赋能企业创建自己的AI应用程序。通过使用自己的专有数据资产创建安全准确的响应,该公司帮助客户解锁开源大型语言模型(LLM)的潜力。
在谈到数据平台时,Cloudera的Anthony Behan告诉《人工智能杂志》:“Cloudera数据平台在帮助客户驱动创新”并且它提供了“专为数据服务周期设计的选择,从边缘到AI,无论是流式处理大量数据,还是部署和监控下一代AI和ML模型。”
Cloudera的CML服务现在将注意力转向支持公有云和数据中心中的NVIDIA H100 GPU。这种下一代加速旨在增强Cloudera的数据平台,实现更快的洞察力和更高效的生成式AI工作负载。结果可能是能够在更大的数据集上微调模型和在生产中托管更大的模型的能力。
CML的企业级安全性和治理意味着企业可以更好地利用NVIDIA GPU的力量,而不会妥协数据安全。
NVIDIA合作伙伴关系继续增强全球AI运营
另一个关键好处是用户能够在Cloudera的私有云中使用GPU加速数据管道。通过Cloudera数据工程,用户可以从各种来源构建生产就绪的数据管道。
通过在CDE中集成NVIDIA Spark RAPIDS,可以加速提取、转换和加载(ETL)工作负载,而无需重构。现有的Spark ETL应用程序可以通过整体7倍,对于选定查询高达16倍的速度无缝GPU加速,从而使NVIDIA客户能够更好地利用上游数据处理管道中的GPU。
因此,希望是增加这些GPU的利用率,并能提供更高的投资回报。
“GPU加速适用于AI应用程序生命周期的所有阶段-从数据管道的摄取和管理,数据准备,模型开发和调整,到推理和模型服务,”Cloudera产品管理副总裁Priyank Patel说。
“NVIDIA在AI计算中的领导地位完美地补充了Cloudera在数据管理中的领导地位,为客户提供了一个完整的解决方案,以在整个AI生命周期中利用GPU的力量。”
NVIDIA致力于扩展数据中心,以帮助企业在生成式AI发展中保持领先。本周,它还宣布与戴尔科技合作,作为下一代大规模AI集群的“蓝图”。
戴尔科技CEO Michael Dell表示,他们的新设计将“有助于满足LLM和GenAI应用程序的需求,打造世界上最快的AI系统之一”,并配备“2048 NVIDIA H100 Tensor Core GPU、256台戴尔PowerEdge XE9680 AI服务器以及强大的Spectrum-X 以太网AI网络。”