英伟达发布新一代AI芯片H200,性能最高提升90%

2023年11月14日 由 daydream 发表 348 0

NVIDIA推出了新一代用于AI工作的顶级芯片HGX H200。这款新GPU将备受瞩目的H100升级,内存带宽提升了1.4倍,内存容量提升了1.8倍,提高了处理高强度生成式AI工作的能力。


微信截图_20231114110959

问题是,企业是否能够获得这些新芯片,或者它们是否会像H100一样供应紧张,对于这个问题,NVIDIA并没有明确的答案。H200芯片将于2024年第二季度发布,NVIDIA表示正在与“全球系统制造商和云服务提供商”合作,使其能够提供这些芯片。NVIDIA发言人Kristin Uchiyama拒绝就生产数量发表评论。


除了内存之外,H200在外观上与H100基本相同。但内存的改变为它带来了显著的升级。这款新GPU是首款使用称为HBM3e的新型更快内存规格的芯片。这使得GPU的内存带宽从H100的3.35TB/s增加到4.8TB/s,总内存容量从前一代的80GB增加到了141GB。


NVIDIA高性能计算产品副总裁Ian Buck在视频介绍中表示:“更快速、更广泛的HBM内存的整合可以提高性能,在计算密集型任务和生成式AI模型以及高性能计算应用中提高GPU的利用率和效率。”


H200还具备与已支持H100的系统兼容的能力。NVIDIA表示,云服务提供商在添加H200时不需要进行任何修改。亚马逊、谷歌、微软和甲骨文等云计算服务提供商将是明年最先提供新GPU的公司。


一旦发布,这些新芯片肯定会非常昂贵。NVIDIA没有公布其价格,但CNBC报道称,上一代的H100预计每个售价在25,000至40,000美元之间,而在最高级别上需要数千个H100。Uchiyama表示定价由NVIDIA的合作伙伴确定。


NVIDIA的这一发布正值AI公司急需H100芯片之际。NVIDIA的芯片被视为处理训练和运行生成式图像工具和大型语言模型所需的大量数据的最佳选择。这些芯片非常有价值,以至于公司将它们作为贷款的抵押品。谁拥有H100成为硅谷的八卦话题,初创公司们甚至合作共享任何与H100芯片的使用权。


Uchiyama表示,H200的推出不会影响H100的生产。“您将看到我们全年不断增加供应,我们将继续长期采购供应。”Uchiyama在一封电子邮件中写道。


明年对购买GPU来说可能是一个更好的时机。《金融时报》曾在8月份报导称,NVIDIA计划在2024年将H100的产量增加到现有产量的三倍。目标是明年生产多达200万个H100,而2023年的产量约为50万个。然而,由于生成式AI在今年年初和现在一样火爆,需求可能会更大,而且这还不包括NVIDIA推出的更热门的新芯片。

文章来源:https://www.theverge.com/2023/11/13/23958823/nvidia-h200-ai-gpu-announced-specs-release-date
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消