Mistral AI和NVIDIA联合发布了针对企业的新型语言模型Mistral NeMo 12B。该模型在多轮对话、数学、常识推理、世界知识和编程等方面表现出色。Mistral AI吹嘘该模型在多种企业应用中具有前所未有的准确性和灵活性。
Mistral NeMo拥有128K的上下文长度,使其能够比许多竞争对手更有效地处理复杂、冗长的输入。该模型能够连贯地处理大量信息,为多样化的企业需求生成上下文相关的输出。
Mistral AI的联合创始人兼首席科学家Guillaume Lample强调了此次合作带来的好处:“利用NVIDIA的硬件和软件,我们开发出了一个具有高准确性、灵活性和效率的模型,同时还获得了企业级支持和安全保障。”
该模型的训练采用了NVIDIA的AI基础设施,包括DGX Cloud AI平台上的3,072个H100 80GB Tensor Core GPU。此过程融入了加速训练技术以优化性能。
Mistral NeMo为企业用户提供了几个关键优势:
对于希望实施高级AI功能的企业而言,Mistral NeMo 12B提供了强大的功能组合。其多语言能力和高效处理使其适用于广泛的企业应用。
此外,Mistral NeMo还设计了企业级的安全性和支持,包括专用的功能分支、严格的验证流程以及全面的服务级别协议。企业可以无缝地将Mistral NeMo集成到其商业应用中,并受益于直接访问NVIDIA AI专家以及可靠、一致的性能。
现在,用户可以获得Mistral NeMo,并且可下载的NIM版本也即将推出。