由阿里·戈德西(Ali Ghodsi)领导的数据基础设施公司Databricks宣布与法国实力雄厚的初创公司Mistral达成合作。Mistral在全球AI界引起了广泛关注,它凭借一系列日益壮大的高性能大型语言模型(LLM)家族,在业界崭露头角——其中不少模型都是开源的。
根据这次合作,Databricks向Mistral进行了未公开的投资,支持其A轮融资,并计划将Mistral的LLM集成到自身的数据智能平台上。
这一举措将实现模型的直接集成,为企业用户提供便利,使他们能够轻松地将数据与模型结合使用,进行生成式AI应用——同时不改变Databricks平台原有的安全、隐私和治理功能。
这一进展标志着Mistral又增添了一个值得关注的分销合作伙伴。该公司一直在通过行业合作伙伴关系积极拓展业务。最近,它还宣布了与Snowflake的类似合作,后者通过其数据云产品与Databricks形成竞争,以及与微软的合作,后者曾引发关于企业控制和监管机构兴趣的争议。
将特定模型原生集成
在最近的一篇博客文章中,Databricks确认,与Mistral的合作将推动该公司两款文本生成模型——Mistral 7B和Mixtral 8x7B的原生集成,这两款模型都是开源的。
前者是一个拥有70亿参数的小型转换器模型,经过8k上下文长度的训练,服务效率非常高。与此同时,后者是一个稀疏的专家模型混合体(SMoE),支持32k的上下文长度,能够处理英语、法语、意大利语、德语和西班牙语。Mixtral 8x7B在多个基准测试中甚至超越了Meta的Llama 2 70B(其训练基础)和OpenAI的GPT-3.5,包括GSM-8K和MMLU,同时拥有更快的推理速度。
Databricks数据智能平台的用户现在可以在平台市场中找到这两款模型,其中包含了关于它们的能力和不同使用方式的完整信息。
Databricks表示,用户可以通过平台控制台提供的Mosaic AI Playground试验这些模型,将其作为优化的模型端点通过Mosaic AI Model Serving使用,或者使用平台托管的专有数据(Mosaic AI Foundation Model Adaptation)对其进行定制,以满足特定的用例需求。
“Mistral AI模型现在可以在Databricks上以多种方式使用和定制,后者提供了构建、测试和部署端到端生成式AI应用的最全面的工具集。无论是从预训练模型的并排比较开始,还是通过按令牌付费的方式使用模型,都有多种快速入门的选项。”
尽管这一消息对于希望在平台上使用其数据资产构建生成式AI应用和解决方案的Databricks客户来说是好消息,但值得注意的是,该合作伙伴关系并未提及Mistral Large,这是Mistral的最新模型,性能仅次于GPT-4,并优于Anthropic的Claude 2、Google的Gemini Pro和GPT-3.5,该模型具备五种语言的原生熟练度和32K令牌的上下文窗口。Snowflake已将该模型与Mixtral 8x7B和Mistral 7B集成到其数据云的Cortex服务中。
在被VentureBeat问及Mistral Large的集成情况时,Databricks的一位发言人表示,目前还无法分享相关信息。Databricks提供的其他开源、商业可用的模型包括Meta的Llama-2、CodeLlama、Stable Diffusion XL和Mosaic的MPT系列。
Mistral持续拓展合作伙伴关系
Databricks和Snowflake并不是Mistral的唯一合作伙伴。
这家公司在2023年6月筹集了欧洲历史上最大规模的种子轮融资,并很快完成了大规模A轮融资,重点加强与行业的合作,以扩大其影响力,并巩固其在由OpenAI、Anthropic和Google主导的AI领域的供应商信任度。
就在几周前,该公司获得了微软1600万美元的投资,将其模型添加到Azure云平台。这笔交易使Mistral成为继OpenAI之后在微软平台上提供模型的第二家公司。
此外,Mistral还与IBM签订了单独的合作伙伴关系,使Mistral 8x7B可以在WatsonX上使用,同时还与Perplexity和亚马逊达成了合作。这家初创公司未来能与哪些其他合作伙伴达成合作,以扩大其影响力并推动各行业AI用例的发展,将令人拭目以待。