今天,总部位于帕洛阿尔托的SambaNova Systems推出了一款新的人工智能芯片SN40L,这款芯片将为其全套大语言模型(LLM)平台SambaNova Suite提供动力,帮助企业从芯片到模型——构建和部署定制的生成式人工智能模型。
SambaNova Systems的联合创始人兼首席执行官Rodrigo Liang告诉VentureBeat,SambaNova在堆栈上比Nvidia做得更透彻——帮助企业正确训练模型。
他解释说:“很多人对我们的基础设施非常感兴趣,但他们遇到的问题是他们没有专业知识,所以他们会把模型的构建交给其他公司,比如OpenAI。”
AI的“Linux”时刻
因此,SambaNova认为这是AI的“Linux”时刻——开源AI模型将会是最大的赢家。因此,除了预训练的基础模型外,SambaNova Suite还为企业提供了一个经过策划的开源生成式AI模型集合,经过优化,可在企业内部或云端进行部署。
Liang解释说:“我们拿到基础模型后,为企业进行了一系列的清理工作,包括硬件优化,因为多数客户不想处理这些。‘他们不想去寻找GPU,也不想弄清楚GPU的结构。”
SambaNova不仅仅局限于芯片开发
然而,尽管SambaNova不仅仅局限于芯片开发,并且在软件堆栈上覆盖了整个过程,Liang坚称“与Nvidia相比,我们的芯片优势明显。”
据新闻稿介绍,SambaNova的SN40L可以为一个拥有5万亿个参数的模型提供服务,单个系统节点可以实现256k+的序列长度。它表示,这样的设计“可以实现更高质量的模型,推理和训练速度更快,总拥有成本更低。”此外,“更大的内存可以实现LLM的真正多模态能力,使公司可以轻松搜索、分析和生成这些模态的数据。”
公司还宣布了SambaNova Suite内有关新模型和功能的几个额外公告: