Snowflake公司本周利用其Snowday活动推出了一大批新的增强服务,其中许多与生成式人工智能相关。
为了简化AI模型的开发,该公司推出了Snowflake Cortex的私有预览版,这是一项托管服务,据说可以更轻松地帮助组织在Snowflake数据云中发现、分析和构建AI应用。Cortex提供了对无服务器函数的访问,其中包括Meta Platforms Inc.的Llama 2大型语言模型以及任务特定模型和高级向量搜索功能。Snowflake表示,这些组合可以用于在几分钟内构建基于上下文的LLM驱动的应用程序。
Snowflake高级副总裁Sridhar Ramaswamy表示:“我们希望让客户轻松使用人工智能,并将生成式人工智能交到每个用户手中。”
公司表示,Cortex不需要用户具备专业的AI专业知识。它的无服务器函数可以通过SQL或Python代码来调用,并且可以使用专业函数进行情感分析、文本摘要、翻译和与数据的对话交互等任务。
两个新的无服务器函数集在私有预览版中可供调用,并可通过SQL或Python代码发起函数调用。专用函数专用于检测情感、提取答案、摘要文本和翻译等任务。通用函数以对话的方式进行交互,并包括文本到SQL的功能,使用户可以与其数据进行“聊天”。
Ramaswamy表示:“我们一直在研究一种比任何开源模型更擅长生成SQL的模型,并且我们通过Cortex来展示这一点。它看起来像一个[应用程序接口],但它在Snowflake上运行,数据从不离开或混合训练。”
Snowflake中的Streamlit可以通过将数据、AI模型和分析函数转化为Python编写的交互式应用程序,加速定制的基于LLM的应用程序开发。
与Cortex的推出同时,该公司还为使用该服务构建的三个基于LLM的应用程序提供了私有预览。
Snowflake Copilot是一个基于LLM的助手,可让用户用普通文本询问数据、编写和优化SQL查询并筛选结果。通用搜索可以搜索客户的Snowflake账户,包括数据库、视图和Iceberg表,以及公司市场中的应用程序。文档AI可以从文档中提取发票金额或合同条款等内容,并使用可视化界面和自然语言来优化结果。
对于希望进行完全LLM应用程序定制化的用户,Snowpark容器服务简化了容器化工作负载的安全部署和管理。它使开发人员能够在他们的Snowflake账户内完全运行第三方应用程序,包括商业LLM和矢量数据库。
对于开发人员,Snowflake在其Snowpark平台中增强了对Python的支持,支持在软件容器中运行的工作负载,并扩展了DevOps功能。Snowpark允许软件工程师在Snowflake的云数据仓库上部署自定义代码。另外,还有其他三个新的Snowpark功能旨在用于机器学习模型的开发。
Snowflake笔记本提供了一个交互式的、基于单元的Python和SQL编程环境。新的Snowpark机器学习API使开发人员和数据科学家能够在Snowflake中扩展特征工程,并简化模型训练,加快并更直观地进行模型开发。
Snowpark模型注册表是在原生Snowflake模型实体的基础上构建的,可实现在Snowflake中可扩展、安全的部署和管理模型,包括对深度学习模型和Hugging Face Inc.的开源大型LLM的扩展支持。
产品管理总监Jeff Hollan表示:“大量模型之所以无法投入生产,是因为它们存在于真空中。”“通过模型注册表,它们现在成为一流的资源,您可以使用正确的元数据进行注册,以便任何人可以发现和部署它们。”
此外,Snowflake还宣布,更加16个月前推出的本地应用框架将很快在亚马逊网络服务公司的云中以及微软公司的Azure云的公共预览版中提供。该框架本质上是企业的“应用商店”。Snowflake Marketplace产品管理、协作和市场合作高级总监Prasanna Krishnan表示:“它为每个组织提供了构建应用程序、在私人上部署应用程序、将其公开和利用化的所有步骤所需的组件。”
新的Snowpark容器服务使开发人员能够在应用程序的任何组件中运行,包括ML训练、LLMs和应用程序编程接口,而无需移动数据或管理基于容器的基础设施。