Cloudflare现在允许更多开发者将他们的AI应用从Hugging Face平台迁移过来。不仅如此,该公司已全新推出无服务器GPU加速推理服务——Workers AI,并已面向公众开放。
早在七个月前,Cloudflare便与Hugging Face达成整合协议,使得开发者能够便捷地将模型部署到Workers AI上。这一部署过程简单至极,开发者只需一键点击,便可立即将模型分发至全球各地。目前,Cloudflare的Workers AI已支持十四个经过精心策划的Hugging Face模型,涵盖文本生成、嵌入及句子相似性等广泛领域。
Cloudflare首席执行官Matthew Prince在一份声明中表示:“近期的生成性AI热潮让众多企业纷纷投入大量时间和金钱。尽管其中一些取得了成功,但AI的真正挑战在于,演示起来容易,投入生产却难上加难。”他进一步强调:“通过抽象化构建AI驱动应用的成本和复杂性,我们能够解决这一问题。”
Prince继续谈到:“Workers AI不仅是运行推理最实惠、最易于访问的解决方案之一,而且随着Hugging Face和Cloudflare在努力以简单、实惠的方式推动AI民主化方面的深度合作,我们正在赋予开发者选择模型,并将他们的AI应用从零扩展至全球的自由和敏捷性。”
通过Hugging Face平台,开发者可以轻松选择所需的开源模型,并选择“部署到Cloudflare Workers AI”,从而实现模型的即时分发。这确保了模型能够准确无误地同时传输至所有目标位置,从而避免了延迟或不良体验。
Hugging Face联合创始人兼首席技术官Julien Chaumond对此表示:“为Hugging Face社区提供最受欢迎的开放模型,并配备无服务器API,以及全球GPU舰队的支持,这无疑是一个令人振奋的提议。”
至于Workers AI,开发者现已能够访问全球150多个城市部署的GPU资源,包括开普敦、德班、约翰内斯堡、拉各斯、安曼、布宜诺斯艾利斯、墨西哥城、孟买、新德里和首尔等地。此外,Cloudflare还在不断改进AI技术,以支持模型权重的微调,从而帮助开发者创建和部署专业、特定领域的应用程序。