Cloudflare携手Hugging Face,简化AI应用迁移并推出Workers AI

2024年04月03日 由 neo 发表 251 0

Cloudflare现在允许更多开发者将他们的AI应用从Hugging Face平台迁移过来。不仅如此,该公司已全新推出无服务器GPU加速推理服务——Workers AI,并已面向公众开放。

cloudflare-mobile

早在七个月前,Cloudflare便与Hugging Face达成整合协议,使得开发者能够便捷地将模型部署到Workers AI上。这一部署过程简单至极,开发者只需一键点击,便可立即将模型分发至全球各地。目前,Cloudflare的Workers AI已支持十四个经过精心策划的Hugging Face模型,涵盖文本生成、嵌入及句子相似性等广泛领域。

Cloudflare首席执行官Matthew Prince在一份声明中表示:“近期的生成性AI热潮让众多企业纷纷投入大量时间和金钱。尽管其中一些取得了成功,但AI的真正挑战在于,演示起来容易,投入生产却难上加难。”他进一步强调:“通过抽象化构建AI驱动应用的成本和复杂性,我们能够解决这一问题。”

Prince继续谈到:“Workers AI不仅是运行推理最实惠、最易于访问的解决方案之一,而且随着Hugging Face和Cloudflare在努力以简单、实惠的方式推动AI民主化方面的深度合作,我们正在赋予开发者选择模型,并将他们的AI应用从零扩展至全球的自由和敏捷性。”

通过Hugging Face平台,开发者可以轻松选择所需的开源模型,并选择“部署到Cloudflare Workers AI”,从而实现模型的即时分发。这确保了模型能够准确无误地同时传输至所有目标位置,从而避免了延迟或不良体验。

Hugging Face联合创始人兼首席技术官Julien Chaumond对此表示:“为Hugging Face社区提供最受欢迎的开放模型,并配备无服务器API,以及全球GPU舰队的支持,这无疑是一个令人振奋的提议。”

至于Workers AI,开发者现已能够访问全球150多个城市部署的GPU资源,包括开普敦、德班、约翰内斯堡、拉各斯、安曼、布宜诺斯艾利斯、墨西哥城、孟买、新德里和首尔等地。此外,Cloudflare还在不断改进AI技术,以支持模型权重的微调,从而帮助开发者创建和部署专业、特定领域的应用程序。

文章来源:https://venturebeat.com/ai/cloudflare-makes-it-simple-to-deploy-ai-apps-with-hugging-face-launches-workers-ai-to-public/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消