IBM最近宣布将在watsonx.ai工作室托管Meta的Llama 2-chat 700亿参数模型,并向选择的客户和合作伙伴提供提前访问权限。
企业现在正在采纳生成式人工智能的趋势,以加强其业务战略。为了有效利用其潜力,他们需要训练和构建自己的LLM(可大规模语言模型),利用他们多年累积的数据。为了解决这个挑战,包括AWS和Azure在内的各种云服务提供商纷纷提供帮助。
OpenAI与微软的合作为他们提供了GPT-4,而AWS的多LLM方法则为他们提供了从AI21、Cohere、Anthropic Claude 2到Stability AI SDXL 1.0等各种模型选择。除了众所周知的云提供商外,最近还出现了其他一些服务提供商。
企业寻求可靠的解决方案,可以从服务提供商那里获得信任。最近,AI爱好者们提出了一些方法来训练和构建Llama 2模型,然而关键问题依然存在:这些方法能否被信任来处理数据?
几天前,AI专家Santiago在推特上发文称“您现在可以在不到10分钟内测试Llama 2”,介绍了一个名为Monster API的新工具,它可以轻松访问强大的生成式人工智能模型,如Falcon、Llama、Stable Diffusion和GPT J等,无需担心管理这些生成式AI模型或扩展它们以处理大量请求的问题。
然而,这类新举措对于已有公司来说太过冒险,他们还没有证明自己能够扩展业务。
IBM以客户的信任为中心
IBM致力于将信任和安全置于首要位置,引入其生成式人工智能功能。例如,当用户在watsonx.ai的prompt实验室中使用Llama 2模型时,他们可以激活AI guardrails功能。这有助于从输入提示文本和模型生成的输出中自动过滤出有害语言。
在与AIM的独家对话中,IBM印度和南亚地区技术首席技术官兼技术销售领导人Geeta Gurnani表示,IBM正在推出一款AI治理工具包,预计将于今年晚些时候全面提供,该工具包将帮助实施治理以减轻与手动流程相关的风险、时间和成本,并提供确保透明和可解释性结果所需的文档。
她说:“它还将具备保护客户隐私、主动检测模型偏差和漂移,并帮助组织满足其道德标准的机制。”
为什么是Llama 2而不是GPT-4
Llama 2相对于GPT-4而言在企业中越来越受欢迎。这一事实可以通过它在Amazon Sagemaker、Databricks、Watsonx.ai甚至是微软的Azure平台上的可用性来进行支持,而Azure平台是专有的LLM GPT-4的支持。
此外,Meta与Amazon、Hugging Face、NVIDIA、Qualcomm、Zoom、Dropbox等几个知名公司以及学术界领导者的合作伙伴关系强调了开源软件的重要性。
就连OpenAI的Karpathy也无法抵制使用Llama 2,他甚至创建了Baby Llama,也就是llama.c,他在最近的实验中探索了在单台计算机上运行大型语言模型(LLMs)的概念。此外,他还暗示OpenAI可能在不久的将来发布开源模型。
类似地,AI专家Santiago表示,Llama 2具备潜在成功的所有要素:开源、商业许可、允许成本效益的GPU使用,并且可以对整个利用过程进行全面控制。
"我与两家创业公司交谈,他们正在从专有模型迁移到Llama 2。还有多少公司会放弃商业替代品而拥抱Llama 2呢?"他质疑道。
GPT-4只能通过微软Azure OpenAI服务进行访问,但企业也可以购买由OpenAI提供的GPT-4 API。然而,GPT-4的局限性在于其闭源性,使用户无法创建自己的模型或对其进行实验。与Llama 2不同,Llama 2对于商业使用是免费的,而GPT-4 API是付费的。费用是按每1000个标记计算的,输入费用为0.03美元,输出费用为0.06美元。
根据AIM Research的数据,对于稍复杂的用例,GPT-4 API的每月推理费用可能在每月25万到30万美元之间。因此,在使用ChatGPT API时,关键是跟踪标记使用情况并有效管理它,以控制成本,就像在网站集成中一样。
最初我们观察到一个趋势,即企业在本季度更倾向于选择Azure上的GPT-4,因为它在那里是唯一可用的,这随后提振了Azure云的收入。然而,当微软与Meta合作托管Llama 2时,情况发生了有趣的转变。这凸显了开源LLMs具有的独特优势,这是不容忽视的。