微软的开源15亿参数小模型Phi-1.5更新支持多模态能力

2023年11月03日 由 daydream 发表 356 0

微软研究部门已经为其一个较小的大型语言模型添加了一项重要的新功能,这一举措表明成本较低的AI技术可以具备与OpenAI的GPT-4相同的功能。


微信截图_20231103101906

在一次采访中,微软研究人员表示,该模型Phi 1.5现在是“多模态的”,意味着它可以查看和解释图像。他们表示,这个新技能仅对模型的尺寸稍加增加,为AI技术的民主化访问提供了一条路线,并有助于缓解用于运行ChatGPT等软件的图形处理器的短缺问题。


GPT-4是ChatGPT的动力来源,最近也变成了多模态,但需要指数级的能量和处理能力。Phi 1.5是开源的,意味着任何人都可以免费运行它。


“这是OpenAI为ChatGPT做出的重大更新之一。”微软研究负责机器学习基础研究组的Sebastien Bubeck说道。“当我们看到这一点时,有一个问题:这只是最庞大的模型才有的能力,还是我们微小的Phi 1.5也可以做到?令我们惊讶的是,我们可以做到。"


GPT-4约有1.7万亿个参数,用于进行预测的软件开关和控制。参数越多,模型产生的每个标记(或一组字母)都需要进行更多的计算。相比之下,Phi 1.5有13亿个参数。如果将参数表示为距离,GPT-4的大小将相当于帝国大厦,而Phi 1.5只有一个12英寸长的三明治那么大。


开发小型AI模型具备与较大模型相同功能的努力不仅仅是学术上的探索。虽然OpenAI的GPT-4和其他庞大的基础模型令人印象深刻,但也很昂贵。


个人往往会要求ChatGPT起草电子邮件,而公司通常希望它能处理大量的企业数据以便对提示进行回应。这些请求可能是昂贵的。GPT-4的单次提示的最高价为5美元,其他供应商的价格也差不多。通常,公司每1,000个提示支付约100美元。“当您将LLM应用于大数据集,或允许多人并行运行提示时...您将希望确保考虑到定价。"他说。


小型模型需要较少的计算才能运行,因此它们需要较低功率的处理器和较短的响应时间。与此同时,规模较小且略微功能较弱的模型可以处理许多公司和个人提出的任务。


较低耗能的模型还具有减少温室气体排放和减少产生幻觉的优势。


微软研究部门负责人Ece Kamar表示:“我们正在考虑如何在实际世界中构建这些系统,以便能够正常工作。我们在小型模型上进行的所有工作为我们构建这个生态系统提供了有趣的拼图碎片。"


研究人员表示,这些小型模型尽管能力强大,但永远无法取代像GPT-4这样的较大基础模型,后者将永远领先。但是,这两个模型是互补的。对于某些应用,大型模型将是必要的。对于非常具体的任务,小型模型可能更具经济性。


微软研究部门的高级主要研究员Ahmed Awadallah表示,未来可能是同时使用小型模型和大型模型来处理任务。"您还可以想象小型模型以不同的方式部署。当它在执行任务时没有足够的信心时,它可以回到大型模型。"他说。


微软的研究人员还尝试使用多个小型模型一起作为"代理人"来处理任务的不同方面。例如,一个模型可以编写软件,而另一个模型可以检查其错误。

文章来源:https://www.semafor.com/article/11/01/2023/microsoft-pushes-the-boundaries-of-small-ai-models
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消