微软研究团队再次取得了突破。在7月份的phi-1版本超越Meta的LLaMa之后,研究人员现在推出了phi-1.5,这是一个拥有13亿参数的尖端语言模型,它在多个基准测试中超越了LLaMa 2的70亿参数模型。微软决定将该模型开源。
phi-1.5模型拥有惊人的13亿参数,经过精心设计,在多个领域具有出色的表现,成为广泛应用的首选。它在处理问答格式的查询、聊天交互和与代码相关的任务时表现突出。
一个拥有十亿参数的模型能走多远?看起来,非常远!!!
今天,我们发布了phi-1.5版本,一个具有13亿参数的LLM,展现出与更大的LLM非常接近的行为。
虽然phi-1是基于高质量的教材数据进行训练,但phi-1.5仅基于合成数据进行训练。这让phi-1.5有所不同,它的训练涵盖了各种数据来源。该模型的学习过程汲取了来自不同数据源的丰富数据,包括从StackOverflow获取的Python代码片段,来自竞技编程比赛的代码,合成Python教科书以及由强大的gpt-3.5-turbo-0301生成的练习题。
phi-1.5模型的关键细节:
微软研究团队就phi-1.5背后的智慧称,这个模型在不到100亿参数的模型中实现了几乎达到最先进水平的性能。对常识、语言理解和逻辑推理进行的严格基准测试将phi-1.5定位为强大的竞争对手。
值得注意的是,phi-1.5在AGIEval得分上超越了Meta的LLama-2 7b,并在LM-Eval Harness衡量的GPT4ALL基准测试套件中接近了LLama-2 7b的水平。