苹果最近在GitHub上公开了用于培训新的Ajax LLM的内部软件的代码,这给人们带来了惊喜。
两个月前,关于苹果开发生成式人工智能工具和聊天机器人的消息一经传出,市场情绪积极推动了苹果股价飙升至创纪录的198.23美元,涨幅达到2.3%。然而,除了苹果在LLM中使用的Ajax和员工内部将其命名为AppleGPT之外,没有公布该模型的其他细节。
根据The Information的一份报告,苹果最近做出了前所未有的举动——将其代码开源到GitHub上。据信,苹果正在用超过2000亿个参数对Ajax GPT进行训练,预计比GPT-3.5更强大。
今年7月,苹果悄然在GitHub上发布了AXLearn的代码,使公众可以在不需要从头开始的情况下训练自己的大型语言模型。AXLearn是苹果在过去一年开发的一种机器学习框架的内部软件。它是一种预构建的工具,用于快速训练机器学习模型。Ajax是JAX的一个衍生物,而JAX是由谷歌研究人员创建的一个开源框架,AXLearn的一些组件是专门为在谷歌TPU上进行优化而设计的。
尽管苹果在带来创新解决方案方面可能走在前面,但公司将其优先事项置于一切之前的劣势也不可忽视。苹果以保护闭源环境而闻名。他们的技术和代码都没有对公众开放。当大型科技公司正在发布更优秀的开源模型,如Meta的Llama-2、Anthropic的Claude-2、Falcon、Vicuna等时,苹果一直坚持着他们传统的保密路线,OpenAI也一直如此。苹果的闭源方法受到了技术界的批评,称其为从大型科技公司发布的研究中获益却从不回馈的公司。
苹果决定开源其培训软件AXLearn是其保密方式的一个重要步骤。这一举措可能有助于促进人工智能研究社区内的合作和创新,并反映出人工智能发展中越来越开放的趋势。
虽然苹果发布代码在GitHub上的确切动机尚未披露,但很明显,该公司在人工智能开发上每天投入数百万美元的巨额投资反映出其在人工智能竞争中的决心。
有趣的是,上个月,该公司在香港申请了“AXLearn”的商标。
苹果的人工智能负责人John Giannandrea和其会话式人工智能团队“基础模型”主管Ruoming Pang都在之前的谷歌工作中积累了丰富的经验。Giannandrea带来了他让苹果向谷歌看齐的愿景,在那里员工能够有更多自由进行各种研究、发表论文并探索创新思路。苹果之前在这些领域的限制阻碍了才能的成长和招聘。
据报道,苹果还从谷歌和Meta的人工智能平台团队中聘请了人才。过去两年中,在GitHub上对AXLearn做出贡献的18名贡献者中,至少有7人曾在谷歌或Meta工作。苹果很可能通过研究社区来培养人才,这使得开源成为正确的道路。
通过收集的信息,我们可以得出这样一个结论:苹果已经组建了两个新的团队,致力于语言和图像模型的研发。苹果最近的人工智能研究论文暗示着他们正在开发能够生成图像、视频和3D场景的软件,这也意味着他们正在进行多模式人工智能的研究。
然而,关于将LLM集成到苹果产品中的细节还存在不确定性。苹果通常倾向于将新软件引入其设备,但将一个需要更多存储空间和计算能力的2000亿参数LLM集成到iPhone上是不可行的。公司可能会致力于为手机集成开发较小的模型,或者该模型可能会用于其他用途,而具体细节尚不清楚。