Apple AI的研究人员发明了一种利用闪存存储AI模型的技术,让大型语言模型(LLM)能够在iPhone等内存有限的设备上运行。这为iPhone带来了更快的AI能力,也为Apple的生成型AI模型“Ajax”打下了基础。
LLM和内存限制
LLM是一种数据和内存密集的AI应用,如ChatGPT和Claude等聊天机器人。它们通常需要大量的内存才能运行,这对于iPhone等内存容量有限的设备来说是一个难题。Apple的研究人员开发了一种新颖的技术,利用闪存(也就是存储应用和照片的内存)来存储AI模型的数据。
将AI存储在闪存上
在一篇新的研究论文中,作者指出,闪存在移动设备中比运行LLM的传统内存(RAM)更丰富。他们的方法使用了两种技术,减少了数据传输和提高了闪存吞吐量:
根据论文,这些方法使AI模型能够运行到iPhone可用内存的两倍大小。这意味着在标准处理器(CPU)上速度提高了4-5倍,在图形处理器(GPU)上速度提高了20-25倍。作者写道:“这对于在资源有限的环境中部署先进的LLM非常重要,从而扩大了它们的适用性和可访问性。”
iPhone上更快的AI
AI效率的提升为iPhone的未来带来了新的可能性,比如更先进的Siri功能、实时语言翻译和摄影和增强现实中的复杂的AI驱动功能。这项技术也为iPhone在设备上运行复杂的AI助手和聊天机器人奠定了基础,这是Apple据说已经在研究的东西。
Apple在生成型AI方面的工作可能会融入到Siri语音助手中。Apple在2023年2月举行了一个AI峰会,向员工介绍了其大型语言模型的工作。据彭博社报道,Apple的目标是让Siri更智能,更深入地与AI集成。Apple计划更新Siri与消息应用的交互方式,让用户能够更有效地处理复杂的问题和自动完成句子。Apple还计划将AI添加到更多的Apple应用中。
Apple GPT
据报道,Apple正在开发自己的生成型AI模型,名为“Ajax”。Ajax旨在与OpenAI的GPT-3和GPT-4等竞争,它在2000亿个参数上运行,表明它在语言理解和生成方面具有很高的复杂性和能力。Ajax被称为“Apple GPT”,旨在统一Apple的机器学习开发,暗示了一个更广泛的战略,将AI更深入地融入Apple的生态系统。
Ajax比早期的ChatGPT 3.5更有能力。然而,也有人暗示,OpenAI的新模型可能已经超越了Ajax在2023年9月的能力。
分析师Jeff Pu称,Apple将在2024年底左右,在iPhone和iPad上推出某种生成型AI功能,届时iOS 18也将发布。Pu在10月份说,Apple在2023年建造了几百台AI服务器,到2024年还会增加。Apple还将提供一种云端AI和设备端AI的组合。