近期,苹果公司向人工智能开发人员提供了M3芯片,使他们能够在MacBook上无缝地使用具有数十亿参数的大型Transformer模型。苹果在其博客文章中表示:“高达128GB的内存支持解锁了以前在笔记本电脑上无法实现的工作流程。”目前,只有14英寸MacBook Pro支持M3、M3 Pro和M3 Max芯片,而16英寸MacBook Pro只支持M3 Pro和M3 Max配置。苹果还声称,其增强的神经引擎有助于加速强大的机器学习(ML)模型,并保护隐私。
“活在当下真是太好了,”Yi Ding说道。他表示,开发人员现在可以在14英寸笔记本电脑上运行具有1800亿参数的最大开源LLM,同时保护隐私。
然而,在笔记本电脑上运行开源LLM并不是新鲜事。此前,人工智能界也尝试过使用M1芯片。invideo的联合创始人兼首席技术官Anshul Khandelwal在他的M1芯片驱动的MacBook上尝试了一个650亿的开源LLM项目。他表示,这改变了一切。他补充道“每个技术人员都运行本地LLM的未来并不遥远”。
苹果声称,M3芯片系列目前比M2系列芯片快15%,比M1系列芯片快60%。在性能和其他规格方面,M2和M3之间明显存在差异。苹果最新的芯片具有相同的core数量,但性能和效率core的平衡不同,支持的内存容量也从32GB扩展到了36GB。
M3芯片支持高达128GB的统一内存,相比前一代芯片M1和M2的容量翻倍。这种扩展的内存容量对于需要大量内存资源来训练和执行大型语言模型和复杂算法的人工智能/机器学习工作负载尤为关键。
除了增强的神经引擎和扩展的内存支持外,M3芯片还采用了重新设计的GPU架构。
这种架构专为提供卓越的性能和效率而设计,具有动态缓存、网状着色和光线追踪功能。这些进步专门设计用于加快AI/ML工作负载并优化整体计算效率。
新的M3芯片采用了“动态缓存”的GPU,与传统的GPU不同,它在实时使用本地存储器,提高了GPU利用率,并显著提升了对要求高的专业应用和游戏的性能。
对于游戏开发人员和使用Photoshop或与照片相关的人工智能工具等图形密集型应用程序的用户来说,GPU的功能将是有益的。苹果声称相对于M1系列芯片,硬件加速的网状着色和使用更少功耗的性能提升达到了2.5倍。
除苹果之外苹果,AMD、英特尔、高通和NVIDIA也在积极投资于增强边缘能力,使用户能够在笔记本电脑和个人电脑上运行大规模的人工智能工作负载。
例如,AMD最近推出了AMD Ryzen AI,其中包括首次内置AI引擎的x86 Windows笔记本电脑,以及独一无二的集成AI引擎。
另一方面,英特尔则依靠第14代Meteor Lake。这是第一个使用平铺架构的英特尔处理器,允许它混合搭配不同类型的核心,如高性能核心和低功耗核心,以实现性能和功耗效率的最佳平衡。
近期,高通还推出了Snapdragon X Elite。该公司的首席执行官Cristiano Amon声称其性能优于苹果的M2 Max芯片,并可在30%更低的功耗下实现相当的峰值性能。与此同时,NVIDIA也在投资于边缘用例,并利用Arm技术设计与微软Windows操作系统兼容的CPU。
人工智能开发人员越来越多地在本地运行和尝试语言模型。鉴于这一领域的最新进展,苹果正逐渐成为人工智能开发人员首选的平台。