近期,非营利性人工智能研究机构Epoch AI发布了一项关于ChatGPT能耗的研究分析,挑战了以往关于该平台能耗的普遍认知。此前有观点认为,ChatGPT回答一个问题的能耗约为3瓦时,是谷歌搜索的10倍。然而,Epoch AI的研究对此提出了质疑。
Epoch AI以OpenAI最新的ChatGPT默认模型GPT-4o为参考,发现平均而言,ChatGPT回答一个问题的能耗约为0.3瓦时,这一数值远低于许多家用电器。这一发现意味着,ChatGPT的能耗在日常使用中并不显著,与家庭电器的使用、供暖、制冷或驾驶汽车等活动的能耗相比,显得微不足道。
该研究的分析师指出,此前关于ChatGPT能耗高估的原因可能在于,相关研究采用了过时的数据和假设。例如,一些早期研究假设OpenAI使用的是较旧、效率较低的芯片来运行其模型,从而导致能耗估算偏高。
尽管Epoch AI的0.3瓦时数据提供了一个更为准确的能耗估算,但这仍然是一个近似值,因为OpenAI并未公开足够的信息来进行精确计算。此外,该分析尚未考虑ChatGPT中图像生成等附加功能以及输入处理所带来的额外能耗。分析师承认,对于包含长文件等“长输入”的ChatGPT查询,其能耗可能会高于普通问题。
尽管近年来AI效率取得了显著突破,但随着AI部署规模的扩大,预计仍将推动大规模、高能耗的基础设施扩张。据兰德公司的一份报告预测,未来两年内,AI数据中心可能需要接近加利福尼亚州2022年全部电力容量(68吉瓦)的电力供应。到2030年,训练一个前沿AI模型所需的电力输出可能相当于八个核反应堆(8吉瓦)的产出。
ChatGPT作为一个用户数量庞大且持续增长的平台,其服务器需求同样巨大。OpenAI及其投资合作伙伴计划在未来几年内投入数十亿美元用于新建AI数据中心项目。
同时,OpenAI及整个AI行业正转向推理模型,这类模型在任务执行能力上通常更强,但运行所需的计算能力也更多。与GPT-4o等几乎可以瞬时响应查询的模型相比,推理模型在回答问题前需要“思考”几秒到几分钟,这一过程消耗了更多的计算资源和电力。
尽管OpenAI已开始推出更节能的推理模型,如o3-mini,但至少在现阶段,这些效率提升似乎不足以抵消推理模型“思考”过程及全球AI使用量增长所带来的电力需求增加。
对于关注AI能耗问题的人来说,分析师建议减少使用AI应用,如ChatGPT,或选择那些最小化计算需求的模型。例如,可以尝试使用较小的AI模型,并在处理或生成大量数据方面谨慎使用。