Anthropic首席执行官:未来三年,AI训练成本将上升至百亿甚至千亿美元

2024年07月09日 由 daydream 发表 90 0

Anthropic公司的首席执行官Dario Amodei在播客访谈中透露,目前正紧锣密鼓研发的AI模型,其训练成本可能飙升至惊人的10亿美元大关。他对比指出,像ChatGPT-4这样的前沿模型,训练成本尚维持在约1亿美元的水平,但展望未来三年,他预测这一数字将急剧膨胀至100亿乃至1000亿美元。


微信截图_20240709095543


“现阶段,单个模型的训练成本大约在1亿美元左右。而当前正在研发中的模型,其成本已接近10亿美元。”Amodei进一步强调,“如果成本真的攀升至100亿或1000亿美元,我认为这将在不远的将来,即2025年、2026年或2027年实现。在算法优化与芯片技术进步的双重驱动下,届时我们极有可能拥有在多数领域超越人类智慧的AI模型。”


在探讨从生成式人工智能(如ChatGPT)向通用人工智能(AGI)迈进的路径时,Amodei认为这一转变并非一蹴而就,而是渐进式的发展过程,新模型将站在前人的肩膀上不断迭代进化,这一过程与儿童学习成长的模式颇为相似。


他进一步分析指出,若AI模型的能力保持每年十倍的增长速度,那么支撑其运行的硬件性能也需相应提升至少十倍。因此,硬件成本很可能成为推动AI训练成本激增的关键因素。据2023年数据显示,ChatGPT的运行就消耗了超过3万个GPU,而Sam Altman也确认了ChatGPT-4的训练成本高达1亿美元。


回顾去年,全球数据中心共接收了超过380万个GPU。鉴于英伟达最新B200 AI芯片的单价约为3万至4万美元,Amodei所提的10亿美元训练成本预估在2024年便有望实现。若模型优化与量化研究的进步持续保持当前的指数级增速,硬件需求亦将同步暴增,除非如搜狐AI芯片等更高效的技术能够迅速普及。


事实上,这种指数级增长的趋势已初露端倪。埃隆·马斯克计划采购30万个B200 AI芯片,而OpenAI与微软更是联手规划了一个价值千亿美元的AI数据中心项目。面对如此庞大的需求,若英伟达等供应商能跟上市场步伐,GPU数据中心明年的交付量有望激增至3800万个。


然而,在追求AI技术飞跃的同时,电力供应及基础设施建设亦不容忽视。仅去年售出的数据中心GPU所消耗的电力,就足以满足约130万户家庭的日常用电需求。若数据中心的电力需求继续以指数级速度攀升,电力供应短缺及价格上涨或将成为严峻挑战。此外,除了扩建发电厂外,还需构建全新的电网系统,以应对AI芯片运行所产生的巨大电力负荷。鉴于此,微软等科技巨头已开始考虑为其数据中心引入模块化核能等创新能源解决方案。


综上所述,人工智能技术的迅猛发展正引领着硬件创新的浪潮。Anthropic公司预测的1000亿美元训练成本虽看似遥远,但在英伟达、AMD、英特尔等厂商的支持下,这一愿景正逐步成为现实。然而,随着AI技术以惊人的速度进步,其对社会未来的深远影响也值得我们深思。

文章来源:https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-models-that-cost-dollar1-billion-to-train-are-in-development-dollar100-billion-models-coming-soon-largest-current-models-take-only-dollar100-million-to-train-anthropic-ceo
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消