本帖最后由 denny 于 2024-7-23 15:10 编辑 ![]() “人工智能的未来或将受限于一种日渐紧张的资源——电力。” 就在不久前,围绕人工智能(AI)的迅猛扩展,特斯拉首席执行官埃隆·马斯克便发出了此类警示。 他透露,对于人工智能处理能力的限制是可以预见的,“一年多以前,我便预告了芯片的短缺,接下来,我们面临的将是电力的紧缺。我认为,明年的电力供应将不足以支撑所有芯片的运作。” 与此同时,OpenAI的首席执行官山姆·奥特曼也发声称,人工智能实际上将耗费比众多预期更多的电力,未来的展望要求能源的重大突破。 随着人工智能的快速发展,其背后的能源消耗问题亦开始显露,逐渐成为行业内人士密切关注的重点。有观点甚至指出,“AI的极限是算力,而算力的极限则是电力”。 ![]() 1、AI的电力消耗有多大? 目前的人工智能大型模型的竞争,宛如一场“算力军备赛”。在所谓“规模效应”(Scaling Law)的推动下,各企业不断扩增模型参数和数据体量,以期达成“大打出手”的效果。与此同时,对算力的需求也随之成几何倍数增加。 虽然“算力”本身较为抽象,但其实体载体很具体,主要表现在数据中心和智能计算中心等算力基础设施上。算力的背后,靠着电力的支撑。想象一下这样一个场景——在数据处理中心或智能计算中心,无数台服务器和芯片整齐排列,日以继夜地运行着。 根据报道,目前用于训练AI大规模模型的核心算力芯片是NVIDIA的H100,单片的最高功耗可达700瓦特,这意味着其每小时的电力消耗为0.7度电。最近有报道称,OpenAI公司在训练其GPT-5模型时,可能使用了数万片这样的芯片。 以GPT-3为例,其拥有1750亿个参数量。据估计,其训练过程大约消耗了1287兆瓦时电力,即大约128.7万度电。 这一电量如何理解呢?它大约相当于美国121户家庭一年的电力消费。也有专家通过类比,将其比作3000辆特斯拉电动汽车,假设每辆汽车行驶20万英里的能耗。 GPT-3是在2020年推出的,那么这种模式的新版本耗能情况如何呢?尽管近年来许多AI技术公司不再公开他们的训练细节、使用的硬件或耗时等信息,但GPT-3的能耗数据至少提供了一个参考点。据报,GPT-4的参数量已增至1.8万亿个。随着参数数量的翻倍,其能耗理应会有显著增加。然而,这些能耗计算只涵盖了AI的训练初期,一旦训练完成,AI便步入了另一个电力消耗的新阶段——推理,即应用AI技术后输出结果的时期。 AI的训练仅是一个起点,其运用则是一场漫长的旅程。随着技术的广泛应用和用户数量的增加,其电力需求持续累积上升。 根据国际能源署在今年一月发布的报告,ChatGPT处理一次查询的平均耗电为2.9瓦时,这大致相当于让一个60瓦的灯泡维持亮度不足三分钟的时间。 美国媒体披露,ChatGPT每日大约处理两亿次查询,消耗的电力超过五十万千瓦小时,这一数字几乎等同于一万七千个美国家庭一天的电力消费。 试想这样一个简单的算术题:GPT-3的训练阶段耗电大约为128万千瓦小时,而ChatGPT为了满足每日的查询需求则消耗了50万千瓦小时的电力。由此可见,GPT-3在训练期间所消耗的电力,连续支持ChatGPT运作三天都是不够的。 那么,AI是否面临着“电力短缺”的状况呢? 似乎各种数据都在指向同一个结论:AI似乎变成了一个“耗电怪兽”。我们接着看,AI的能量需求还能否得到满足?关于AI是否“缺电”的更多讨论,还是让数据来说明问题。据现有数据显示,2023年美国的总发电量达到了41781.71亿千瓦时,若以ChatGPT每日消耗电力为50万千瓦时计算,一年下来共计需电18250万千瓦时,这一数字仅占美国全年发电总量的大约0.0044%。 ![]() 确实,除了ChatGPT外,还有许多其他AI应用在运行,但ChatGPT的电力消耗数据为我们提供了一个考量窗口。从中可以观察到,即便是在人工智能计算能力飞速增长的背景下,其对电力资源的总体需求仍然处于较低水平。 |
推荐帖子
揭开NEO人形机器人爆火背后,比特斯拉更强的AI公司是谁?揭开NEO人形机器人爆火背后,
denny 131 看过
OpenAI七万亿芯片计划启动,挑战苹果与英伟达霸主地位
denny 102 看过
AI功能跳票,苹果秋季发布不及预期
denny 128 看过
ChatGPT免费用户破2亿,OpenAI付费业务用户达百万
denny 111 看过