
要点总结:
01 人工智能(AI)的能耗问题日益突出,预计随着 AI 技术的不断发展和广泛应用,其能耗占比将逐年增加。
02 专家指出,降低 AI 能耗的有效途径包括提升软硬件技术水平和优化宏观层面的建设布局,例如采用软硬件压缩、剪枝和量化等技术。
03 另一方面,AI 在数据中心业务中的地位日益重要,数据中心的数量和规模也在迅速扩张,但由此产生的能耗问题更为复杂。
04 为应对 AI 能耗挑战,一种观点认为,发展清洁低碳能源并在基础设施建设层面进行合理规划,有助于实现 AI 的环境友好型发展。
05 此外,针对特定需求训练较小的模型,能够以更低的成本满足实际应用需求,未来 AI 的发展趋势可能是“小而美”。
以上内容由大模型生成,仅供参考
11.5
知识分子
The Intellectual

图源:Pixabay
撰文 | 戚译引 冯灏
无论人们对人工智能(AI)的发展持何种态度,一个不容忽视的问题是 AI 的能源消耗。一方面,有人担忧 AI 发展过快,可能对能源市场、环境和气候造成负面影响;另一方面,也有人担心能源产业发展滞后,最终成为制约 AI 发展的瓶颈。
据预测,随着 AI 技术的进步和普及,AI 在能源消耗中的比例将逐年上升。为了满足未来需求,AI 研发企业已在能源供应领域投入巨额资金。例如,10 月 14 日,谷歌公司宣布将购买核能初创公司 Kairos Power 建造的小型模块化反应堆所生产的电力[1]。此前,微软公司于 9 月 20 日与星座能源公司(Constellation Energy)达成协议,将重启三里岛核电站 1 号反应堆,并购买其未来 20 年的发电量[2]。OpenAI 首席执行官山姆·奥特曼(Sam Altman)更早采取行动,于今年年初大举投资核聚变。
与此同时,新的趋势正在显现。多位业内人士向《知识分子》表示,可以通过多种方式降低 AI 的能耗,提高能源利用效率,包括软硬件技术的提升以及宏观层面的建设布局优化。更重要的是,AI 的发展方向不一定追求更大更强,一些“小而美”的模型正悄然兴起。
01
AI 能耗评估的挑战
关于 AI 的耗电量,一篇广为流传的报道称,ChatGPT 每日耗电量可能超过 50 万千瓦时,相当于 1.7 万个美国家庭的能耗总和[3]。另有研究估算,在最坏情况下,未来谷歌 AI 的能耗可能与爱尔兰这样的国家相当[4]。然而,也有观点认为,媒体和大众有选择性地关注估算结果较为夸张的研究,并将对 AI 能耗的担忧视为社会对新技术产生的惯常反应[5]。
尽管目前关于 AI 能耗的讨论主要基于估算数据,我们仍可就此进行一些定性分析。例如,从算法层面来看,多位业内人士表示,就单次计算的耗电量而言,AI 在训练阶段的能耗高于推理阶段。这意味着,大模型训练过程中的超高能耗不会成为 AI 应用的常态。
清华大学电子工程系主任、清华大学信息科学技术学院副院长汪玉团队测试了不同算力芯片的单卡推理功耗。他向《知识分子》透露:“推理阶段的功耗基本在 300W-500W 之间,国产芯片则在 150W-300W 之间;相比之下,训练阶段的功耗在 400W-700W 之间。未来推理功耗还有较大的下降空间,同等算力有望降至 100W 以下。”以开源大语言模型 LLama3-405B 为例,该模型拥有 4050 多亿个参数,“使用近 16000 块英伟达 H100 80GB 版本 GPU 进行训练,耗时 54 天,加上配套设备,总功耗接近 20 兆瓦,总能耗超过 20000 兆千瓦时”。
实际训练中的能量消耗往往高于理论计算结果。汪玉表示,大模型训练周期长,GPU 等硬件设备难免出现故障。在训练过程中,需要不断保存检查点,并在出错后中断训练并恢复检查点,这些操作都会造成难以预测的额外能耗开销。“这部分开销应该相当可观”,汪玉说道。
他提到,在大规模集群训练中,与容错相关的能耗开销非常显著。例如,Llama 3-405B 在为期 54 天的训练期间,共发生 466 次任务中断(平均每 3 小时发生一次中断),其中约 78% 的中断由硬件问题引起,容错和错误恢复的时间占比约为 10%,实际算力利用率仅为 38% 左右。
然而,从应用场景来看,用户推理请求的调用频率要高得多。这意味着,即使单次调用 AI 的耗电量很低,其总能耗也可能相当可观。南京大学高性能计算中心主任、高级工程师盛乐标告诉《知识分子》,AI 系统运行阶段最主要的成本是电费,但是,“AI 的实际应用价值与推理操作的广泛使用直接相关,只有在推理方面应用得更多,AI 的落地价值才更大。”
新能源的供电特性有效匹配,而这一过程恰恰需要 AI 前沿技术,尤其是大模型技术的支持。李中阳指出:“在宏观层面上,尽管 AI 的能耗与计算量在持续降低,整体能源消耗仍然显得相当高,因为计算需求始终存在。”
总体来看,关于 AI 算法能耗的讨论主要基于模型规模、显卡功率、计算时长等参数进行估算,这使得相关讨论变得极为复杂。研究 AI 伦理与政策的学者们呼吁应对这一不透明状况进行改革。
卡内基梅隆大学人工智能和数字政策中心的高级研究员、AIethicist.org 创始人梅尔希科克(Merve Hickok)在接受《知识分子》采访时指出,无法对 AI 的能耗进行量化评估便难以推动改进:“目前,各大科技公司对其能源消耗普遍有较为清晰的了解,但这些数据并不对外公开。在许多情况下,这些公司选择阻止数据的公开。”她强调,唯有实现信息透明,才能有效追究各方的环境责任,并推动学术界朝着更为节能的方向发展。
02
数据中心的能耗超乎想象
讨论 AI 能耗问题的挑战,不仅源于信息的不透明,还源于其边界的难以界定。具体而言,AI 所造成的能耗不仅源于算法与芯片的使用,还包括与其配套的基础设施,其中数据中心的能耗尤为重要。
尽管数据中心不仅用于 AI 的运行,还涉及加密货币等其他业务,但随着 AI 的迅速发展,AI 在数据中心业务中的重要性日益增加,这也导致数据中心的数量与规模快速扩大。无论是在能耗的数量级别,还是在多样的影响因素方面,数据中心的能耗问题都变得相当复杂。
数据显示,数据中心的电力消耗数字远超过大众的想象。国际能源署(IEA)发布的报告指出,2022年全球数据中心、比特币和 AI 的电能消耗占全球用电量的 2%,达到 460 TWh。基于当前的增长趋势,IEA 预计到 2026 年,全球数据中心的总能耗将达到 1000 TWh,增幅超过一倍。
统计数据表明,全球目前拥有超过 8000 座数据中心,其中约 33% 位于美国,16% 位于欧洲,接近 10% 位于中国。中国社会科学院工业经济研究所的助理研究员张瑾向《知识分子》表示:“全国数据中心的总耗电量与除去港澳台及西藏的其他 30 个省份的用电量相比,约排在 10 多名左右,超过近一半的省份全年的电力消耗量。”
与此同时,数据中心的数量和规模仍在继续增长。张瑾提到:“在我的研究范围内,数据中心的发展呈现爆炸式增长,无论是行业预测还是股票市场的投资,大家对这方面普遍持有极大的热情。”
IEA 的报告指出,在数据中心的内部,冷却系统和服务器的能耗最高,各自占据数据中心能耗的 40%。剩余的 20% 电能则用于能源供应系统、存储设备和通信设备。随着数据中心规模的扩大及芯片设备功率的提升,冷却系统的能耗问题逐渐引起了更多关注。值得注意的是,降低数据中心电能消耗的设计往往会导致水资源消耗的增加,从而对生态环境构成相应影响。
国际标准化组织可持续金融科技工作组的专家、中国环境科学学会碳达峰碳中和专委会委员陈钰什指出,随着数据中心规模的扩大,传统冷却系统的耗电成本越来越高。因此,“大型数据中心逐渐转向‘弃电用水’,通过冷水机或冷却塔进行热量交换。这虽然能显著降低电力消耗,但由于蒸发等原因,却导致水的消耗量惊人。”
微软发布的公开报告显示,其在2022财年的用水量达到了 640 万立方米,同比增加 34%,这一趋势与 AI 发展密切相关。加州大学河滨分校电气与计算机工程副教授任绍磊(Shaolei Ren)团队的研究显示,GPT-3 每响应 10 到 50 个请求,便需“消耗”一瓶 550 毫升的水。而陈钰什指出:“由于担心设备遭水腐蚀等问题,数据中心一般多使用淡水,使用非饮用水或可再生水的比例相对较低。2022年,谷歌在全球各地的数据中心共耗水 52.2 亿加仑(约 1,976 立方米),其中超过三分之二为淡水。这种用水结构进一步加剧了 AI 行业对全球水生态系统的影响。”
力来源息息相关。推动更加清洁和低碳的能源发展,以及基建规划的合理布局,均能助力人工智能向环境友好转型。多位行业专家提到,数据中心应尽量靠近发电厂,以实现计算和电力的耦合,从而减少电能在传输和存储过程中的损失,这种产业布局也有助于利用可再生电力。
“近年来,随着东数西算战略的推进,数据中心的布局呈现出由中心向周边、从东部向西部转移的发展趋势,”汪玉在接受《知识分子》采访时指出。他强调,目前新疆拥有丰富的绿色电力资源,包括光伏和风能。李中阳进一步表示:“对中国而言,最大的优势在于坚强的电网和充足的能源供应能力,而挑战在于如何尽可能利用更多新能源以推动人工智能的发展。”
然而,在东西部发展不均衡的背景下,西部数据中心建设仍面临人才短缺和维护困难等问题。“东数西算最大的挑战在于东部的数据或计算需求难以有效传递到西部,”盛乐标指出。由于人工智能计算通常需要大量数据,如果计算需求距离数据中心距离过远,数据传输成本将显著增加。因此,尽管贵州、内蒙古等西部地区已建设了多座数据中心,但其使用效率仍显著低于东部的超算中心。
人工智能的庞大需求同样对绿色电力的稳定性提出了更高的要求。盛乐标指出,风电、水电和光伏都容易受到季节性因素的影响,而核电作为稳定且环保的能源选择,预计将成为未来数据中心选址的重要趋势。2024年3月,美国亚马逊公司即以6.5亿美元购买了一座位于核电站附近的数据中心,该核电站能够提供960兆瓦的电力。长远来看,可控核聚变技术的突破可能是支撑人工智能大规模发展的关键因素。
04
节能减排,
人工智能是助力还是障碍?
在气候问题愈发紧迫的当下,人工智能的发展与节能减排目标之间的矛盾愈发凸显。一些学者表达了担忧,认为从短期来看,人工智能增长导致的硬件需求增加必然会导致能耗和碳排放上升。
“数字产业化与产业数字化目前在整体经济系统的碳排放中占比相当高。尤其是,人们往往天然认为新技术产业符合绿色、低碳的要求,但它们的能耗并不低,生命周期排放也相当可观,”张瑾在接受《知识分子》采访时表示。
她指出,整体来看,学术界已认识到数字化转型与碳排放之间呈现倒U型关系。在数字化发展初期,大量基础设施的建设、配套设施的滞后及人才的短缺,使得数字化节能减排的效应被初期建设所产生的碳排放增加效应所抵消;随着基础设施的逐步完善,数字化技术的效率效应开始显现,能够显著提升能源效率并降低排放。“但我们最近的研究发现,数字化转型与碳排放之间的关系可能呈现N型,即随着数字化深度和广度的不断拓展,数据资源和计算能力成为推动经济增长的关键要素时,其对电力的需求将会呈现飞跃式的增长,进而导致能耗和排放的增加。”
也有观点认为,人工智能可以成为应对气候变化的有力工具,并且相关应用已经在一定程度上得以落地。“人工智能能够提供创新的手段来监测、分析和减少我们对环境的影响,”陈钰在接受《知识分子》采访时提到。他举例说,西门子(Siemens)在中国上海的智能制造中心所实施的人工智能数字化能源管理系统,实现了对整个制造流程的预测性维护,既提高了能源效益,又避免了非计划停机带来的额外消耗,使得单位产品的能耗降低了24%。此外,人工智能驱动的华为云盘古大模型和谷歌Flood Hub服务则提供了更为先进的气象预测,帮助人们应对极端天气。此外,人工智能还可应用于电网调度、废弃物管理等多个领域。
然而,量化评估人工智能在不同技术发展阶段对环境各方面影响的复杂性不容小觑。郑州大学管理学院讲师李国昊指出:“目前通过经济计量方法得出的结论表明,人工智能的发展能够减少排放,但这一结论实际上存有争议,因为我们很难清晰阐述人工智能影响碳排放的复杂机制,也难以有效剔除影响路径中的其他干扰因素。”
表示:“关注人工智能的能耗,如同在经济发展初期关注环境问题,本身就是一件不讨好的事情。”
上海金司南金融研究院产品创新中心主任尹茂华评论道,从可持续发展的角度来看,人工智能能耗问题“并非短期热点,而是生产力和生产关系根本性变革的新工业革命”。她认为,中国的人工智能技术与美国相比仍有数代差距,伴随着大模型商业应用的落地,能源占用和挤压正在发生,但芯片技术的迭代也在同步降低能耗。人工智能所引领的变革将如何影响能源结构,值得持续关注。
**05**
**人工智能的未来也许是“小而美”**
商业和科技行业“赢家通吃”的逻辑放大了对落后的担忧。但多位业界人士指出,一味发展大型模型、建设数据中心并不可取。
盛乐标指出,从头训练大型模型成本高昂,对中小企业而言并不现实,“单纯追求大型模型和数据中心的建设并不明智,人工智能要落地并产生更大价值,未来必然是面向各行各业的行业大模型……只有热度降下来以后,我们才能真正将精力放在算法优化,或是与行业结合的相关模型研究上。通过与具体行业应用的深度融合,才能实现人工智能价值的最大化。”
相比之下,有针对性地训练较小规模的模型可以用较低的成本满足实际需求。一些企业已经开始了此类尝试。“我们的能源消耗一定远低于那些构建大型模型的企业。”张继生介绍,“OpenAI等公司构建的大模型都拥有过千亿参数。我们与客户联系紧密,了解他们的需求,并根据这些需求开发了不同领域、不同行业的小模型,有些模型可能只有20亿或50亿参数。”与万亿参数模型相比,这种小模型的训练成本和训练时长都大大压缩,同时还能很好地适应特定领域的使用场景。
与功能强大的通用大模型相比,面向特定领域的模型较难引发大众关注。但实际上,多个AI引擎已经在用户界面上提供了特定的话题和用途选项,以便更精确地满足用户需求,这其中就体现了模型的迭代。
9月12日,OpenAI发布了较小的o1-preview和o1-mini模型,它们针对STEM领域进行了优化,“在物理、化学、生物等领域的重要挑战性任务上的表现与博士生相当”[9]。媒体报道指出,新模型增加了推理过程,导致响应延迟,有时需要一两分钟才能输出答案;这种做法可能增加了能耗,但同时也大幅提升了解答质量,未来或能帮助人类解决一些重要问题。
或许,除了人工智能之外,我们还可以从其他许多方面入手,降低数字技术的碳排放。图灵奖得主大卫·帕特森(David Patterson)从加州大学伯克利分校退休后加入谷歌公司,他牵头的一项研究分析了在智能手机和云端进行机器学习的能耗和碳排放,并于今年1月发表[10]。他在回复《知识分子》的邮件中表示:“根据我的研究,我认为与使用人工智能产生的碳排放相比,计算机制造过程中隐含的碳排放对气候变化构成了更大的挑战。”
该研究估计,人工智能和机器学习的用电量仅占智能手机用电量的1%,并指出手机充电器消耗的能源是手机的3倍以上,无线充电器的能耗尤其高昂。研究还指出:“2021年,使用寿命过短的智能手机的隐含碳足迹几乎是数据中心服务器的3倍……不久前,人们抛弃了75亿部智能手机。”
总而言之,人工智能的能耗问题牵涉微观和宏观的多个层面,气候问题更是如此。有时,这种复杂性会成为人们回避讨论或不作为的理由。但另一方面,这也表明无论行业还是个人,我们都有多种途径可以推动改变。
李璐对本文亦有贡献。
**参考文献:**(上下滑动可浏览)
[1]Michael Terrel. New nuclear clean energy agreement with Kairos Power. Google Blog.https://blog.google/outreach-initiatives/sustainability/google-kairos-power-nuclear-energy-agreement/. 2024-10-14/2024-10-22
nds-nuclear-plant-to-reopen-help-power-microsofts-ai-centers-aebfb3c8
[3] Kolbert, E. (2024). The Obscene Energy Demands of A.I.. *The New Yorker*. Retrieved from https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai
[4] de Vries, A. (2023). The growing energy footprint of artificial intelligence. *Joule*, *7*(10), 2191-2194.
[5] Castro, D. (2024). Rethinking Concerns About AI’s Energy Use. Center for Data Innovation. Retrieved from https://datainnovation.org/2024/01/rethinking-concerns-about-ais-energy-use/
[6] IEA. (2024). *Electricity 2024*. IEA, Paris. Retrieved from https://www.iea.org/reports/electricity-2024
[7] Microsoft. (2023). *2022 Environmental Sustainability Report*. Retrieved from https://news.microsoft.com/wp-content/uploads/prod/sites/42/2023/05/2022-Environmental-Sustainability-Report.pdf
[8] Li, P., Yang, J., Islam, M. A., et al. (2023). Making ai less" thirsty": Uncovering and addressing the secret water footprint of ai models. *arXiv preprint arXiv:2304.03271*.
[9] OpenAI. (2024). Introducing OpenAI o1-preview. Retrieved from https://openai.com/index/introducing-openai-o1-preview/
[10] Patterson, D., Gilbert, J. M., Gruteser, M., et al. (2024). Energy and Emissions of Machine Learning on Smartphones vs. the Cloud. *Communications of the ACM*, *67*(2), 86-97. Retrieved from https://dl.acm.org/doi/pdf/10.1145/3624719