人工智能行业 正在努力通过更好的冷却系统、更高效的计算机芯片和更智能的编程来减少其巨大的能源消耗——与此同时,人工智能的使用在全球范围内呈爆炸式增长。
人工智能完全依赖于数据中心,根据国际能源署的数据,到 2030 年,数据中心可能消耗全球 3% 的电力,是目前用量的两倍。
美国咨询公司麦肯锡的专家描述了一场建立足够多数据中心以跟上人工智能快速增长的竞赛,同时警告说世界正走向电力短缺。
密歇根大学计算机科学教授 Mosharaf Chowdhury 解释道:“解决这个问题的方法有很多种。”
相关:谷歌利用核反应堆为其人工智能提供动力
公司可以建立更多的能源供应——这需要时间,而且人工智能巨头已经在全球范围内进行探索——或者研究如何在相同计算能力下消耗更少的能源。
乔杜里相信,从物理硬件到人工智能软件本身,各个层面都可以通过“聪明”的解决方案来应对这一挑战。
例如,他的实验室开发了算法,可以精确计算每个人工智能芯片需要多少电量,从而将能耗降低 20% 至 30%。

“聪明”的解决方案
二十年前,运营一个数据中心(包括冷却系统和其他基础设施)所需的能源与运行服务器本身一样多。
咨询公司 Arup 的 Gareth Williams 表示,如今运营仅使用了服务器所消耗能源的 10%。
这主要是通过关注能源效率来实现的。
现在许多数据中心使用人工智能传感器来控制特定区域的温度,而不是均匀地冷却整个建筑物。
麦肯锡的 Pankaj Sachdeva 表示,这使得他们能够实时优化水和电的使用。
对于许多人来说,改变游戏规则的技术将是液体冷却,它用直接在服务器中循环的冷却剂取代高能耗空调的轰鸣声。
威廉姆斯说:“所有大公司都在关注此事。”
这很重要,因为 Nvidia 等公司生产的现代 AI 芯片消耗的电量比 20 年前的服务器高出 100 倍。
亚马逊全球领先的云计算业务 AWS 上周表示,它已经开发出自己的液体方法来冷却其服务器中的 Nvidia GPU,从而避免重建现有的数据中心。
AWS 计算和机器学习服务副总裁戴夫·布朗 (Dave Brown) 在 YouTube 视频中表示:“液体冷却能力根本不足以支持我们的规模。”
美国与中国
对于麦肯锡的 Sachdeva 来说,一个令人欣慰的因素是,每一代新的计算机芯片都比上一代更加节能。
普渡大学的丁毅的研究表明,AI芯片可以使用更长时间而不会损失性能。
丁补充说:“但通过鼓励客户更长时间地使用相同的设备,很难说服半导体公司减少利润。”
然而,即使芯片和能源消耗的更高效率可能会使人工智能更便宜,但它不会降低总体能源消耗。
“能源消耗仍将持续上升,”丁耘预测道,尽管各方都在努力限制能源消耗。“但速度可能不会那么快。”
在美国,能源现在被视为保持其在人工智能领域对中国竞争优势的关键。
今年 1 月,中国初创公司 DeepSeek 推出了一款人工智能模型,尽管其使用的芯片性能较弱,能耗也较低,但其性能与美国顶级系统一样出色。
DeepSeek 的工程师通过更精确地编程 GPU 并跳过之前被认为必不可少的耗能训练步骤实现了这一目标。
人们还担心,中国在可用能源(包括可再生能源和核能)方面远远领先于美国。
©法新社