AI 正在走向一场能源危机,让科技巨头们争先恐后
这人工智能工业界正在争先恐后地通过更好的冷却系统、更高效的计算机芯片和更智能的编程来减少其巨大的能源消耗——与此同时,人工智能的使用在全球范围内呈爆炸式增长。
AI 完全依赖于数据中心,根据国际能源署.这是他们今天使用的两倍。
美国咨询公司麦肯锡 (McKinsey) 的专家描述了一场竞相建设足够的数据中心以跟上 AI 的快速增长,同时警告说,世界正走向电力短缺。
“有几种方法可以解决这个问题,”密歇根大学计算机科学教授 Mosharaf Chowdhury 解释说。
公司可以建立更多的能源供应——这需要时间,而人工智能巨头已经在全球范围内寻找——或者想办法在相同的计算能力下消耗更少的能源。
Chowdhury 认为,从物理硬件到 AI 软件本身,各个层面的“聪明”解决方案都可以应对挑战。
例如,他的实验室开发了算法,可以准确计算每个 AI 芯片需要多少电力,从而减少 20-30% 的能源使用。
“聪明”的解决方案
20 年前,运营数据中心(包括冷却系统和其他基础设施)所需的能源与运行服务器本身所需的能源相同。
如今,运营使用的能耗仅为服务器消耗量的 10%,咨询公司 Arup 的 Gareth Williams 说。
这主要是通过这个专注于能源效率.
许多数据中心现在使用 AI 驱动的传感器来控制特定区域的温度,而不是均匀地冷却整个建筑物。
这使他们能够实时优化水和电的使用,麦肯锡的 Pankaj Sachdeva 表示。
对许多人来说,改变游戏规则的将是液体冷却,它用直接在服务器中循环的冷却剂取代了高能耗空调的轰鸣声。
“所有大牌球员都在关注它,”威廉姆斯说。
这很重要,因为 Nvidia 等公司的现代 AI 芯片消耗的电力是二十年前服务器的 100 倍。
亚马逊世界领先的云计算业务 AWS 上周表示,它已经开发了自己的液体方法来冷却其服务器中的 Nvidia GPU,从而避免了重建现有数据中心。
“根本没有足够的液体冷却能力来支持我们的规模,”计算和机器学习AWS 的服务,在 YouTube 视频中说。
美国 vs 中国
对于麦肯锡的 Sachdeva 来说,一个令人放心的因素是,每一代新一代计算机芯片都比上一代更节能。
普渡大学 Yi Ding 的研究表明,AI 芯片可以在不损失性能的情况下使用更长时间。
丁俊晖补充说,“但很难说服半导体公司减少收入”,鼓励客户更长时间地使用同一设备。
然而,即使更高的芯片效率和能耗可能会使 AI 更便宜,也不会降低总能耗。
“能源消耗将继续上升,”丁先生预测道,尽管人们尽一切努力限制能源消耗。“但也许不会那么快。”
在美国,能源现在被视为保持该国在 AI 方面优于中国竞争优势的关键。
今年 1 月,中国初创公司 DeepSeek 推出了一款 AI 模型,尽管使用的芯片功能较弱,但性能与美国顶级系统相当,进而能耗也较低。
DeepSeek 的工程师通过更精确地对 GPU 进行编程并跳过以前被认为必不可少的能源密集型训练步骤来实现这一目标。
中国在可用能源(包括可再生能源和核能)方面也有望领先于美国。
©法新社