AI 正在走向一场能源危机,让科技巨头们争先恐后

人工智能工业界正在争先恐后地通过更好的冷却系统、更高效的计算机芯片和更智能的编程来减少其巨大的能源消耗——与此同时,人工智能的使用在全球范围内呈爆炸式增长。

AI 完全依赖于数据中心,根据国际能源署.这是他们今天使用的两倍。

美国咨询公司麦肯锡 (McKinsey) 的专家描述了一场竞相建设足够的数据中心以跟上 AI 的快速增长,同时警告说,世界正走向电力短缺。

“有几种方法可以解决这个问题,”密歇根大学计算机科学教授 Mosharaf Chowdhury 解释说。

相关:Google 转向核反应堆为其人工智能提供动力

公司可以建立更多的能源供应——这需要时间,而人工智能巨头已经在全球范围内寻找——或者想办法在相同的计算能力下消耗更少的能源。

Chowdhury 认为,从物理硬件到 AI 软件本身,各个层面的“聪明”解决方案都可以应对挑战。

例如,他的实验室开发了算法,可以准确计算每个 AI 芯片需要多少电力,从而减少 20-30% 的能源使用。

预计到 2030 年,数据中心将占全球能源预算的 3%。(4X-image/Getty Images Signature/Canva)

“聪明”的解决方案

20 年前,运营数据中心(包括冷却系统和其他基础设施)所需的能源与运行服务器本身所需的能源相同。

如今,运营使用的能耗仅为服务器消耗量的 10%,咨询公司 Arup 的 Gareth Williams 说。

这主要是通过这个专注于能源效率.

许多数据中心现在使用 AI 驱动的传感器来控制特定区域的温度,而不是均匀地冷却整个建筑物。

这使他们能够实时优化水和电的使用,麦肯锡的 Pankaj Sachdeva 表示。

对许多人来说,改变游戏规则的将是液体冷却,它用直接在服务器中循环的冷却剂取代了高能耗空调的轰鸣声。

“所有大牌球员都在关注它,”威廉姆斯说。

这很重要,因为 Nvidia 等公司的现代 AI 芯片消耗的电力是二十年前服务器的 100 倍。

亚马逊世界领先的云计算业务 AWS 上周表示,它已经开发了自己的液体方法来冷却其服务器中的 Nvidia GPU,从而避免了重建现有数据中心。

“根本没有足够的液体冷却能力来支持我们的规模,”计算和机器学习AWS 的服务,在 YouTube 视频中说。

美国 vs 中国

对于麦肯锡的 Sachdeva 来说,一个令人放心的因素是,每一代新一代计算机芯片都比上一代更节能。

普渡大学 Yi Ding 的研究表明,AI 芯片可以在不损失性能的情况下使用更长时间。

丁俊晖补充说,“但很难说服半导体公司减少收入”,鼓励客户更长时间地使用同一设备。

然而,即使更高的芯片效率和能耗可能会使 AI 更便宜,也不会降低总能耗。

“能源消耗将继续上升,”丁先生预测道,尽管人们尽一切努力限制能源消耗。“但也许不会那么快。”

在美国,能源现在被视为保持该国在 AI 方面优于中国竞争优势的关键。

今年 1 月,中国初创公司 DeepSeek 推出了一款 AI 模型,尽管使用的芯片功能较弱,但性能与美国顶级系统相当,进而能耗也较低。

DeepSeek 的工程师通过更精确地对 GPU 进行编程并跳过以前被认为必不可少的能源密集型训练步骤来实现这一目标。

中国在可用能源(包括可再生能源和核能)方面也有望领先于美国。

©法新社

宝宝起名 起名

本站所有相关知识仅供大家参考、学习之用,部分来源于互联网,其版权均归原作者及网站所有,如无意侵犯您的权利,请与小编联系,我们将会在第一时间核实并给予反馈。
相关期刊推荐
湖北农机化

湖北农机化

农业基础科学 - 省级期刊

电力设备管理

电力设备管理

合作期刊 - 国家级期刊, 省级期刊

体育科技文献通报

体育科技文献通报

体育 - 国家级期刊

新媒体研究

新媒体研究

合作期刊 - 国家级期刊

当代会计

当代会计

会计 - 省级期刊

养殖与饲料

养殖与饲料

合作期刊 - 国家级期刊

冶金与材料

冶金与材料

冶金工业 - 省级期刊

中国传媒科技

中国传媒科技

合作期刊 - 国家级期刊

小学教学参考

小学教学参考

合作期刊 - 省级期刊

华夏教师

华夏教师

合作期刊 - 国家级期刊

中国文艺家

中国文艺家

中国文学 - 国家级期刊