TechInsights对2025年至2029年间环球总用电量进行了基线丈量,数据来自美国能源情报署。
该丈量是基于每个GPU利用700瓦的功耗,这是英伟达旗舰Hopper GPU的功耗。
英伟达即将推出的名为Blackwell的GPU速率更快,但功耗为1200瓦。

到2029年人工智能将花费世界1.5%用电量_人工智能_英伟 智能问答

TechInsights的假设仅包括芯片花费的功率,不包括存储、内存、网络和用于天生式人工智能(GenAI)的其他组件的功耗丈量。

TechInsights剖析师Owen Rogers在一份研究报告中表示:“考虑到对GPU容量的巨大需求,以及为这些昂贵资产供应回报的须要,如此高的利用率是可行的。

麦肯锡的一项人工智能调查显示,65%的受访者打算采取GenAI。

为了知足需求,云供应商和超大规模厂商正在投资数十亿美元来增加GPU的数量。
微软依赖英伟达的GPU来运行其人工智能根本举动步伐,而Meta声称将拥有一个相称于“近60万个H100”GPU的打算环境。

根据TechInsights的数据,英伟达在2023年的GPU出货量约为376万颗,高于2022年的约260万颗。

去年,Gartner对电力花费做出了更为激进的预测,称人工智能“可能花费环球3.5%的电力”。
Gartner的方法尚不清楚,但可能包括网络、存储和内存。

人工智能竞赛的特点是公司供应最快的根本举动步伐和更好的结果。
在商业中运用人工智能的热潮打乱了长期建立的企业可持续发展操持。

微软(Microsoft)、谷歌(Google)和亚马逊(Amazon)正斥资数十亿美元,培植配备GPU和人工智能芯片的巨型数据中央,以演习和做事更大的模型,这进一步增加了电力包袱。

本钱寻衅

Rogers在研究报告中说,做事器可以花2万美元购买,但企业须要考虑到不断增长的电力本钱和能源网络面临的寻衅。
数据中央还须要设计成能够处理人工智能的电力需求。
这种需求可能取决于电网容量和备用电力容量的可用性。
能源公司也有任务为人工智能时期做好准备,建立发电站、太阳能农场、输电线路等电力根本举动步伐。

“如果需求无法知足,能源供应商将采纳基于市场的方法来管理产能,即提高价格以减少花费,而不是谢绝产能。
这样,可能会对人工智能技能的用户产生本钱影响。
”Rogers说。

美国政府的第一个目标是到2035年生产100%的清洁能源,这将减轻电网的包袱。
这也将为更多的人工智能数据中央打开大门。

有效利用能源

人工智能花费的电力侧面反响了加密货币挖矿给电网带来的包袱。
根据美国能源情报署2月份发布的一份报告,加密货币挖矿约占美国用电量的2.3%。
然而,能源行业不雅观察人士同等认为,与比特币挖矿比较,人工智能是一种更有效的能源利用办法。

英伟达的人工智能重点还在于有效利用能源。
为了降落能耗,英伟达的GPU采取了自己的芯片技能。
该公司正在将散热技能从空气冷却改为液体冷却。

英伟达超大规模和高性能打算业务副总裁兼总经理Ian Buck在上个月的一次投资者活动上表示:“这里的机会……是帮助他们通过一个固定的兆瓦级数据中央,以尽可能低的本钱得到最大性能。

高性能打算供应商、人工智能和可持续性

在最近的ISC 24超级打算会议上,小组成员取笑英伟达,声称其1000瓦的GPU是“可持续的”。

政府实验室还表示,GPU和直接液体冷却比过去的CPU供应了更好的性能扩展。
美国劳伦斯利弗莫尔国家实验室正在建造即将到来的2百亿亿次超级打算机“酋长”(El Capitan),该实验室将冷却能力增加了18,000吨,提高到28,000吨,并将当前和未来系统的电力供应提高到85兆瓦。

LLNL首席技能官Bronis de Supinski在一个分组谈论会上表示:“El Capitan…耗电量将低于40兆瓦,约为30兆瓦,但这仍是很大的电力。

他承认,El Capitan超级打算机可能不被认为是环保的,但重点也该当放在性能-功率范围内取得的成果上。
例如,如果一台超级打算机能够办理景象问题,那么它所花费的能量可能是值得的。

“一台30兆瓦的超级打算机?我不会见告你这是一种可持续的资源,但它可以做很多事情来办理我们想要办理的社会问题,” Supinski说。

实验室也在转向可再生能源和液体冷却。
例如,LRZ的主席Dieter kranzlller在ISC 24会议上表示,液体冷却“节省了大约50%的冷却能源”。

在可持续打算环境中,碳中和、捕获和再利用废热以及材料再利用也被考虑在内。

HPC的过去驱动未来

让超级打算机更节能的努力现在被用来更好地利用人工智能处理中花费的每一瓦特能源。

在上个月的惠普Discover大会上,惠普首席实行官 Antonio Neri表示,公司正在将Frontier和El Capitan中利用的能效技能移植到搭载英伟达GPU的人工智能系统中。
“惠普拥有天下上最大的水冷制造能力之一。
为什么?由于我们必须为超级打算机做这件事。
”英伟达首席实行官黄仁勋也在台上称:“液体冷却的未来将带来更好的性能、更低的根本举动步伐本钱和更低的运营本钱。

终端人工智能

消费设备制造商正在兜售带有人工智能神经芯片的个人电脑和其他移动设备终端。
神经芯片可以在本地运行人工智能模型,减少云打算中GPU的压力。

苹果供应了其设备上和云上人工智能计策的完全愿景——如果iPhone或Mac确定无法在设备上完成人工智能任务,它会将查询重新路由到苹果数据中央的云做事器。
苹果用户还可以选择是在设备上运行人工智能还是通过云运行。

微软鼓励在Windows设备中利用人工智能芯片。
高通的AI Hub许可用户运行基准测试,以理解AI模型在设备上的运行情形。
这可以让用户决定是在设备上运行推理还是在云中运行。
然而,目前还没有针对个人电脑的人工智能杀手级运用程序,可以让个人电脑将人工智能的压力从云真个GPU转移下来。