據(jù)分析師Ray Wang分享的數(shù)據(jù),NVIDIA的AI服務(wù)器平臺在每一代的更新中都經(jīng)歷了顯著的功耗增長,從Ampere到Kyber,功耗八年間增長了100倍。
這種巨大的功耗增長主要歸因于每一代每機(jī)架GPU數(shù)量的增加,以及每個GPU的TDP的提升。
例如在使用Hopper時,以每機(jī)架10KW的額定功率運行,而使用Blackwell時,由于GPU數(shù)量的增加,這一功率幾乎提升至120KW。
除了GPU數(shù)量的增加,其他因素如先進(jìn)的NVLink/NVSwitch網(wǎng)絡(luò)架構(gòu)、新一代機(jī)架設(shè)計以及持續(xù)的機(jī)架利用率,也導(dǎo)致了超大規(guī)模數(shù)據(jù)中心的能源消耗以驚人的速度增長。
如今,大型科技公司紛紛參與“誰擁有更大規(guī)模的AI機(jī)架”的競賽,衡量標(biāo)準(zhǔn)已經(jīng)從傳統(tǒng)的計算能力轉(zhuǎn)變?yōu)椤凹?GW)”,像OpenAI和Meta等公司計劃在未來幾年內(nèi)增加超過10吉瓦的計算能力。
作為對比,AI超大規(guī)模企業(yè)消耗的1吉瓦能源,足以供應(yīng)大約100萬美國家庭,隨著大型科技公司紛紛建設(shè)大規(guī)模數(shù)據(jù)中心,單個數(shù)據(jù)中心的能耗已經(jīng)相當(dāng)于一個中等國家或幾個美國大州的用電量。
另外國際能源署(IEA)2025年的“能源與AI”研究報告估計,到2030年,AI的能源消耗將翻倍,幾乎是電網(wǎng)增長速度的四倍。