導(dǎo)讀 12月17日最新消息,隨著人工智能的快速發(fā)展,對計算能力的需求也越來越旺盛。英偉達的AI處理器H100非常暢銷,每一塊H100峰值功耗高達700瓦
12月17日最新消息,隨著人工智能的快速發(fā)展,對計算能力的需求也越來越旺盛。英偉達的AI處理器H100非常暢銷,每一塊H100峰值功耗高達700瓦。隨著H100被大量部署,有專家預(yù)測總功耗甚至?xí)^一些歐洲小國。
微軟數(shù)據(jù)中心技術(shù)治理和戰(zhàn)略部門首席電氣工程師保羅楚諾克預(yù)測,到2024年年底當(dāng)數(shù)百萬H100芯片全部部署完成之后,總功耗將會超過美國亞利桑那州鳳凰城所有家庭的用電量。如果按照61%的年利用率算,每一塊H100每年將會消耗大約3740千瓦時的電量。針對于算力耗能如何應(yīng)對這個問題,有相關(guān)人士指出在控制大模型帶來的能耗和成本方面,半導(dǎo)體企業(yè)可以通過優(yōu)化計算結(jié)構(gòu)、提升能效等措施,降低大模型的能耗和成本。