『壹』 數據中心電能使用EEUE分析
世界能源委員會1995年對能源效率的定義為:減少提供同等能源服務的能源投入。對於能耗居高不下的數據中心,研究提高能源效率具有深遠的社會效益和經濟效益。除了能源效率之外,數據中心還有多項其他性能指標,按照國際標准組織ISO的定義統稱為關鍵性能指標,或稱為關鍵績效指標,研究這些指標對於數據中心同樣具有十分重要的意義。
在已經頒布的數據中心性能指標中最常見的是電能使用效率PUE。在我國,PUE不但是數據中心研究、設計、設備製造、建設和運維人員最為熟悉的數據中心能源效率指標,也是政府評價數據中心工程性能的主要指標。
除了PUE之外,2007年以後還出台了多項性能指標,雖然知名度遠不及PUE,但是在評定數據中心的性能方面也有一定的參考價值,值得關注和研究。PUE在國際上一直是眾說紛紜、莫衷一是的一項指標,2015年ASHRAE公開宣布,ASHRAE標准今後不再採用PUE這一指標,並於2016年下半年頒布了ASHRAE 90.4標准,提出了新的能源效率;綠色網格組織(TGG)也相繼推出了新的能源性能指標。對PUE和數據中心性能指標的討論一直是國際數據中心界的熱門議題。
鑒於性能指標對於數據中心的重要性、國內與國際在這方面存在的差距,以及在採用PUE指標過程中存在的問題,有必要對數據中心的各項性能指標,尤其是對PUE進行深入地研究和討論。
1.性能指標
ISO給出的關鍵性能指標的定義為:表示資源使用效率值或是給定系統的效率。數據中心的性能指標從2007年開始受到了世界各國的高度重視,相繼推出了數十個性能指標。2015年之後,數據中心性能指標出現了較大變化,一系列新的性能指標相繼被推出,再度引發了國際數據中心界對數據中心的性能指標,尤其是對能源效率的關注,並展開了廣泛的討論。
2.PUE
2.1PUE和衍生效率的定義和計算方法
2.1.1電能使用效率PUE
TGG和ASHRAE給出的PUE的定義相同:數據中心總能耗Et與IT設備能耗之比。
GB/T32910.3—2016給出的EEUE的定義為:數據中心總電能消耗與信息設備電能消耗之間的比值。其定義與PUE相同,不同的是把國際上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。國內IT界和暖通空調界不少專業人士對於這一變更提出了不同的看法,根據Malone等人最初對PUE的定義,Et應為市電公用電表所測量的設備總功率,這里的Et就是通常所說的數據中心總的設備耗電量,與GB/T32910.3—2016所規定的Et應為採用電能計量儀表測量的數據中心總電能消耗的說法相同。筆者曾向ASHRAE有關權威人士咨詢過,他們認為如果要將「power」用「electricenergy」來替代,則採用「electricenergy consumption」(耗電量)更准確。顯然這一變更不利於國際交流。雖然這只是一個英文縮寫詞的變更,但因為涉及到專業術語,值得商榷。
ISO給出的PUE的定義略有不同:計算、測量和評估在同一時期數據中心總能耗與IT設備能耗之比。
2.1.2部分電能使用效率pPUE
TGG和ASHRAE給出的pPUE的定義相同:某區間內數據中心總能耗與該區間內IT設備能耗之比。
區間(zone)或范圍( boundary)可以是實體,如集裝箱、房間、模塊或建築物,也可以是邏輯上的邊界,如設備,或對數據中心有意義的邊界。
ISO給出的pPUE的定義有所不同:某子系統內數據中心總能耗與IT設備總能耗之比。這里的「子系統」是指數據中心中某一部分耗能的基礎設施組件,而且其能源效率是需要統計的,目前數據中心中典型的子系統是配電系統、網路設備和供冷系統。
2.1.3設計電能使用效率dPUE
ASHRAE之所以在其標准中去除了PUE指標,其中一個主要原因是ASHRAE認為PUE不適合在數據中心設計階段使用。為此ISO給出了設計電能使用效率dPUE,其定義為:由數據中心設計目標確定的預期PUE。
數據中心的能源效率可以根據以下條件在設計階段加以預測:1)用戶增長情況和期望值;2)能耗增加或減少的時間表。dPUE表示由設計人員定義的以最佳運行模式為基礎的能耗目標,應考慮到由於數據中心所處地理位置不同而導致的氣象參數(室外干球溫度和濕度)的變化。
2.1.4期間電能使用效率iPUE
ISO給出的期間電能使用效率iPUE的定義為:在指定時間測得的PUE,非全年值。
2.1.5電能使用效率實測值EEUE-R
GB/T32910.3—2016給出的EEUE-R的定義為:根據數據中心各組成部分電能消耗測量值直接得出的數據中心電能使用效率。使用EEUE-R時應採用EEUE-Ra方式標明,其中a用以表明EEUE-R的覆蓋時間周期,可以是年、月、周。
2.1.6電能使用效率修正值EEUE-X
GB/T32910.3—2016給出的EEUE-X的定義為:考慮採用的製冷技術、負荷使用率、數據中心等級、所處地域氣候環境不同產生的差異,而用於調整電能使用率實測值以補償其系統差異的數值。
2.1.7採用不同能源的PUE計算方法
數據中心通常採用的能源為電力,當採用其他能源時,計算PUE時需要採用能源轉換系數加以修正。不同能源的轉換系數修正是評估數據中心的一次能源使用量或燃料消耗量的一種方法,其目的是確保數據中心購買的不同形式的能源(如電、天然氣、冷水)可以進行公平地比較。例如,如果一個數據中心購買當地公用事業公司提供的冷水,而另一個數據中心採用由電力生產的冷水,這就需要有一個系數能使得所使用的能源在相同的單位下進行比較,這個系數被稱為能源轉換系數,它是一個用來反映數據中心總的燃料消耗的系數。當數據中心除採用市電外,還使用一部分其他能源時,就需要對這種能源進行修正。
2.1.8PUE和EEUE計算方法的比較
如果僅從定義來看,PUE和EEUE的計算方法十分簡單,且完全相同。但是當考慮到計算條件的不同,需要對電能使用效率進行修正時,2種效率的計算方法則有所不同。
1)PUE已考慮到使用不同能源時的影響,並給出了修正值和計算方法;GB/T32910.3—2016未包括可再生能源利用率,按照計劃這一部分將在GB/T32910.4《可再生能源利用率》中說明。
2)PUE還有若干衍生能源效率指標可供參考,其中ISO提出的dPUE彌補了傳統PUE的不足;EEUE則有類似於iPUE的指標EEUE-Ra。
3)EEUE分級(見表1)與PUE分級(見表2)不同。
4)EEUE同時考慮了安全等級、所處氣候環境、空調製冷形式和IT設備負荷使用率的影響。ASHRAE最初給出了19個氣候區的PUE最大限值,由於PUE已從ASHRAE標准中去除,所以目前的PUE未考慮氣候的影響;ISO在計算dPUE時,要求考慮氣候的影響,但是如何考慮未加說明;PUE也未考慮空調製冷形式和負荷使用率的影響,其中IT設備負荷率的影響較大,應加以考慮。
2.2.PUE和EEUE的測量位置和測量方法
2.2.1PUE的測量位置和測量方法
根據IT設備測點位置的不同,PUE被分成3個類別,即PUE1初級(提供能源性能數據的基本評價)、PUE2中級(提供能源性能數據的中級評價)、PUE3高級(提供能源性能數據的高級評價)。
PUE1初級:在UPS設備輸出端測量IT負載,可以通過UPS前面板、UPS輸出的電能表以及公共UPS輸出匯流排的單一電表(對於多個UPS模塊而言)讀取。在數據中心供電、散熱、調節溫度的電氣和製冷設備的供電電網入口處測量進入數據中心的總能量。基本監控要求每月至少採集一次電能數據,測量過程中通常需要一些人工參與。
PUE2中級:通常在數據中心配電單元前面板或配電單元變壓器二次側的電能表讀取,也可以進行單獨的支路測量。從數據中心的電網入口處測量總能量,按照中等標準的檢測要求進行能耗測量,要求每天至少採集一次電能數據。與初級相比,人工參與較少,以電子形式採集數據為主,可以實時記錄數據,預判未來的趨勢走向。
PUE3高級:通過監控帶電能表的機架配電單元(即機架式電源插座)或IT設備,測量數據中心每台IT設備的負載(應該扣除非IT負載)。在數據中心供電的電網入口處測量總能量,按照高標準的檢測要求進行能耗測量,要求至少每隔15min採集一次電能數據。在採集和記錄數據時不應該有人工參與,通過自動化系統實時採集數據,並支持數據的廣泛存儲和趨勢分析。所面臨的挑戰是以簡單的方式採集數據,滿足各種要求,最終獲取數據中心的各種能量數據。
對於初級和中級測量流程,建議在一天的相同時間段測量,數據中心的負載盡量與上次測量時保持一致,進行每周對比時,測量時間應保持不變(例如每周周三)。
2.2.2EEUE的測量位置和測量方法
1)Et測量位置在變壓器低壓側,即A點;
2)當PDU無隔離變壓器時,EIT測量位置在UPS輸出端,即B點;
3)當PDU帶隔離變壓器時,EIT測量位置在PDU輸出端,即C點;
4)大型數據中心宜對各主要系統的耗電量分別計量,即E1,E2,E3點;
5)柴油發電機饋電迴路的電能應計入Et,即A1點;
6)當採用機櫃風扇輔助降溫時,EIT測量位置應為IT負載供電迴路,即D點;
7)當EIT測量位置為UPS輸出端供電迴路,且UPS負載還包括UPS供電製冷、泵時,製冷、泵的能耗應從EIT中扣除,即扣除B1和B2點測得的電量。
2.2.3PUE和EEUE的測量位置和測量方法的差異
1)PUE的Et測量位置在電網輸入端、變電站之前。而GB/T32910.3—2016規定EEUE的Et測量位置在變壓器低壓側。數據中心的建設有2種模式:①數據中心建築單獨設置,變電站自用,大型和超大型數據中心一般採用這種模式;②數據中心置於建築物的某一部分,變電站共用,一般為小型或中型數據中心。由於供電局的收費都包括了變壓器的損失,所以為了准確計算EEUE,對於前一種模式,Et測量位置應該在變壓器的高壓側。
2)按照2.2.2節第6條,在計算EIT時,應減去機櫃風機的能耗。應該指出的是,機櫃風機不是輔助降溫設備,起到降溫作用的是來自空調設備的冷空氣,降溫的設備為空調換熱器,機櫃風機只是起到輔助傳輸冷風的作用,因此機櫃風機不應作為輔助降溫設備而計算其能耗。在GB/T32910.3徵求意見時就有人提出:機櫃風機的能耗很難測量,所以在實際工程中,計算PUE時,EIT均不會減去機櫃風機的能耗。在美國,計算PUE時,機櫃風機的能耗包括在EIT中。
3)PUE的測點明顯多於GB/T32910.3—2016規定的EEUE的測點。
2.3.PUE存在的問題
1)最近兩年國內外對以往所宣傳的PUE水平進行了澄清。我國PUE的真實水平也缺乏權威調查結果。GB/T32910.3—2016根據國內實際狀況,將一級節能型數據中心的EEUE放寬到1.0~1.6,其上限已經超過了國家有關部委提出的綠色數據中心PUE應低於1.5的要求,而二級比較節能型數據中心的EEUE規定為1.6~1.8,應該說這樣的規定比較符合國情。
2)數據中心總能耗Et的測量位置直接影響到PUE的大小,因此應根據數據中心建築物市電變壓器所承擔的荷載組成來決定其測量位置。
3)應考慮不同負荷率的影響。當負荷率低於30%時,不間斷電源UPS的效率會急劇下降,PUE值相應上升。對於租賃式數據中心,由於用戶的進入很難一步到位,所以數據中心開始運行後,在最初的一段時間內負荷率會較低,如果採用設計PUE,也就是滿負荷時的PUE來評價或驗收數據中心是不合理的。
4)數據中心的PUE低並非說明其碳排放也低。完全採用市電的數據中心與部分採用可再生能源(太陽能發電、風電等),以及以燃氣冷熱電三聯供系統作為能源的數據中心相比,顯然碳排放指標更高。數據中心的碳排放問題已經引起國際上廣泛地關注,碳使用效率CUE已經成為數據中心重要的關鍵性能指標,國內對此的關注度還有待加強。
5)GB/T32910.3—2016規定,在計算EIT時,應減去機櫃風機的耗能。關於機櫃風機的能耗是否應屬於IT設備的能耗,目前國內外有不同的看法,其中主流觀點是伺服器風機的能耗應屬於IT設備的能耗,其原因有二:一是伺服器風機是用戶提供的IT設備中的一個組成部分,自然屬於IT設備;二是由於目前伺服器所採用的風機基本上均為無刷直流電動機驅動的風機(即所謂EC電機),風機的風量和功率隨負荷變化而改變,因此很難測量風機的能耗。由於數據中心風機的設置對PUE的大小影響很大,需要認真分析。從實際使用和節能的角度出發,有人提出將伺服器中的風機取消,而由空調風機取代。由於大風機的效率明顯高於小風機,且初投資也可以減少,因此這種替代方法被認為是一個好主意,不過這是一個值得深入研究的課題。
6)國內相關標准有待進一步完善。GB/T32910.3—2016《數據中心資源利用第3部分:電能能效要求和測量方法》的發布,極大地彌補了國內標准在數據中心電能能效方面的不足;同時,GB/T32910.3—2016標准頒布後,也引起了國內學術界和工程界的熱議。作為一個推薦性的國家標准如何與已經頒布執行的強制性行業標准YD 5193—2014《互聯網數據中心(IDC)工程設計規范》相互協調?在標准更新或升級時,包括內容相似的國際標准ISOIEC 30134-2-2016在內的國外相關標准中有哪些內容值得借鑒和參考?標准在升級為強制性國家標准之前相關機構能否組織就其內容進行廣泛的學術討論?都是值得考慮的重要課題。ASHRAE在發布ASHRAE90.4標准時就說明,數據中心的標准建立在可持續發展的基礎上,隨著科學技術的高速發展,標准也需要不斷更新和創新。
7)PUE的討論已經相當多,事實上作為大數據中心的投資方和運營方,更關心的還是數據中心的運行費用,尤其是電費和水費。目前在數據中心關鍵性能指標中尚缺乏一個經濟性指標,使得數據中心,尤其是大型數據中心和超大型數據中心的經濟性無法體現。
2.4.PUE的比較
不同數據中心的PUE值不應直接進行比較,但是條件相似的數據中心可以從其他數據中心所提供的測量方法、測試結果,以及數據特性的差異中獲益。為了使PUE比較結果更加公平,應全面考慮數據中心設備的使用時間、地理位置、恢復能力、伺服器可用性、基礎設施規模等。
3.其他性能指標
3.1.ASHRAE90.4
ASHRAE90.4-2016提出了2個新的能源效率指標,即暖通空調負載系數MLC和供電損失系數ELC。但這2個指標能否為國際IT界接受,還需待以時日。
3.1.1暖通空調負載系數MLC
ASHRAE對MLC的定義為:暖通空調設備(包括製冷、空調、風機、水泵和冷卻相關的所有設備)年總耗電量與IT設備年耗電量之比。
3.1.2供電損失系數ELC
ASHRAE對ELC的定義為:所有的供電設備(包括UPS、變壓器、電源分配單元、布線系統等)的總損失。
3.2.TGG白皮書68號
2016年,TGG在白皮書68號中提出了3個新的能源效率指標,即PUE比(PUEr)、IT設備熱一致性(ITTC)和IT設備熱容錯性(ITTR),統稱為績效指標(PI)。這些指標與PUE相比,不但定義不容易理解,計算也十分困難,能否被IT界接受,還有待時間的考驗。
3.2.1PUE比
TGG對PUEr的定義為:預期的PUE(按TGG的PUE等級選擇)與實測PUE之比。
3.2.2IT設備熱一致性ITTC
TGG對ITTC的定義為:IT設備在ASHRAE推薦的環境參數內運行的比例。
伺服器的進風溫度一般是按ASHRAE規定的18~27℃設計的,但是企業也可以按照自己設定的伺服器進風溫度進行設計,在此進風溫度下,伺服器可以安全運行。IT設備熱一致性表示符合ASHRAE規定的伺服器進風溫度的IT負荷有多少,以及與總的IT負荷相比所佔百分比是多少。例如一個IT設備總負荷為500kW的數據中心,其中滿足ASHRAE規定的伺服器進風溫度的IT負荷為450kW,則該數據中心的IT設備熱一致性為95%。
雖然TGG解釋說,IT設備熱一致性涉及的只是在正常運行條件下可接受的IT溫度,但是IT設備熱一致性仍然是一個很難計算的能源效率,因為必須知道:1)伺服器進風溫度的范圍,包括ASHRAE規定的和企業自己規定的進風溫度范圍;2)測點位置,需要收集整個數據中心伺服器各點的進風溫度,由人工收集或利用數據中心基礎設施管理(DCIM)軟體來統計。
3.2.3IT設備熱容錯性ITTR
TGG對ITTR的定義為:當冗餘製冷設備停機,或出現故障,或正常維修時,究竟有多少IT設備在ASHRAE允許的或建議的送風溫度32℃下送風。
按照TGG的解釋,ITTR涉及的只是在出現冷卻故障和正常維修運行條件下可接受的IT溫度,但是ITTR也是一個很難確定的參數。ITTR的目的是當冗餘冷卻設備停機,出現冷卻故障或在計劃維護活動期間,確定IT設備在允許的入口溫度參數下(<32℃)運行的百分比,以便確定數據中心冷卻過程中的中斷或計劃外維護的性能。這個參數很難手算,因為它涉及到系統操作,被認為是「計劃外的」條件,如冷卻單元的損失。
3.3.數據中心平均效率CADE
數據中心平均效率CADE是由麥肯錫公司提出,爾後又被正常運行時間協會(UI)採用的一種能源效率。
CADE提出時自認為是一種優於其他數據中心能源效率的指標。該指標由於被UI所採用,所以直到目前仍然被數量眾多的權威著作、文獻認為是可以採用的數據中心性能指標之一。但是筆者發現這一性能指標的定義並不嚴謹,容易被誤解。另外也難以測量和計算。該指標的提出者並未說明IT資產效率如何測量,只是建議ITAE的默認值取5%,所以這一指標迄今為止未能得到推廣應用。
3.4.IT電能使用效率ITUE和總電能使用效率TUE
2013年,美國多個國家級實驗室鑒於PUE的不完善,提出了2個新的能源效率——總電能使用效率TUE和IT電能使用效率ITUE。
提出ITUE和TUE的目的是解決由於計算機技術的發展而使得數據中心計算機配件(指中央處理器、內存、存儲器、網路系統,不包括IT設備中的電源、變壓器和機櫃風機)的能耗減少時,PUE反而增加的矛盾。但是這2個性能指標也未得到廣泛應用。
3.5.單位能源數據中心效率DPPE
單位能源數據中心效率DPPE是日本綠色IT促進協會(GIPC)和美國能源部、環保協會、綠色網格,歐盟、歐共體、英國計算機協會共同提出的一種數據中心性能指標。GIPC試圖將此性能指標提升為國際標准指標。
3.6.水利用效率WUE
TGG提出的水利用效率WUE的定義為:數據中心總的用水量與IT設備年耗電量之比。
數據中心的用水包括:冷卻塔補水、加濕耗水、機房日常用水。根據ASHRAE的調查結果,數據中心基本上無需加濕,所以數據中心的用水主要為冷卻塔補水。採用江河水或海水作為自然冷卻冷源時,由於只是取冷,未消耗水,可以不予考慮。
民用建築集中空調系統由於總的冷卻水量不大,所以判斷集中空調系統的性能時,並無用水量效率之類的指標。而數據中心由於全年製冷,全年的耗水量居高不下,已經引起了國內外,尤其是水資源貧乏的國家和地區的高度重視。如何降低數據中心的耗水量,WUE指標是值得深入研究的一個課題。
3.7.碳使用效率CUE
TGG提出的碳使用效率CUE的定義為:數據中心總的碳排放量與IT設備年耗電量之比。
CUE雖然形式簡單,但是計算數據中心總的碳排放量卻很容易出錯。碳排放量應嚴格按照聯合國氣象組織頒布的計算方法進行計算統計。
『貳』 為什麼微軟要把數據中心設在水下數據中心製冷有多花錢
從數據分析來看數據中心無疑是「能耗大戶」。一個超大型數據中心每年的耗電量近億度。2018年全國數據中心消耗的總電量為1608.89億度電,比上海市2018年全社會用電量(1567億度)還要多,相當於三峽大壩全年的發電量。
微軟、谷歌、阿里巴巴、騰訊等互聯網巨頭構建綠色高效的數據中心,作為綠色節能技術的行業推動者和踐行者,已經不僅僅是企業基於自身經營需要,同時也是企業乃至整個行業都需要肩負的重大社會責任。以上個人淺見,歡迎批評指正。認同我的看法,請點個贊再走,感謝!喜歡我的,請關注我,再次感謝!
『叄』 誰給介紹一下機房空調用水冷和風冷的區別啊
區別大了。數據中心水冷系統普遍用水量大,會消耗大量的水資源,非常不利於數據中心的環保,另外,水冷系統在可維護性、靈活性以及佔地面積上均也存在很大短板,面對復雜的冷水系統,沒有專業的運維能力,系統很難實現高效運行,會導致問題頻發、效率低下,用風冷就相對安全很多了,現在好多廠商也開始以多維度的研發視角,為數據中心提供量身定製、簡單易行的風冷製冷方案。維諦技術已經推出一款Vertiv Liebert®PEX4.0超高能效精密空調了。
『肆』 為什麼微軟要把數據中心設在水下數據中心製冷有多花錢
一個數據中心的成本中,電力成本佔了20%左右,其中電力成本中的42%是用來散熱的。因此,谷歌、facebook、IBM等科技巨頭將數據中心建在了冰島、芬蘭等國家。微軟為了減少數據中心的散熱成本,嘗試將數據中心建在水下。 根據IDC的統計,數據中心的平均使用年限是9年,一個數據中心的電力能耗成本占據了所有成本的20%。這些消耗的電能,大約有47%進入了伺服器,是有效的能耗,而42%的被散熱能耗消耗了。
『伍』 如何提高PUE值 數據中心能耗詳解
PUE不大於1.4在空調技術上是可行的。制約PUE的,我認為,現階段主要是冷卻技術、空調技術、如何高效排熱的問題。
貼一個清華大學江億院士的演講:
各位來賓、各位專家、各位領導早上好!我好象是第一次參加綠色數據中心的技術大會,因為咱們不是搞計算機這行的,是搞空調,搞建築節能的,但是好象也慢慢把我們推到這個行業了。為什麼?是因為空調的能耗或者說派熱降溫的能耗在數據中心裡佔了比較大的比例。所以,剛才我聽前面這位領導講數據中心都快到了運行這個程度了,運行主要是能源消耗,能源消耗里就40%或者更多是空調的能耗。所以,怎麼能夠降低空調的能耗,一方面給國家的節能減排作貢獻,一方面也使我們數據行業產生更好的經濟效益,就變成重要的問題了,所以我今天跟大家匯報一下我們在這方面的想法跟體會。
從空調的特點來看,現在隨著計算機電子技術的發展,晶元技術都比原來高,主機的發熱度越來越大,這樣導致空調排熱成為這裡面大的部分。後面有一些細的發展狀況不說了,就直接看到空調里頭。現在統計大致的結果,對於中小型的數據中心大概PUE值都在2,或者以上,這是空調佔了一半或者還多的一個能源消耗。對大型的IDC機房管理做的比較好的,這時候空調效率相對比較高,但是也能佔到40%左右的能耗。
所以,降低數據中心的能耗可能一個是提高伺服器的使用效率,沒活兒的讓它歇著,一方面減少了空氣的運行能耗,當然,電源也有可以提高的技術。空調應該有很大的潛力,空調裡面的能耗由什麼構成?以前一想說製冷機,壓縮機耗電多,實際上壓縮機耗電在50%-60%左右,除了壓縮機之外,風機也能佔在40%或者更多的空調耗能。
現在的情況什麼樣?大概有這么幾塊:第一、因為全年製冷,所以絕大部分的數據中心製冷機都開了,這是一年來總的空調的考點狀況,可以看出冬天、夏天區別很少,北京、上海、廣州冷的地方,熱的地方區別很少,應該說冬天天涼了,北京空調越來越大幅度下來,這個變化也不大,所以全年度在這兒用。然後,有關發熱密度非常大,負責把這些熱量排走,所以循環風特別大。並且風吹的還厲害,不行把風量減少,降低送風溫度,但是當冷源溫度低於屋子裡溫度的時候,蒸發器就凝水,恨不得天天都出濕,出了濕又怕屋子裡太干,所以又有了一些加濕器,這邊除濕,那邊又得加濕,又得用電,冬天大冷的天還得製冷,這構成了現在數據中心,無論是大的,還是小的空調能源消耗高的主要問題。
有這樣問題是壞事兒,反過來又是好事兒。說明咱們在這兒的潛力特別大,有很大的潛力可以把空調能源消耗降下來。那麼,走哪條道?怎麼做?一聽說這個空調跟你們建築節能是一碼事,建築節能都抓圍護結構保溫,咱們整這個,圍護結構,效果非常小,或者無效果,為什麼?因為一個IDC密一點的機房一平米大概產熱量3-5千萬,通過圍護結構進入或者出去的熱量不會超過摺合在佔地面積上不會超過50瓦,所以,圍護結構的影響很小,就是1%,2%的影響。當然,通過一些技術,避免外牆直接太陽輻射,比來我這兒熱,再拿太陽照我,盡可能的密閉,別讓風進來,這是很重要的。可能有些專家說,風滲進來,有什麼不好,如果房子做的不密閉,就是不可控制的室外滲風,是涼快了,但是濕度下降了,夏天熱容器不好,而且由於室外的濕度變化大,我數據中心裏面希望濕度維持基本穩定不變,給我添加濕、除濕的麻煩事兒。因此,通過各方面應該把房子做密閉了,對目前來說不是保溫的事兒,而且密閉的事兒,密閉最重要。
那麼,怎麼把熱量排出去,馬上前幾年一些企業想辦法說既然冬天不開製冷機,而且外邊涼,最簡單的通風換氣吧,是通過涼風進來,把熱量排走,這是有點節能,但是恐怕數據中心這么做不太合適,為什麼?室外的灰塵贓,機器得干凈,濕度室外是變化的,夏天北京的一立方米空氣有2克的水汽,另外中國是燒煤的國家,70%的化石能源都來自於煤,燃煤就出硫,硫化物到室內,就會導致表面發生腐蝕現象,所以這是不行,您的冷卻系統是為主機服務的,要是有損於主機,無論是灰塵還是硫化物,還有濕度都會影響主機的壽命,這是絕對不能有的。因此,說就想法通過過濾消除灰塵,想法加濕、除濕改變濕度,想法脫硫,當把這些東西都架上,就發現投入的成本和能源消耗就不低了,而且維護管理的工作量立刻上去了,那麼這么大的數據中心要求高可靠性運行,於是這事兒有點別扭了。
還有通過熱交換把涼氣取回來,這個思路是挺好,對於一些小規模的計算中心,像一個大樓里的數據中心有時候還可以,但是對於大規模的機房是無法實現的,是因為直接走風道這么大發熱量得有多大的風量直接室外來回換氣,風道的體積在那兒擺著不合適,然後維護工作量非常大,尤其還是贓。所以,室外的低溫必須想法用上,是通過室外的新風,怎麼通過某種能量涼下來,最後把機器裡面的熱量帶走。
所以,整個的數據中心的空調跟咱們樓里的空調概念不一樣,它的核心事兒就是怎麼把晶元那兒出來的熱量通過某種介質傳熱,傳完之後,幾次交換,最後導到室外去就這么一個任務。所以,這時候根本目標就是讓晶元的溫度不要超過標准溫度,然後把這個溫度排出來。這樣晶元表面溫度和冷源溫度的差跟熱阻成正比,就是怎麼把這個等效熱阻降低了核心的事兒就變成了這么一個問題。溫差小就是如果我晶元溫度不許超過40度,如果我的溫差是20度,只要室外溫度低於20度,我就不用開冷空氣就可以把熱量排走,所以就要減少等效熱阻。那麼,這個等效熱阻由什麼構成?發現就像咱們的一個網路,三個電阻,三個等效熱阻,哪三個過程?一個就是晶元跟空氣之間的換熱環節,這個差越大,溫差就越大,比如我可以取平均溫度,等效熱阻就是這塊面積除以熱量,第一個環節就是容器跟晶元表面換熱的環節。第二個環節,比如說我有一個精密空調跟水,或者室外的冷水換熱,這冷水跟容器之間的換熱環節,我們叫輸送與換熱熱阻。第三個環節,循環介質與冷源之間換氣,叫做冷源換熱熱阻。比如說室內溫度到20度,實際只欠10度的溫差,這時候冷空機提供的活兒就是這10度的溫差。所以,把熱阻減少了,無論是用自然冷源還是開冷風機都可以降低功耗。因此,核心的問題就是把這三個環節的熱阻降下來。所以,就三個關鍵,第一、降低熱量採集過程的熱阻,同時不增加風機電耗。第二、降低熱量傳輸過程中的熱阻,同時不增加傳輸電耗。第三、找到溫度更低的自然冷源,但是別破壞環境。
下面逐條看,採集過程中的熱阻,實際的採集熱阻,除了空氣跟晶元換熱之外,還有相當大的消耗是機房裡面冷風跟熱風的互相攙混,製冷機就是把冷風熱的溫度分開,分出冷熱風,這個屋子裡面又沒地兒跑,又攙混起來了,所以避免冷風熱機的攙混。比如說要是給定晶元溫度,當攙混小的時候,回風溫度可以更緊的接近晶元,如果我恆定晶元溫度回風少的時候,這樣就可以更大程度的利用這個資源。有一些實測的數據,是在大的IC機房裡實測的,大家可以看出來,比如冷通道進來,從機房送出來應該這兒是16點幾度,到這兒怎麼就能30多度呢?它這兒上面還有一塊擋,這30多度是哪兒來的?就是因為部分的過了伺服器之後,伺服器裡面有空檔,空檔的熱風又滲回來了,熱風跟這些東西攙混到這些地兒,能到35度。為了保證上面伺服器的這些效果,於是就得降低送風溫度,為了保證上面差不多,結果把這個溫差就拉大了,導致整個的冷交熱的增加。所以,這兒看著排風有40度的,這些排風35、36度,總的到空調下一看,派風溫度才28度,怎麼降下來了?就是涼風過去跟熱風攙和起來了,這樣晶元大概在45度以上。如果避免了這些混合之後,就可以把回風溫度很容易提高到35度,輸送溫度也可以提高到20度,保持晶元溫度最高的溫度不變,於是這溫差小多了,採集的等效熱阻下來了。當然,具體計算可以拿出溫度差仔細算出來知道什麼毛病,總的指導思想是這樣的。所以,在機櫃頂部架一些擋板,這樣能夠有點改善。但是由於金桂內刀片式伺服器之間不可避免存在氣流短路現象,因此,仍存在短路現象,使冷氣流通道內有旁通過來的熱氣流,熱氣流通道內也會有旁通過來的冷氣流。
還有就是直接把換熱器安裝在機櫃內,在機櫃內或者機櫃旁制備冷空氣,可以有效減少摻混這樣現象,降低熱量採集過程溫差,可以減少風量、豐足,大幅降低風機電耗。所以,這是很重要一條,但是不能讓櫃子出水。
這樣有一種做法,就是採用背板冷卻,將空調系統熱換器安裝在裝載IT設備的機櫃上,根據機房內各個不同的機櫃實現按需供冷,避免局部熱。分布式製冷系統使空調系統的吸熱端更接近熱源。這是第一個減少採熱採集過程中的熱阻。
第二減少輸配過程中的熱阻,實際這個環節比如一條空調器,是空氣跟水的換熱,那麼空氣溫度是這樣的,水溫度是這樣的,就會看到有時候往往都不是平衡的,是帶三角形性質的,只要帶三角形性質,就浪費一部分溫差。所以,想法調整兩邊的流量,使得兩邊的溫差接近,可以有效的降低數配系統的等效熱阻,或者減少等效溫差。有時候說是由於我用背板,或者機櫃里的換熱器那裡面不是走水,無論是走二氧化碳,還是走氟利昂,這是機櫃內送派風溫度,這是熱管溫度,這是室外側進出口溫度,是這么一個過程,(如圖所示),還有一種換熱器,每排的熱管單獨連接,這時候室內室外的溫度就變小多了,盡管換熱面積一樣,它就強多了。當然,這樣會導致熱管布置起來要復雜,但是在二者之間,總有一個好的權衡去減少輸送過程的熱阻或者說降低它的溫差。
第三條就是到底我們用什麼樣的室外的自然冷源和怎麼把這自然冷源跟我的機械製冷有機的統一結合起來?因為有時候天熱還得開冷機,這二者之間能不能實現一個比較自然的轉換?我們現在看看到底把這個熱量往哪兒排,實際在空氣裡面並不是一個空氣的問題,咱們有三種溫度,一種就是空氣的干球溫度,像今天大概室外27、28度,是天氣預報說的溫度。直接換熱就是干球溫度。但是,如果我對外面拿冷卻塔噴水,就是濕球溫度,大概23、24度。比如到五一濕球溫度比干球溫度低的多,所以通過冷卻塔就可以降低濕球溫度,還可不可以再降低,還有一種就是間接蒸發冷卻,西部地區很多地方用它做空調,它可以把試問降到室外的露點溫度,像現在這個時候,北京的露點溫度低於20度了。
這是拿北京氣侯為例,藍的是全球的干球溫度,紅的是濕球溫度,綠的是全年的露點溫度的變化。所以,我要是安全露點溫度考慮問題,全年北京市5876小時低於20度的時間佔全年的67%,如果熱阻做好了,就只有10%幾的時間,做不好,15度的時候,露點溫度也能佔到77%的時間。所以這個比例還是挺大的。
那麼,怎麼跟製冷機統一起來,實現無縫連接,自然過渡呢?這是一個方案,包括幾部分,先說櫃子,剛才我講背板式的換熱,現在是上下的換熱,屋子裡的空氣26度,從這兒進入機櫃,兩組換熱器,一組一個管給19度,一個管給16度,經過兩種換熱,從26度到20度,經過發熱的伺服器,達到32度,然後經過兩組換熱器降溫,又變成26度,再回來,維持屋子裡的溫度是26度,不是靠屋子裡別地兒裝的孔,而是靠這個機櫃,屋子裡的溫度是由機櫃決定的,由於屋子裡的溫度是16度,露點溫度只有12、13度,我把物資弄密閉了,人也不怎麼進去,裡面沒有濕的事兒。然後,這四組換散熱器,拿熱管引出來,這四組是16、19、22、25度,然後這個水就是跟這熱管換熱,把熱量都帶到水裡去,所以從15恩度,漲到24度。然後,24度,如果室外是兩管,冷空氣不用開,直接經過間接冷卻塔就能夠把水溫降大15度,如果溫度再低,只要朝這風機跟這兒的轉換裝置,能夠維持我進入到換熱器全年只有15度。當室外溫度高到30度,露點溫度到18度,這時候冷卻塔還能起一點作用,能起1/3的冷量還從這兒出,不足了再拿冷風機降一部分。所以,這個冷風機是連續的就能夠使得冷風氣從10%的復合逐漸加到5%的復合。冷卻塔只要露點溫度在20度以下,總能起點作用。
這樣一個系統,這兒計算了一下,拿北京的氣象條件可以看出來,如果是這么一個機房,跟一般傳統的機房來比,咱們就直接取它一年用電量是百分之百,那麼即使沒有自然冷源,就是拿製冷機做,但是因為我減少了摻混,減少了數配能耗,能夠節能40%幾。如果用最好的間接冷卻方式,用電量只有23%,能夠節省70%的電量,所以有巨大的節能潛力。
按照這個思路,我們有一些機房的改造實例,這是清華大學圖書館的一個全校支持整個學老師、同學做研究的數據中心。它原來就是在這個屋子裡頭擺了一堆空調器,機器多了,熱量還大,所以追加了好幾台空調器。用了跟剛才這個圖差不多的方式,結果總機櫃裡面的風機降到7千瓦,這時候能效比從2.7漲到8.2,就只用原來1/3的能耗。最熱的時候,冷機都得開了,即使如此,能耗還能差一半。所以,全年下來總的能耗消耗能夠降低60%左右,這就是一個實際案例,這個還有一些遺憾的地方,就是做得不徹底,做得徹底了,還能夠進一步降低消耗量。
總結一下,就是數據中心排熱的空調實際上有巨大的節能潛力和節能空間。它的核心是機房的氣流組織怎麼採集熱量合理的空調器,其中幾個基本原則,一個就是盡可能避免不同的溫度的氣流摻混,我們現在對機櫃進行空調製冷的目的,不是對機房進行空調製冷,所以盡可能把冷源越貼近發熱體越好,充分的利用自然冷源,有各種不同的法子獲得不同溫度的,然後想法介紹能耗,這樣給出去的這些思路,今天講的某一兩個做法,實際在這個思路下發揮創新的精神還可以創造出好些各種各樣的方案,真正把數據中心排熱的空調能耗降下來。我們覺得完全按照目前大多數方式來比較,有可能把機房的空調節能達到70%以上,相當以機房用電量降低30%以上。剛才我聽領導講,國外發達國家比,機房的PUE到1.2,1.3那跟它機房的位置有關系。在不同的氣侯條件下,實際上抓好這幾條,以自然冷源為主,適當的加一點機械製冷的補充,解決一年裡面20%,25%的節能,完全可以把我們國家不同地方數據中心的空調能耗都有效的降下來,應該做的比發達國家,比美國還好,謝謝大家。
『陸』 數據中心的熱量如何不被浪費
"雲端"是個真實存在的地方。你在Instagram上發布的照片,在Facebook頁面上發布的生日祝福,以及在Netflix上播放的電視節目,都不是突兀出現的。它們被保存在大量伺服器上,而且所有伺服器都被安置在巨大倉庫中,互相連接在一起。
很少有人冒險進入這些數據中心。但在瑞典首都斯德哥爾摩,彼芭進入了這樣的信息迷宮,發現它們不僅僅是託管數據的地方。這些數據中心所提供的全部熱量,可以幫助這座擁有90多萬人口的城市供暖。
據BBC報道,隨著冬季即將來臨,人們都在盼望能盡早供暖。然而將來,人們的網上活動就能幫助供暖。BBC記者艾琳·彼芭(Erin Biba)日前訪問瑞典時,親眼見證了一個雄心勃勃、有利可圖的新綠色能源項目。
那麼,瑞典是如何做到的呢?它能否為全球科技行業創造一種新的商業模式?
在這些數據中心中徘徊,你會注意到幾件事:空氣涼爽而乾燥,沒有任何積塵。成排的伺服器塔被成千上萬閃爍的燈光所覆蓋,幾乎看不到人。透過天花板和可移動地板看到的每個地方,都有大量的電纜通向各個方向。但更重要的是,這里真的很吵。這是因為電腦在運行中會變熱,而且需要很多風扇來保持足夠低的溫度,以確保它們正常工作。
想像一下你的筆記本電腦所產生的熱量,只是在整個倉庫中散發熱量可能是它的成千上萬倍,畢竟這里有成千上萬台電腦互相連接,並在不停地運轉以完成復雜的任務。最主要的降溫方式包括提供冷水、利用風扇吹涼空氣以及吸收熱空氣等。這些熱量通常被當作廢物處理掉。但實際上,熱量也是一種能量。這就是為什麼瑞典決定用它來為民眾供熱的理由。
世界各地的城市都在探索如何利用數據中心的廢棄熱量作為額外能源
在斯德哥爾摩,這個項目被稱為"斯德哥爾摩數據公園",它由市政府、Fortum Varme(當地供熱和製冷機構)以及其他機構合作運營。斯德哥爾摩的各大數據中心都參與進來,而隨著越來越多的企業希望通過加強氣候意識提高聲譽,並通過一種新的商業模式賺錢,這個數字還在不斷增長。最近,愛立信和服裝零售連鎖店H&M運營的數據中心也都加入了這個項目。
在斯德哥爾摩的大部分時間里,數據公園項目是這樣運作的:冷水通過管道流入數據中心,在那裡被用來製造冷空氣,以防伺服器過熱。經過冷卻過程加熱的水再流回管道中,進入到Fortum Varme的工廠里,並在分散為眾多住宅供熱。
瑞典並不是唯一一個嘗試這個想法的國家。在芬蘭等地的小規模項目中,也存在類似試驗。自去年以來,芬蘭的某個數據中心散發的熱量始終被用來為小城住宅供暖。而在美國、加拿大以及法國,也有類似的項目。只是瑞典決定在全國范圍內擴大規模是一項史無前例的實驗。
瑞典製冷和供熱機構Fortum剛剛開放了新的供熱設備,它可以幫助家庭供暖
斯德哥爾摩數據公園預計到2018年將產生足夠的熱量,為2500套住宅公寓供暖。但其長期目標是到2035年,滿足斯德哥爾摩全部供暖需求的10%.瑞典數據中心(在全國推廣類似斯德哥爾摩數據公園項目)宣稱,只需要產生10兆瓦能源,就可以滿足2萬套現代化住宅的供暖序曲。而Facebook的數據中心通常會消耗120兆瓦能量。
加入斯德哥爾摩這個項目的主要動機源自財務好處,這些數據中心可以賣掉他們的廢棄熱量。同時,Fortum還為他們提供了免費的冷水。在其數據中心支持移動游戲應用和其他雲計算軟體的公司Interxion,相關成本/效益分析顯示前景良好,為此他們正在建立全新的熱捕捉設施。公司業務拓展主管瑪特斯·尼爾森·哈尼(Mats Nilsson Hahne)說:"這不是慈善。"相反,該公司北歐分公司董事總經理彼得·班克(Peder Bank)表示:"我們正試圖將其轉變為一項二級業務。"
盡管如此,Interxion仍在與任何想在斯德哥爾摩開店的數據中心公開分享他們的新商業模式工程計劃。在被問及為何要公開自己的競爭優勢時,班克強調了瑞典人在應對氣候變化方面的態度,他說:"還有其他比競爭更大的目標,而且這是一個全球性目標。如果我能夠保護更高的議程,並能繼續維持生意,我就應該這么做。如果我能夠吸引其他企業到來,我就應該這樣做,然後我才會與之競爭。畢竟,我們都生活在同一個星球上。"
布滿電纜的數據中心散發大量熱量,這些熱量被用來為家庭供暖
瑞典一直以來都支持這樣的綠色能源理念。斯德哥爾摩城市氣候經理Bjorn Hugosson表示,這是因為這個國家幾乎沒有自然資源。他說:"我們的土地上沒有任何化石資源,我們沒有油井或煤礦。"世界能源理事會的數據顯示,目前瑞典有2057座水電站,占其能源使用總量的40%.剩下的大部分能源來自核電,但目前正在逐步被淘汰。此外,瑞典還有火力發電站,其所需煤炭是從俄羅斯進口來的,它將在未來5年內被淘汰(也可能在2020年)。這個國家希望到2040年能完全避免使用化石燃料。
瑞典向來以零廢物著稱,該國居民回收超過99%的家庭垃圾,只有3%最終被扔進了垃圾填埋場。瑞典燃燒了大約70%的垃圾用以生產能源,並從鄰國進口垃圾,以幫助實現"焚燒垃圾滿足能源需求"的目標。也就是說,瑞典人並不是世界上最環保的能源使用者,這個頭銜屬於冰島,該國86%的能源來自可再生資源。盡管在天氣狀況良好的情況下,瑞典在某些日子裡可以完全避免使用化石燃料。由於風車可以產生大量能源,瑞典鄰國丹麥也可經常避免使用化石燃料。事實上,丹麥還把過剩能源賣給鄰國。
數據中心連接著計算機網路,允許我們使用互聯網和基於雲計算平台的服務,但是更多的城市也將其作為能源來源
那麼,瑞典雄心勃勃的熱捕捉和再利用計劃能否在其他地方取得成功呢?也許,但它需要其他改變才能成為現實。這種模式之所以能在瑞典奏效,是因為這個國家的公民依靠政府為他們提供熱水以便為家庭供暖。"地區供熱"始於上世紀50年代的斯德哥爾摩(當時靠燃油),Fortum Varme從那時開始向醫院輸送熱水。當上世紀70年代石油危機爆發時,供暖系統擴展到全國各地。今天,Fortum向大約1.2萬棟建築或斯德哥爾摩90%的城區提供熱量。起初,它們提供的供熱服務是通過燒煤產生的,但今天來自於生物燃料,即該國龐大的林業工業生產留下的木漿,通過船舶被運至斯德哥爾摩。
由於瑞典人回收了所有的東西,他們也在廢水排放後重新利用熱水。Fortum的媒體關系主管喬納斯·柯勒特(Jonas Collet)說:"洗澡時,流入下水道的熱水就會被處理,然後泵入大海。海水變暖了,但魚兒們不喜歡這種環境。30年前,我們認為這是一種浪費。如今,我們可以再利用這些水。"
因此,如果其他城市想要效仿斯德哥爾摩的做法,他們就需要建設地下管道基礎設施,以及為居民供暖的商業模式。但這不是不可能的,世界上有很多城市都在這樣做,包括加拿大、紐約和幾乎整個冰島的城市。但它也不應被視為靈丹妙葯。瑞典皇家工程科學學院成員、許多綠色能源公司的智能電網顧問博·諾馬克(Bo Normark)警告說,他認為瑞典的計劃可能並非可以無限擴展的。最終,這個國家可能不需要更多的數據中心加入進來。
諾馬克說:"人們高估了對熱量的需求,我們會有多餘的熱量。我們可以出口電力,但我們無法出口熱量。"但是,他補充道:"在斯德哥爾摩,這種方法之所以奏效,是因為這座城市發展迅速,熱量有貨幣化價值。"
當新的數據中心開始在這個快速發展的城市中出現的時候,它們很快就可以加入進來。斯德哥爾摩數據公園由該市周邊的四個主要數據公園組成,它們被連接到清潔能源電網中,並配備了一個即插即用的裝置,讓公司可以連接到冷卻供水系統和熱循環系統上。目前,首個項目已經完成,即當地名為Kista社區的"矽谷",那裡目前託管著Interxion等公司的數據中心。還有兩家數據公園將於2018年投入使用,2019年還有四家。所有數據中心需要做的就是建立起來,然後加入現有網路中。
Fortum Varme的市場數據中心冷卻和熱恢復負責人Johan Borje說:"我們正在改變整個行業的經濟。"除此之外,瑞典政府也意識到這項計劃的好處,今年降低了數據中心的電力稅。顯然,瑞典不希望數據中心尋找借口轉移到歐洲其他地方。
盡管如此,目前發達國家仍依賴於數據中心,而這種需求將繼續增長。沒有它們,我們的設備就無法正常使用,我們的信息也不會移動。這意味著越來越多的"科技圖書館"將會出現在這個星球上。它們可以讓我們的數字世界保持運轉,同時在斯堪的納維亞和更遠的地方,同時回收垃圾和生產清潔能源。
『柒』 數據中心的數據中心的可再生能源
數據中心內的能源消耗,總體而言是非常有效的。隨著虛擬化和雲計算的增長,數據中心的整體能源使用效率才會有所改善。能源浪費最嚴重的階段其實是製造能源的時候。
無論是煤、煤氣或燃油為數據中心提供能源,大量能源損失都發生在其產生階段。大多數化石燃料系統也都位於遠離市區的地方。更先進點,更小型的能源製造設備可以改善這種情況。高溫燃料電池採用一系列碳氫化合物燃料,將其分解為氫,然後從空氣中獲取氧,用於創造電能,並產生熱量與水分。
關鍵在於盡可能多的捕捉輸出。燃料電池產生的熱能可以被用於為寒冷的空間提供供暖,甚至為水加熱。手機燃料電池所產生的純凈水有助於緩解位於缺水地區數據中心的用水緊張。可再生資源如太陽能與風能同樣可以用來進行電解水,為燃料電池製造氫。然後可能建立一個真正可再生的連續數據中心主電源系統。這種方法不一定是製造電能的最便宜方式,和那些交錢就能獲得能源的方法相比,但它確實一個為數據中心長期供電的有效手段。