隨著企業數字化轉型速度的加快,美國站群服務器,傳統企業逐步開始適應云服務。據相關數據顯示,2018年下半年,占比最大的IaaS(基礎設施即服務)市場同比增長88.4%。全年市場規模(IaaS/PaaS/SaaS)首次突破70億美元大關。這就使得作為云服務載體的數據中心發展也隨之水漲船高。
除此之外,很多政企出于自身需求,也在不斷建設自用數據中心。據統計,目前全國公共機構數據中心已經超過4萬個。雖然這些數據中心對于社會經濟的發展貢獻極大,但其產生的能耗問題也令人側目。目前,數據中心用電量占公共機構總用電量的比例已經達到8%左右,而中央國家機關數據中心用電量占比更是高達30%。
雖然耗電如此彌巨,但數據中心本身對所在地的稅收貢獻微乎其微。同時在運營方來看,耗電量占其數據中心整體運營成本的比重也并不很大,所以改造或者應用新技術去節約能源的動力不足。這就使得北,上,廣,深等一線城市只能不斷對數據中心加碼嚴控。
在這種背景下,如何降低能耗,就成為了數據中心建設和運營方不得不考慮的問題。眾所周知,空調系統是目前數據中心能耗的大戶。尤其是對于夏天的南方各省來說尤甚。目前雖然液冷技術經過多年的發展已經取得了長足進步,但成本制約因素很大,在相同規模下,傳統的液冷在建設成本比采用氣冷方式的數據中心要高出15%-20%。況且全浸式液冷,還需要對建設場地的承重有較高要求。再加上需要專業團隊進行長期運維,所以很難在近兩年內形成優勢。
筆者曾經走訪過南方很多數據中心,雖然有少部分應用了一定的水冷技術,但主要還是以風冷為主。這些數據中心在機房內部密閉的空間里,通過冷風將服務器散發出來的熱量帶走。這種制冷方式的優點在于建設成本很低,但缺點是建設周期長,且能耗極高。
日前,筆者參觀了中國移動南方基地,在這里見到了一種采用“熱管水冷+空調/自然氣冷”為核心技術的雙通道散熱系統。該系統“分而治之”的思路,或許能為我們降低數據中心能耗帶來一些不錯的啟示。
目前數據中心從散熱通道上來說,有單通道和雙通道之分。前者是通過一種換熱介質對IT設備進行冷卻,這里面包括有單通道的氣冷和液冷兩種模式。但雙通道的散熱技術,則包括熱管水冷、熱管液冷、直接水冷。其特點是結合數據中心IT設備的熱場特征,液冷通道對高熱流密度元件進行精準散熱,帶走絕大部分熱量,氣冷通道對低熱流密度元件進行高效散熱,帶走剩余熱量。比如CPU還有其他的高發熱、高熱流密度元件可以采用這種精準的模式通過液冷散熱。至于低熱流密度的設備,則可以采用氣冷模式,使用傳統空調或者自然水進行散熱。
圖為目前中國移動第二代雙通道散熱技術的工作流程圖
和傳統的氣冷,浸沒式液冷相比。這種散熱技術在液冷通道采用“熱管水冷”,在氣冷通道采用“空調/自然氣冷”;供電方面則是市電直接供應到服務器。和傳統市電先到UPS,再到設備的方式相比,能有效消除轉換損耗。除此之外,因為省去了冷水主機和50%的供電備份設備,虛擬主機,同時功率密度提高后也相應降低了土建的支出,所以這種雙通道散熱技術的數據中心在建設成本方面,和目前采用傳統氣冷方式的數據中心基本相當。
筆者注意到,在中國移動的機房內部,這種散熱方式非常精妙。簡單來說,就是用兩根中空的散熱銅管(熱管),一端接在需要散熱的元器件上方,另一端則接駁到服務器邊緣的水冷板換熱器處,當液體流經水冷板時會將散發的熱量帶走,然后經過換熱器(板式換熱器)進入冷卻塔并進行循環,水冷板與板式換熱器之間的水源也并無太高要求。使用中水即可。
圖為服務器內部的液冷器件“熱管水冷模塊”,結構非常簡單
至于那些低熱流密度元件,則依然采用風冷。雖然并未完全擺脫空調,但由于主要熱量已經被液冷系統帶走,所以只需要極少的電力保持空調運轉即可。并且,在該技術的第二代方案中,連氣冷通道都取消了壓縮機,整體散熱系統能耗非常低,只需低容量的EPS即可在市電中斷時維持散熱能力,無需傳統散熱技術常用的大型蓄冷罐。