就如同汽車制造行業的賽車一樣,長期以來,高性能計算(HPC)領域一直是后來最終得以推廣應用到主流計算領域的相關技術的試驗場。實際上,今天的云系統和超大規模部署對于推動無虛構硬件,負載平衡文件系統和開源軟件開發的高性能計算先驅企業們而言,可以說是欠下了太多。同時,這導致業界的相關人士也在開始探索目前應用于HPC的水冷趨勢是否適用于主流數據中心。
簡短的歷史回顧
在當前的數據中心業界,使用水冷卻方案作為冷空氣的替代冷卻方法已經再次興起復蘇。對于那些年紀太小剛剛進入數據中心行業的年輕從業人員們來說,他們或許并不知道水冷卻方案曾經是數據中心最為主要的冷卻方式,而且該方式目前仍然適用于大型主機。但隨著上世紀90年代和2000年代以來,x86服務器架構的出現,空氣冷卻方案逐漸成為了事實上的新的冷卻標準。
位于德國慕尼黑市的Leibniz-Rechenzentrum(LRZ)公司的超級計算中心是一處為來自世界各地的多元化研究人員們提供超級計算需求支持的計算中心,在2012年,該計算中心為HPC供應商社區帶來了獨特的挑戰:LRZ公司希望能夠在不犧牲計算性能的情況下大幅削減其電力資源的消耗。來自IBM 公司的System x團隊提供了一款服務器,該服務器具有采用溫水直接水冷卻功能,可將未冷卻的水直接連接到CPU,內存和其他高功耗組件。由此,溫水冷卻超級計算機的時代誕生了。
在過去,數據中心的水冷卻方案一直都是采用冷水機組進行的。但在LRZ公司的計算中心,他們使用了高達45°C的未冷卻水的受控回路。除了帶來了能源效率的提升和數據中心級別的成本大幅節約之外,還帶來了一些額外的好處。由于超高效的直接水冷卻方案使得CPU保持更冷,因此處理器內的能量損失更少,比同類風冷處理器節省多達5%。如果需要的話,英特爾的CPU可以不斷地以“turbo模式”運行,將性能額外的提升10-15%。因為服務器系統沒有風扇,除了電源上的小風扇,使得操作幾乎是無聲的。數據中心產生的熱水通過管道輸送到建筑物中作為熱源。而據LRZ公司稱,借助采用該模式,其整體節能量接近40%。
今天的現狀
幾年過去后的今天,絕大多數(即使不是全部的話)主要的x86系統服務器供應商們都以某種方式選擇了水冷卻解決方案模式。這些x86服務器產品涵蓋了水冷式后門熱交換器,其作用類似于汽車的散熱器,吸收空氣冷卻系統排出的熱量,使得服務器產品直接浸沒在充滿特殊介電兼容冷卻劑的儲罐中——類似于大量雞肉炸鍋的服務器則負責充當加熱組件。
直接水冷系統也在不斷發展。現在,熱材料的進步已經使得進水溫度允許達到50°C。這使得水冷卻方案幾乎可以在世界上的任何地方使用,而無需使用冷水機組。此外,由水冷卻的部件的數量也已經擴大:除CPU和內存外,現在IO和電壓調節裝置都是采用水冷的,進而推動了從系統到水的熱量傳輸百分比超過了90%。
遺憾的是,并非數據中心的所有設備都可以采用水冷解決方案,因此LRZ公司和聯想集團正在研究通過將熱水“廢物”轉化為冷水來擴展替代冷卻方案,這些冷水可以重復用于冷卻數據中心的其余部分。這個過程使用“吸附式冷卻器”,其從100臺計算機架中取出熱水,并將其傳遞到一片特殊的硅膠片上,蒸發水,對其進行冷卻。由此,蒸發的水被冷凝回液體形態,然后要么通過管道回到計算服務器機架,或者要么進入后門熱交換器,用于儲存機架和聯網裝置,這些都不是水冷的。正是因為輸送到冷卻機組的水足夠熱,以使該過程得以高效運行,進而使得這種數據中心的設計方法成為了可能。服務器設備與數據中心基礎設施之間的緊密連接和相互依賴性具有很大的潛力。
固然,擁有數千個節點,數PB級別的存儲和數英里互連電纜的巨型超級計算機集群可能已經證明了數據中心轉向采用水冷卻基礎設施的方案是成本合理的。那么對于那些主要是運行了企業的電子郵件系統、文件打印系統、CRM和其他必要的業務應用程序的一般的數據中心而言,是否需要盡快的雇傭水暖工以采用上述冷卻方案呢?并非如此,但事實上,今天已經有一些因素會推動企業客戶考慮在未來采用上述相關的替代冷卻方法了,并且這些替代冷卻方法的采用可能比大多數人預期的要早。
亟待處理的是數據中心的散熱,而不是濕度
過去50年來,推動處理器領域不斷創新背后的驅動力一直是摩爾定律,該定律指出:集成電路中的晶體管數量大約每兩年增加一倍。而提出摩爾定律的英特爾公司每18個月就會將CPU性能提高一倍,同時成本將降低50%。然而,在半個世紀之后,對于這一預測的實現正變得越來越困難。為了保持摩爾定律曲線,英特爾公司必須為CPU增加更多的處理內核,這顯然會消耗更多的功率,從而產生更多的熱量。下表顯示了英特爾處理器的功耗在過去十幾年中是如何增長的: