4月21日上午,由中國通信工業協會數據中心委員會指導,中國IDC圈與世紀互聯等共同主辦,以“同頻共振”為主題的“2021年中國IDC行業Discovery大會”在北京盛大開幕?,F場匯集了數百名來自數據中心上下游產業的專家、學者以及從業人士,共同探討、分享數據中心的發展及未來。大會同期在線上多個渠道開通了現場直播,共有數十萬觀眾觀看了本次大會。
會上,阿里云智能基礎設施資深專家郭懿群向與會者分享了《阿里云液冷數據中心的思考與實踐》。
阿里云智能基礎設施資深專家 郭懿群
郭懿群:尊敬的吳部長,尊敬的黃總,陳總大家好,我來自于阿里云技術設施,今天帶來阿里云在液冷數據中心領域的思考以及實踐。
今天的分享分為以下五個方面,第一關于節能減排,能耗方面的國家政策解讀;第二關于未來算力增長趨勢的介紹;第三政策技術發展阿里是如何應對這些挑戰的;第四采用液冷的解決方案帶來的實際技術或者社會效應的價值;第五是關于針對液冷數據中心方面的未來展望。
政策解讀方面,2020年的時候,習主席提出中國在二氧化碳排放,力爭在2030年達到峰值,在2060年達到碳中和的目標。在2021年2月份,國務院也頒發了相關的指導意見,加快信息服務業綠色轉型,做好大型數據中心綠色建設和改造。
隨著我國2035年規劃發布和2030年碳達峰和2060年碳中和宏偉目標的設定,在這樣一個指引下,實際上我們目前對于數據中心來講提出了更高的挑戰,在國家的政策有力的引導之下,在地方政府陸陸續續這幾年推出了數據中心領域的政策,引導數據中心的有序發展。
上海于2019年1月份明確提出來新建的數據中心PUE需要小于1.3,深圳也在2019年4月份提出采用綠色先進數據中心的能效,北京2021年也提出了新建、改建數據中心PUE要小于1.3的目標。
我們可以看到ODCC中國數據中心大平臺最新發布的全國在用的數據中心,大型、超大型數據中心實測熱力圖。全國在不同區域,不同自然條件下,對應整個PUE的分布不太均衡,差異比較巨大。我們一直在想,有沒有可能我們尋找到一種技術,可以具有一定的普適性,不同的地域、氣象條件下實現比較極致的PUE,這是我們想達成目標。
上述介紹了一下政策方面的趨勢,后面再介紹一下關于技術方面的趨勢。分為兩個方面,眾所周知,亞洲服務器,在摩爾定律不斷放緩之際,我們對高算力的追求還是不斷呈現的,達成高算力的目標,一個是整個方向數據中心的能力還有芯片的能力,這就牽扯到機柜密度的增加。在通用計算領域,近幾年從200多瓦CPU功耗,未來可能飆升到400多瓦,在GPU通用計算領域,可能會從當前400多瓦飆升到800多瓦,云服務器租用,芯片能力功耗在不斷增加,服務器功耗和機柜功耗,未來可能會飆升到40千瓦或者更高的密度。
我們可以看到阿里云針對不同的數據中心散熱解決方案,進行了非常深入的研究,針對不同的功率密度我們一有不同的解決方案去應對不同的場景。針對上述的一些挑戰,技術和政策上的挑戰,阿里云經過若干年的探索之后,也是找到了目前看起來比較能夠解決當前問題的一個解決方案,就是單相浸沒式液冷的解決方案。風冷傳統的解決方案對比液冷的主要差異,實際上風冷會有冷塔和冷機、循環系統,末端空調對IT設備的散熱,但是如果單相浸沒式液冷,我們可以保留冷塔,但是在數據中心可以去除冷機,相應的整體系統架構會更簡約,整體的運營效率也會更高,這是在IDC這一塊的變化。交換機這塊的變化,可能會去除掉風扇這樣的設備,整體上設計集成度會更加高。
阿里云在浸沒液冷數據中心會分計算子系統、網絡子系統、存儲子系統,還有IDC的散熱子系統,監控子系統,這是整體模塊的組成。
阿里在數據中心的發展可以分為四個大的階段,我們從2015年開始就投入相關的研究在液冷數據中心的基礎研究,2016年首次發布了液冷的浸沒液冷系統,2017年也是完成了集裝箱式浸沒液冷系統的發布,2018年液冷發展進入了比較快速的發展階段,從原來的情況進入到整體規?;瘜嶋H部署落地的階段。
兩個主要的案例,2018年的時候,在張北,阿里自建數據中心完成了第一個液冷數據中心的建設,它的規??梢赃_到兩千多個服務器,支持電商和大數據實際的生產服務,支撐后續“雙十一”的業務發展。