隨著數據中心建設規模的不斷擴大,機架功率密度持續增加,給機柜散熱帶來了巨大的挑戰,為了降低能耗,更好的解決數據中心散熱問題,使PUE值達到理想效果,聯想發明了溫水水冷的解決方案。使PUE值達到了1.1。
臺達集裝箱數據中心:PUE值<1.43, Green Grid黃金級水平
曙光全浸沒式冷卻:高可靠、智能化、高性能
10月,directadmin安裝,在上海市人民政府公布的《上海市推進新一代信息基礎設施建設助力提升城市能級和核心競爭力三年行動計劃(2018-2020年)》中,提到嚴格控制新建數據中心,在必要建設時數據中心PUE值應在1.3以內….
如今,數據中心規??芍^是迅猛增長。從全球范圍來看,國際數據中心大多聚集在發達地區,并且形成了加速擴張的模式,開展大量并購交易占領國際市場。不僅國外數據中心規模在不斷擴大,近年來中國IDC市場規模也是逐年攀升,東部一線城市數據中心趨于飽和,開始向西部地區遷移,數據中心利用率逐漸上升,整體布局逐漸優化。
除了華為的“智”冷技術,中科曙光在液冷方面也有獨到的建樹,針對當前數據中心能效問題,進行了技術的改進和創新。發明了浸沒式冷卻技術。液冷在工業界有較長的使用歷史,應用廣泛且技術嫻熟。曙光液冷分為間接冷卻和直接冷卻。間接冷卻通過冷板式進行,直接冷卻則采用全浸沒式冷卻的方法,將服務器完全浸沒在裝有液體的箱體內進行冷卻。在設計過程中采用碳氟液體作為浸沒冷卻的介質,一般的碳氟化合物都有很高的絕緣性,很低的黏度,同時有不燃的效果,而且在很大的范圍內能夠保證它的化學惰性和穩定的性質。采用浸沒冷卻技術具有節能、高可靠性、高性能、智能化、高密度、更低噪音、無泄漏風險的優勢。
PUE值從最初的1.5到1.3再到如今的1.1左右,可見現在數據中心行業更加注重節能減耗,目前,我國政府提出了《國家綠色數據中心的試點方案》,國家政策的出臺也給數據中心值提出了新的挑戰。
眾所周知,制冷系統在數據中心運營過程中起著至關重要的作用,制冷系統的運行是數據中心能耗的最大變數,也是降低數據中心PUE值的關鍵。在數據中心制冷方面華為表現突出,國內服務器租用 服務器托管,發明了基于AI技術的icooling數據中心能效優化解決方案,使PUE值降低了8%。
相關閱讀:
那么:
近日,臺達為新加坡的Campana集團提供了總容量達200kW的模塊化集裝箱數據中心解決方案,用于建設連接新加坡和緬甸的最大的高速數據中心走廊---- MYTHIC國際海底電纜工程,將緬甸連接到新加坡,并選擇分支通往泰國,助力東南亞地區的終端消費者享受更豐富的數字生活。在Campana MYTHIC國際海底電纜工程中,從臺達吳江生產基地制造出貨到緬甸仰光部署完成,7組集裝箱數據中心僅用50天就全部完成。通過全預制、預測試和完整方案的配置,能滿足高機動性的邊緣運算需求。臺達集裝箱數據中心解決方案亦具備良好的綠色能效表現,以年平均PUE值小于1.43為目標,達到Green Grid黃金級水平。
降低數據中心PUE值是現在行業的一大課題,各大企業紛紛著手進行技術的改進和創新。臺達作為綠色建筑的代表一直致力于綠色節能技術的開發。在數據中心能耗方面,提供InfraSuite數據中心解決方案和模塊化數據中心解決方案,使數據中心年平均PUE值僅在1.40左右,遠超中國平均PUE值為3和Green Grid黃金級規范PUE值為1.43的標準。優于Green Grid 黃金級綠色機房標準。
隨著互聯網以及新興技術的出現和變革,海量數據上云的迫切需求以及效率和體驗的雙重驅動作用下,數據中心基礎設施規模隨之擴大,風冷遇到瓶頸,以及電力與冷卻成本迅速增長。據統計,一個大型數據中心的電費占據了約70%的運營成本,全球數據中心每年電力消耗相當于8個三峽水電站的發電量。例如PUE為2的數據中心,在總能耗中,IT設備能耗占了一半,制冷系統能耗占約30%,這就給數據中心帶來了強大的挑戰,在此情況下,節能減耗成為數據中心的主要抓手,數據中心PUE再度成為了社會各界關注的焦點。(PUE值(Power Usage Effectiveness)是用來計算數據中心節能省電的標準,計算的方式是以“數據中心的總用電量”除以“信息中心內IT設備的用電量”)
PUE值降低的最佳實踐方法和完善措施,你Get到了嗎?
各企業為了響應政府的號召和數據中心高成本高能耗的現狀,可謂絞盡腦汁,不斷進行數據中心技術改進與創新,通過最佳的實踐方式和完善措施來減少費用支出,節能減耗,降低PUE值。
【中國IDC圈原創 未經授權禁止轉載】
9月,在北京市人民政府公布的《北京市新增產業的禁止和限制目錄》中,提到全市范圍內禁止新建和擴建互聯網數據服務中的數據中心(PUE值在1.4以下的云計算數據中心除外)….
聯想溫水冷:再創PUE新低
今年,節能減排成各行各業工作重點。數據中心PUE值又進一步被限制。