Facebook復雜的用戶基數給其數據中心帶來了龐大的壓力,當 Facebook的用戶基數打破了5億的時候,這意味著Facebook需要更多的處事器,,更大面積的數據中心。為了辦理這一問題,Facebook研究的是如安在有限的空間內提高處事器計較效率,從而應付急劇膨脹的業務增長。
在數據中心內部大量的回收高密度機架,對付打點這些機架和冷卻是一個龐大的挑戰。最近,Facebook為數據中心配備了全新的高密度處事器,在效能方面有了很大晉升,每年可以或許節減280萬千瓦電力,相當于淘汰排放溫室氣體1088噸。并且Facebook還和各人一起分享了這一高密度數據中心的改革履歷。
小局限 高收益
Facebook改善后的數據中心位于硅谷,面積僅為14560平方英尺。但可別小看了這個不大的面積,其計較本領很是高,并且還回收了氛圍冷卻方法,有效低落制冷本錢。盡量改善后的數據中心面積較小,但其效率卻高于本來56000平方英尺的數據中心。
這個高密度數據中心的散熱通道寬度為八英尺,通道的地磚回收打孔設計,以加強氛圍暢通性。內里的處事器為45U設計,前面板部門顛末尾改革,安裝了氣流闡明、冷通道節制等設施,同時淘汰了處事器電扇能源,從而提高散熱質量。Facebook的處事器和數據中心工程師Amir Michael發現了一個新的配電設計,這個配電設計免去了傳統的數據中心不中斷電源(UPS)和數據中心配電單位(PDU)。新的設計把數據中心的UPS和電池備份成果轉移到蘊藏柜,每個處事器電力供給增加了一個12伏的電池。這個發現其實是來歷于谷歌的一個靈感,因為之前谷歌曾經宣布過集成一個12伏電池的一種電源,并答允它作為一種車載UPS.這種數據中心,除了具有能源高效的數據外,公司也把這種設計作為一個主要的因素。電源利用效率(PUE)額定值在1.1到1.2之間。
冷通道的節制
第一步是處理懲罰冷通道上的設計問題。在闡明冷通道和高架地板的氛圍壓力后,Facebook安裝了一個冷通道節制系統,這個系統包羅塑料的屋頂以及在每個通道的結尾配置推拉門。數據中心工程的認真人 Jay Park和他的團隊還將地面的瓷磚換掉,用實心的磚來代替傳統的兩孔磚。別的,Facebook還采納多種法子,密封冷氛圍使其無法外溢,最大限度的提高冷氛圍的冷卻效率。
第二個步調是針對電扇的效率。由于冷通道節制系統可以或許更好的節制氣流,所以這就答允Facebook來低落處事器的電扇頻率,這有利于處事器可以或許更好的發揮電扇的機能。Park說,我們針對處事器的運行環境做出監測,來使電扇的效率可以或許更好的適應處事器的負載。然后,我們和處事器制造商舉辦相同,他們提供了一個越發公道的處事器電扇辦理方案給我們。
敦促行業的成長
Facebook發布他們的高密度數據中心改革辦理方案的目標之一就是為了促舉辦業內相關方面的成長。在上述中的很多計策,如冷通道的節制,改換地板磚以及調解進口溫度等等,這些法子在任何小型數據中心都可以很利便的測試。至于優化處事器電扇風速之類的法子,則對付一些大型數據中心來說較量容易——購置數量浩瀚的處事器才氣讓廠商做出改變。
不外Park說,處事器廠商也應該接管來自小型數據中心的發起。他發起這些數據中心可以實驗和處事器供給商舉辦相同,看他們是否愿意這樣做。當有足夠多的企業有這樣的要求的時候,這就成了一個行業的新尺度。另外Facebook還暗示可以通過簡化電力隨處事器的要領低落電力開支。不只這樣,除了提高效率,新的設計在設備采購方面也節減了龐大的本錢。因為公司不需要再購置傳統的UPS和PDU系統,這樣便可以節減百萬美元,假如整個行業都產生回收這樣的轉變,那將是龐大的一個更改。在硬件設施方面Facebook同樣采納了法子。像是一般的處事器利用208V電源設置隨處事器,大大都電源也可以支持230V和240V的設置,而Facebook新的分派打算是要求277V的電源設置隨處事器。為此他們也在和電力供給商相助建設能接管277V輸入電壓的電源供給器。
在辦理了氣流和電扇的問題后,Facebook的冷卻本領大幅度晉升,冷卻通道的進口溫度從51度調解為67度,另外,Facebook還加大了操作室外新鮮氛圍舉辦氛圍冷卻的面積,從本來的2200個小時(約莫三個月/每年)增加到6700個小時(高出個9個月/每年)。