日前,社交網絡巨頭Facebook公司已經進級了毗連其處事器的網絡,以應對內部數據流量的增長。新的快速主干網絡(EBB)可以緩解其數據中心內的網絡擁塞,并為最終用戶提供更好的處事。
所有用戶流量都保存在現有網絡上,又稱為‘Classic Backbone’。
一個差異的挑戰
在已往十年中,Facebook公司在美國和歐洲的數據中心利用單一廣域網(WAN)主干網舉辦互連,該網絡承載了用戶流量和內部處事器之間的流量。
內部流量由與用戶交互不直接相關的各類操縱構成,譬喻將圖片和視頻移動到冷存儲或復制異地數據以舉辦劫難規復等。
按照網絡工程師Mikel Jimenez和Henry Kwok的博客文章,Facebook內部數據中心流量的增長速度遠遠快于用戶流量,直到開始滋擾前端成果。
“跟著新的數據中心的成立,我們意識到需要將跨數據中心與面向互聯網的流量分為差異的網絡,并對其舉辦優化。在不到一年的時間里,我們構建了新的跨數據中心主干網絡的第一個版本,稱為快速主干網(EBB),從那今后我們一直在增長。”工程師在文章中表明說。
在建設EBB時,美國云服務器 韓國vps云主機,Facebook公司將其網絡的物理拓撲分別為四個并行平面,就像在2014年設計數據中心架構時一樣。該公司還開拓了專有的模塊化路由平臺來提供內部網關協議(IGP)和動靜通報成果。
Jimenez和Kwok在文章中寫道:“我們的新網絡的第一次迭代是利用內部網關協議(IGP)和全網內部BGP協議(IBGP)拓撲布局的完美團結來構建的,以實現根基的數據包路由。下一步是添加一個流量矩陣預計器和中央節制器來執行假設‘靜態’拓撲的流量工程函數。最后的迭代將內部門布式網絡平臺Open/R替代了原有的IGP,將漫衍式版本與中央節制器完全集成。”
由此發生的網絡可以或許實現清潔的拆分妨礙域,并可及時響應流量峰值。接下來,Facebook公司打算擴展網絡節制器成果,以更好地打點流量擁堵。