數據中心網絡的100GbE的穩步增長似乎已經發展到在今年的慢跑階段。
根據戴爾奧羅集團的數據顯示,今年8月,100GbE港口出貨量較2017年增加了一倍,采用的速度也繼續加快,因為數據中心從40GbE轉移到了其他地方。市場研究公司高級主管Sameh Boujelbene表示,預計出貨量將在年底前增加近三倍。
該分析師正在評論戴爾EMC最近推出的最新100GbE開放式網絡交換機。他預測,到2022年,每年將有1,940萬個100GbE端口出貨,而2017年為460萬個。
戴爾的主要競爭對手惠普公司也看到了類似的趨勢。“100GbE將很快到來”HPE首席技術專家Chris Dando在采訪中說道。
也就是說,與先前從1GbE到10GbE或40GbE的轉換速率相比,這是非常快的。“在40GbE路線上沒有下一步,所以100GbE是自然的接班人” Dando說。
為什么是現在?
千兆以太網并不是新技術,為什么到現在才會有如此多動作呢?
答案的一部分是100GbE網絡設備的成熟度和成本下降(以及相應的25GbE NIC用于來自日益密集的刀片和機架服務器的上行鏈路)。
瞻博網絡和思科系統一直為100/25GbE交換機制造自己的ASIC。Broadcom、Cavium和Mellanox Technologies現在提供標準的100GbE處理器,由戴爾、HPE、華為技術、聯想集團、廣達電腦、超微電腦等公司提供電源開關。
根據SNIA估計,數量和競爭正在推動價格下降,免備案主機,超過40/10GbE的100/25GbE設備的溢價相對較低:根據SNIA的預估,NIC每口增加20%至30%,交換機每端口增加50%。
服務器可能已經有25GbE。“我們看到許多機架中的服務器正在使用最新的英特爾技術進行升級;其中包括雙重25GbE IO功能。”戴爾的網絡和服務提供商解決方案總監Jeff Baher告訴我們。
100GbE產品向后兼容的,簡化了部署。通過在電纜上安裝新的收發器或模塊,可以重復使用現有布線。幾乎所有25GbE適配器和交換機端口都向后兼容10GbE,100GbE適配器和端口凝聚40GbE。大多數交換機可以支持混合速度。
不僅僅只有速度
通過100GbE實現布線的整合使其從直接節省的角度來看具有吸引力,因為它減少了電力和空間需求。“你可以使用更少的代碼轉換器,這可以降低部分成本。”Dando說。
“在上一代技術中,如果你有一個完整的計算機機架進入機架頂部的交換機,你有16個計算節點,每個節點都有兩個20GbE連接,因此你將會有320Gb上升。使用這項新技術,您可以在具有雙25GbE連接的十臺服務器上運行該技術,因此您可以使用500GbE連接到架頂式交換機,但實際連接數較少:從32降至10。
在內部測試中,Dando表示,HPE的性能提高了56%,總成本比10GbE低27%,同時節省了31%的電力,降低了38%的布線復雜度。
將100GbE放在脊椎網絡中也可以減輕對爭用率和核心網絡過載的擔憂。
工作負荷
大型服務提供商和一些超大規模云平臺已經采用100GbE,用于運行高性能計算或云基礎架構服務(盡管微軟今年只將Azure提升到100GbE)。
Juniper數據中心銷售總監Brett Ley告訴我們,支持HPC、金融服務、政府平臺、石油和天然氣以及公用事業的技術計算的數據中心也開始轉向100GbE,作為采用更扁平的數據中心架構架構和微服務的一部分。他補充說,站群服務器,運營商從專有的InfiniBand存儲連接切換到更普遍且更具成本效益的以太網模型是另一個驅動因素。
Baher說,主流數據中心工作負載的帶寬和低延遲需求也達到了100GbE可以提供幫助的程度。工作負載可能是傳統的,但隨著公司虛擬化更大的虛擬機或容器,"你需要把它們移動到左右的架子上,這樣就能驅動更高的速度了"
英特爾最近預估,數據中心內部的流量每年增長25%,其中大部分是東西向流量,從而造成網絡瓶頸。
存儲的因素
Baher指出,同樣引起人們興趣的還有軟件定義的存儲技術,如直接存儲空間、橫向擴展存儲和超融合基礎設施,因為它們在基于IP的網絡上增加了更多的存儲流量。“存在大量存儲密集型的工作負載,您需要移動大文件或數據流。”
以太網存儲的帶寬是光纖通道的三倍,約為成本的三分之一。帶有NVMe接口的閃存驅動器比SAS或SATA驅動器具有更高的吞吐量和更低的延遲。
然而,企業存儲供應商發展緩慢。SNIA估計,直到2019年中期,一些供應商才會支持25GbE(以及全閃存陣列的100GbE)。
為未來做準備