在數據中心網絡中,向100千兆位以太網穩步進軍,今年似乎已經進入了一個慢跑階段。
據戴爾·奧羅集團(Dell'Oro Group)的數據,現在是8月份,100GbE的接口運輸量已經比2017年翻了一番,而隨著數據中心從40GbE轉移,采用率繼續加快。市場調研公司高級主管Sameh Boujelbene說,預計到今年年底,運輸量將增長近三倍。
分析師評論戴爾EMC最近推出的最新100GBE開放式網絡交換機。到2022,他預測,每年將有1940萬個100GBE接口運輸,比2017的460萬有所增加。
戴爾的主要競爭對手惠普也看到了類似的趨勢。HPE惠普首席技術專家Chris Dando在接受采訪時說:“100GBE很快就會到來。”
也就是說,與以前從1GBE到10GbE或40GbE的過渡率相比,確實很快。“在40GBE路線上沒有下一步,所以100GBE是自然的繼承者,”Dando說。
為什么現在?
千兆以太網并不完全是新技術,那么為什么現在有這么多的活動呢?
答案之一是100GbE網絡設備(以及用于來自日益密集的刀片和機架服務器的上傳的相應25GbENIC)的成熟度和成本下降。
Juniper網絡和思科系統已經為100/25GbE交換機制作了自己的ASIC一段時間。Broadcom、Cavium和Melanox Technologies現在提供標準的100GbE處理器,這些處理器為戴爾、惠普、華為技術、聯想集團、量子計算機、超級微型計算機等公司的開關供電。
成交量和競爭正在壓低價格,并且100/25GbE設備超過40/10GbE的溢價相對較低:根據SNIA估計,NIC多出20%到30%,交換機每端口多出50%。
服務器可能已經有25GbE了。戴爾網絡和服務提供商解決方案主管杰夫·巴赫(Jeff Baher)說:“我們看到機架上的許多服務器正在用最新的英特爾技術升級,包括雙25GbE IO能力。”
100GbE產品是向后兼容的,這簡化了部署。現有電纜可以通過在電纜上安裝新的收發器或模塊來重復使用。幾乎所有的25GbE適配器和開關端口都與10GbE向后兼容,100GbE適配器和端口與40GbE凝膠兼容。大多數開關可以支持速度的混合。
這不僅僅是速度
在100GbE中可以合并電纜使得它從直接節省的角度來看具有吸引力,并且因為它減少了功率和空間需求。“你可以使用更少的轉碼器,這可以降低一些成本,”Dando說。
“使用上一代技術,如果您擁有進入機架頂部交換機的全部計算機架,那么您有16個計算節點,每個節點具有兩個20GbE連接,因此您將增加320Gb。有了這項新技術,您就可以在十臺具有雙25GbE連接的服務器上運行它,所以您有500GbE到機架頂部交換機,但是實際連接較少:從32GbE到10。
Dando說,在內部測試中,HPE的性能提高了56%,總擁有成本比10GbE降低了27%,同時功率節省了31%,布線復雜度降低了38%。
在脊柱網絡中放置100GbE也減輕了對爭用率和超載核心網絡的擔憂。
工作負荷
大型服務提供商和一些超大規模云平臺已經采用100GbE來運行高性能計算或云基礎設施服務(盡管微軟今年只將Azure帶到100GbE)。
Juniper的數據中心銷售總監Brett Ley說,支持HPC和金融服務、政府平臺、石油和天然氣以及公用事業的技術計算的數據中心也已經開始向100GbE轉移,這是采用更平坦的數據中心結構架構和微服務的一部分。他補充說,運營商從專有的InfiniBand存儲連接切換到更普遍和更具成本效益的以太網模型是另一個驅動因素。
Baher說,主流數據中心工作負載的帶寬和低延遲需求也達到了100GbE能夠幫助的程度。工作負載可能是傳統的,VPS,但是隨著公司虛擬化更多的虛擬機并匯集虛擬機或容器,“您需要能夠在機架中左右移動它們,這就需要更高的速度。”
英特爾最近估計,數據中心內部的流量每年增長25%,其中大部分是東西方流量,造成了網絡瓶頸。
儲存因素
Baher指出,軟件定義的存儲技術,如存儲空間直接(Storage Spaces.)、擴展存儲(.-out.)和超聚合基礎設施(hyper.d.)也引起了人們的興趣,服務器租用 免備案服務器,因為它們在基于IP的網絡上增加了存儲流量。“有大量的工作負載非常密集,你正在移動大文件或數據流。”
以太網存儲是光纖通道帶寬的三倍,約占成本的三分之一。具有NVME接口的閃存驅動器比SAS或SATA驅動器具有更高的吞吐量和更低的等待時間。
然而,企業存儲供應商正在緩慢地移動。SNIA估計,一些供應商不會支持25GBE(和100GbE的所有閃存陣列),直到2019年中期。
為未來做準備
100GbE用于數據中心網絡的一些是關于未來的打樣。