隨著互聯網和云計算行業的快速發展,數據中心網絡的重要性前所未有的凸顯。展望2020年,數據中心網絡技術會有哪些熱點問題受業界關注,面臨這些技術熱點問題你會如何應對?
熱點10:SDN的浪潮下,CLI/SNMP運維管理方式是否會被淘汰?
上榜指數:★★★☆☆
上榜原因:CLI/SNMP難以滿足大規模網絡運營管理的要求。
CLI命令行和SNMP簡單網絡管理協議可以說是和網絡設備歷史一樣悠久的古老運維管理技術手段,特別是CLI敲打如飛一度是CTO(Chief Troubleshooting Officer)的體現。今天大部分企業的網絡運維管理系統仍然依賴CLI和SNMP,然而CLI和大量SNMP MIB的私有性導致適配工作量很大,同時CLI和SNMP在大規模網絡場景下性能和實時性差、可靠性差的缺點也凸顯出來。
隨著Openflow、OVSDB、gRPC、Openconfig、RestAPI等技術手段的不斷出現和發展,預計2020年,Telemetry的訂閱和推送機制、RestAPI、Yang model數據結構的組合也許會成為新一代數據中心網絡運維管理系統的主流選擇,取代CLI/SNMP。
熱點 9:智能網卡發展迅猛,會取代現有服務器網卡嗎?
上榜指數:★★★☆☆
上榜原因:網卡容易被忽視,但它的重要性日趨明顯。
過去的幾年中,網卡從千兆網卡變成萬兆網卡,以及25G網卡,速率不斷提升,并且網卡還可以通過SRIOV、TSO等技術提供性能加速。然而,工程師們對網卡有更高的期望,鄭州電信服務器 服務器托管,比如將Open VSwitch、DPDK、Vxlan等軟件特性由網卡實現,提高服務器網絡性能、降低時延、節約CPU。對公有云企業來說,一臺服務器只要能節約出一個CPU核,就可以在不長時間內把服務器智能網卡額外的成本收回來。
可以預計,在2020年,智能網卡將會成為公有云服務器、網關類服務器、NVF服務器的標配。
熱點 8:核心交換機功耗越來越高,你的機架電力和散熱還撐得住嗎?
上榜指數:★★★☆☆
上榜原因:機架真的快撐不住了。
在萬兆時代,一臺滿配36*40G線卡的16槽核心交換機需要10~12KW以上的機架電力支持;在25G時代,一臺滿配36*100G線卡的16槽核心交換機將這個數字提高到18~20KW;
在2020年的50G/100G時代,一臺滿配36*400G線卡的16槽核心交換機對機架電力的要求預計很可能會高達30~40KW。30~40KW的機架不僅電力改造的成本非常巨大,而且傳統風冷散熱非常困難。
可以預計,如果2020年IDC機架液冷散熱技術仍然不能大規模普及,核心交換機采用8槽甚至更小的機箱降低單機功耗是更為可行的選擇,代價是需要解決網絡核心設備數量大幅增加帶來的額外管理、架構設計等問題。你的網絡架構做好準備了嗎?
熱點 7:交換芯片體系架構,緩存會成為瓶頸嗎??
上榜指數:★★★★☆
上榜原因:緩存對數據中心應用的影響不可忽視。
大部分交換芯片的片上緩存都不大,一般都是幾十MB,比如Trident 2是12MB,Trident 3是32MB,甚至有些交換芯片按pipeline分割使用緩存。網絡端口速率從千兆發展萬兆再到25G,服務器的全速率發送能力增加到25倍,交換芯片緩存與此同時僅增大為2~3倍左右。如果用同樣的全速率發送流量模型進行測試,會發現25G網絡下多打一導致的Tcp incast現象比萬兆網絡更加明顯,相應的對業務和應用的優化要求或丟包率容忍度要求會更高。當然,我們知道Tcp incast并不是通過緩存能夠避免發生的,相反過大的緩存還可能會導致網絡時延的大幅增加。
預計2020年,受制于時鐘、總線帶寬的能力緩存性能難以大幅提升,考慮到功耗、成本的平衡緩存容量也不會大幅增加,而我們可能要通過適度輕載、部署優先級、端到端實時性流控等方式盡可能優化對時延和丟包敏感的關鍵業務流量的性能,如RDMA流量。
熱點 6:可編程芯片,是否會廣泛應用?
上榜指數:★★★★☆
上榜原因:P4及可編程技術打開了網絡的另外一扇門。
長久以來,網絡工程師們面對的是功能固化的交換芯片,即便是openflow等SDN技術,也只能在傳統轉發pipeline上通過ACL等表項模擬所需的轉發行為。然而以Barefoot等為代表的新一代可編程交換芯片提供了改變這一現狀的機會。這類芯片在提供同等轉發性能的同時,可以讓網絡工程師對轉發Pipeline的部分行為進行定制化設定。
然而,我們真的需要在線的交換機隨時可以通過芯片級編程來改變轉發行為嗎?似乎網絡工程師們還看不到這樣的迫切需求。但毫無疑問的是,可編程芯片已經為自定義INT(In-band Network Telemetry)、下一次支持類似vxlan封裝等這類場景做好了準備。