其核心的內容是:如何將本地傳統的存儲系統與公共云更好地融合在一起,使得用戶無需關心數據的物理位置,只需要聚焦具體的業務實現。為此,不得不從技術手段克服很多問題,特別是本地和云端的數據自由流動,以及面向應用的存儲性能一致性等。在具體實踐中,阿里云實現了分布式的高性能存儲網關,歐洲服務器租用 云服務器,但這個網關跟我們原來認識的網關又不一樣,究竟有什么不一樣呢?我們還是來看看,他是怎么說的吧。
以下是現場速記:
大家好,我叫袁經凱,我來自阿里云,主要負責阿里云混合云存儲架構方面的一些工作。這兩天我們聽到了許多關于高性能存儲介質和Fabric優化的內容。今天我的主題是混合云場景下的的高性能存儲,嘗試從另外一個角度看待不斷演進的高性能介質,也即是在具體場景下,特別是在和云結合的場景下,如何擁抱高性能存儲帶來的變化?以及相衍生的新的存儲產品形態等,這是我們當前考慮的問題。
我們首先回顧一下過去存儲介質的發展,從早期的Hard Drive,到后來的SSD,以及最新的Persistent Memory(持久內存)。Hard Drive大概在十毫秒左右的時延,到SSD是亞毫秒的時延,到Persistent Memory(持久內存)直接到了納秒級的時延表現,可以看到整個存儲介質是在快速的進化當中。而從另外一個角度講,我們對存儲介質的性能行為定義也在發生著變化。不光是單純的IOPS或者Throughput,現在也更加關注性能的可靠性和穩定性方面。
而存儲介質只是存儲系統的一部分,存儲系統的不同的部署形態對整個存儲性能也有很大的影響或約束。早期單機的類似DAS直連的形態,性能受限于外部總線的發展;在數據中心的部署下,會看到SAN或者NAS的存儲形態,性能行為也受到Fabric的影響,如Ethernet、FC,InfiniBand和NVMe over fabric等;而在云環境下,特別是在混合云環境下,數據在公共云和專有云中之間自由流動,如何從用戶的角度實現統一的數據視圖以及統一的存儲性能表現,是一個比較大的挑戰。
我們看一下云環境下工作負載的部署策略。從傳統的觀點來說,云端提供計算和存儲的彈性,適合動態或較難預測的工作負載,同時提供更好的運維管理能力;而私有的數據中心更多是IO或計算密集的場景,或者是對時延要求比較高的形態,這也是傳統架構的特點。
而如今,公共云在快速的演進當中,整個公共云的存儲生態也在不斷的擴展,覆蓋更豐富的業務負載。例如,性能上阿里云發布了百萬IOPS和亞毫秒時延的ESSD;而存儲形態上,提供OSS對象存儲,容量型及性能型NAS,彈性的塊存儲服務等;而從上層的數據層面來看,提供緩存、消息隊列,以及RDS,NoSQL等多樣的數據服務。
但顯而易見的是,VPS租用 國內服務器,未來很長時間都會是公共云、專有云共存的形態。所以,如何實現公共云和專有云之間數據的自由流動,如何做到業務無感知,用戶不需要關注數據的位置,實現數據的融合和自由遷移非常重要。
理想狀態下,公共云和專有云之間的連接應該是如圖所示的狀態,使得公共云的計算側能訪問線下的數據,線下計算能訪問線上的存儲,存儲和存儲之間能實現統一的管理,這是我們需要做到的。
這是當前最常見的線下存儲和線上存儲之間的互聯狀態。將傳統的存儲陣列進行擴展,提供了與云相集成的能力,從而充分利用云端存儲在彈性和低成本,以及安全和高可靠性上的優勢,使得存儲陣列承載高性能場景之外更多的業務形態,這是非常直觀的需求。
傳統存儲有分層和緩存的概念,以及容量層和性能層等這樣的分層結構。很自然,我們可以把當前云端存儲,例如阿里云OSS存儲看作新的存儲層次。通過引入云緩存、云分層、云備份等服務,可以按策略實現數據在本地的高性能存儲以及云端的自由放置,從而實現存儲在成本,安全和高可用上的優化,這是一個直接的云集成解決方案。
另外,我們經常會遇到的“Cloud Burst”問題,需要云上彈性的計算能力解決云下動態的數據處理需求。這時候線上的計算和線下的存儲如何互聯,如何保持像線下計算訪問線下存儲那樣的一致的性能行為,是要解決的一個問題。