在過去的十年間,隨著互聯網、移動互聯網的井噴,IDC作為基礎設施,在中國贏得了奇跡式的增長,平均增速最高達到40%,這讓投資IDC熱潮在中國方興未艾。從中國的東部沿海地區到新疆腹地,都掀起了一股IDC熱。在2016年,中國的IDC行業市場總規模達到了714.5億元。
然而,在筆者看來,傳統的IDC是典型的新興行業舊模式,無論是只提供基礎設施的托管型服務,還是直接提供服務器、網絡和存儲設備,提供近似云計算體驗的所謂進階版,其基本商業邏輯都是:利用資源整合售賣,賺取差價。在云計算時代的今天,注定是沒有前途的生意模式。
縱觀Rackspace、Softlayer這兩家在全球最早從傳統IDC托管向云計算轉型的廠商,自2013年以來在資本市場的節節敗退,已經清晰的說明了這個道理。
首先看當年和IBM同樣傳出緋聞的Rackspace,當年也號稱云計算的主流玩家,比Softlayer技術上更加接近云計算模式,當年估值高達90億美金,到去年退市私有化的時候,市值僅僅40億美金,市值已經跌去大半。
同樣在購買softlayer后IBM股價的走勢,顯然也難以恢復到昨日的輝煌,傳統IDC無可奈何花落去的寂寞,這一點從股價角度反映得淋漓盡致。
反觀,在云計算市場風頭正勁的AWS和Azure,股價一路上揚,市值不斷創新高,受到了資本市場的熱烈追捧。
在歷史上常見這樣的場景:那就是兩個時代的較量:當你在改進刀劍的時候,并希望做到極致的時候,熱兵器時代,已經來了。
云計算,相對于傳統的IDC,就是這樣兩個時代的比拼。冷酷無情的資本市場,已經用腳投票,告訴我們這兩個時代較量的結果了。
那么反過來,directadmin下載 美國虛擬主機,讓我們以史為鑒,梳理一下傳統IDC模式在云計算時代為什么注定會失敗的原因。讓我們從企業級客戶的IT建設核心需求出發,在服務可用性,數據持久性,運維成本/彈性、資源效率等諸多方面來進行對比。
1) 服務可用性
在可用性上,考慮到CPU、硬盤、電源、主板等硬件的年故障率,單臺物理機的整機年故障率一般為3%左右,相當于每100臺物理機,一年內至少會有3臺在不可預期的時間出現硬件故障。
從出現故障到最終修復重新上架,少則3-5天,多則十天半個月。
任何一個硬件故障,都有可能成為托管IDC的災難性事件
而在云計算的世界中,按照當前主流云計算廠商所提供的云服務器可用性SLA指標,國外的AWS/Azure通過多可用區承諾99.95%的可用性,國內的阿里云單可用區可用性為99.95%,換言之也就是年停機時間不高于4.38個小時,相對比傳統IDC物理機動輒以數天/星期來計算的停機時間,云服務器的可用性提升了數十倍。
也就意味著,在云計算的世界中,由于云服務器故障導致的業務中止概率約為傳統IDC的百分之幾。
2) 數據持久性
數據是一家企業的核心資產,如何保障數據持久性,是IT系統建設時的首要考慮因素。在傳統IDC基于物理機的建設模式下,為了提供數據持久性,服務器上的本地硬盤會通過RAID卡做RAID10/5,部分核心業務還會采用企業級外置存儲陣列(類似EMC VMAX10K、IBM DS8K等專業存儲)來進一步提供數據持久性。
但在現實世界中,RAID卡也好,外置存儲陣列也罷,都不同程度上存在單點故障問題。有時服務器主板故障等原因,也會殃及池魚影響造成數據不可訪問。導致運維人員往往還要通過備份軟件、磁帶庫、存儲陣列容災、數據庫/應用層數據同步等等一系列技術手段,來預防潛在的數據丟失可能。這樣就給企業IT無形間又增加了諸多成本。
而在云計算的世界中,同樣按照主流云計算廠商提供的數據可靠性SLA,從5個9到9個9不等,即使是5個9可靠性,也意味著每1百萬塊云磁盤,每個月故障的數量不超過1塊。相比于傳統物理機模式,數據持久性無疑提高了成百上千倍。
不難看出,在傳統IDC基于物理機建設模式下,為了實現高可用性和高數據持久性,不僅需要在軟硬件上投入大量資源,購買小型機、高端X86服務器、企業級存儲,租用/自建高標準的機房,還需要培養一支具備豐富軟硬件運維能力的日常運維團隊,為核心業務提供7*24小時的保障能力。業務不間斷運行的背后,是一支數十人甚至上百人的團隊日以繼夜的堅守與付出。