“買、買、買”雙11購物節氣氛已經非常濃重,很多剁手黨們都摩拳擦掌,準備好錢包來清空購物車了。沒準備好的,都在準備管好銀行卡、管好電腦、管好網絡、管好媳婦,好平安度過雙11。
這種情況恐怕每年這個時候都會發生,但在雙11那天,無論“淘寶”、“天貓”、“京東”、都是以億級巨額交易量成功完成。對于買貨、和賣貨的人來說都是開心一刻,動動手指的事。可對于電商后臺來說,那可是壓力最大的時候。到底后臺有什么先進科技技術支撐了這巨額的交易量?
平臺科技
阿里技術大神說得很玄乎:“流計算”,“分布式數據庫”,“異地多活”等等。其實通俗點解讀并沒有那么玄乎,大家都聽得懂。
1、服務器數量多
要想應對這么大的計算量。無論什么技術都得有硬件基礎。服務器是最基礎的計算資源。各大電商都采用大量統一標準的X86服務器。
數量多只是有了計算基礎,然后在服務器上裝上云架構,也就是現在很火熱的“云計算”。有了云計算的高可用,以及對資源的充分利用,無論雙11多大的“計算洪流”,都可以通過這個多服務器搭建的巨大“云計算河道”。而且云計算的先進技術可以保障任何一臺硬件損壞都不會影響業務繼續進行。
2、數據機房多
除了第一點說的服務器多+云計算平臺,只是有了1個技術基礎。但是交易發生在祖國的神州大地的每一個角落。如果所有計算數據都往一個城市的后臺服務器奔流而去,服務器再多,云計算再厲害也很難頂住壓力。傳輸線路也會造成擁堵。
所以,各平臺商鑒于這種交易的普遍性和廣泛性,必須在不同地方建設有機房(數據中心)。這樣,可以減少線路壓力。同時將一朵“大云”拆分成幾個城市的“小云”。并統一調度,統一管理。使用上仍然是一朵“大云”。
3、線路多
了硬件資源多,線路還必須多。因為天南地北的朋友,有從電信、有從聯通、有從移動線路接入進來。所以,平臺后臺每個數據中心都有充足的多線路冗余的支撐。無論哪一條線路出問題,其他線路立即可以接管業務。確保雙11交易能夠成功。
4、時間拉長
任何數量的東西,如果作用在一個很小時間點,也會變成巨大壓力。這個物理的壓力類似。
把力量壓在一個點上,壓強會很大。雙11也一樣,本來交易量就非常巨大,如果都作用在一個11.11 0:0:0 時間點。那再強大的服務器也很容易被壓垮。就算時間是一整天,但很多人白天要上班,生怕優惠搶不到,都會集中在某一時間段。那這個怎么辦?通過兩個技術來解決的。
①:優惠延長時間,這可以大大緩解集中時間點的壓力。很多人看到優惠可以有很長時間,就不會非要守著那個時刻去搶。壓力自然緩解不少。
②:延遲計算,交易發生的時間通過①有所緩解,但還是很難保證一定不會有計算“洪峰”過來。于是,后臺可以通過技術,把交易延遲計算,如何延遲計算呢。整個交易最復雜的是后面電子付款劃賬,因為涉及到加密、電子證書、跨不同銀行等等。居于這個現狀,延遲計算就是可以先在自己電商平臺形成交易訂單,平臺和銀行以及其他平臺之間的付款劃賬延遲進行。舉個類似的現實例子:
鐵路12306訂票時,大家會發現查詢有沒有票是很快的。但是下訂單了,交易過程卻要等待一段時間。甚至會返回沒票。這就是查詢過程和下訂單過程立即完成,但最終判斷交易過程卻是排隊延遲進行的。
5、保障人員多
這個不算技術,但不可或缺。雙11,站群服務器,平臺后臺的技術人員以及第三方保障公司都是7*24小時待命,出現技術問題,隨時解決。做好了所有應急預案來保障巨額交易的完成。
綜述
綜上所述,雙11,directadmin漢化,巨大的計算流量,需要巨量的計算資源、和先進技術保障。前臺1分鐘,后臺幾年功。