隨著大數據、云計算、人工智能等技術的發展成熟,亞洲服務器租用,企業級IT領域也迎來重大變革。聚焦到單個板塊,如在服務器市場上,傳統互聯網時代,我們聽到的更多是機架服務器、塔式服務器及刀片服務器。
而在即將到來或者說已經到來的人工智能時代,我們更多的是聽到AI服務器這一名詞。那么,究竟什么是AI服務器,AI服務器又為何適用人工智能時代?在本文中,筆者也將解答AI服務器的這些困惑,主要涉及AI服務器的定義、優勢及市場現狀3方面。
AI服務器的定義
從硬件架構來看,AI服務器主要指的是采用異構形式的服務器,表現形態多為機架式。在異構方式上,可以為CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多種加速卡。
而在其他組成部件上,如內存模塊、存儲模塊、網絡模塊與傳統服務器差別不大,主要的提升便是支持更大容量的內存滿足當下實時負載增加的需求,提供更多外置硬盤插槽,并廣泛支持NVME/PCIE等SSD,滿足數據洪流需求,網絡模塊主要表現為帶寬增加。
盡管AI服務器可以采用多種異構形式,但目前廣泛使用的是CPU+GPU。也因此,業界在談到AI服務器時,往往將其默認為GPU服務器。因此,在第二部分中,筆者談到的AI服務器優勢也主要為GPU服務器。
AI服務器的優勢
我們都知道,傳統服務器主要以CPU為算力提供者。而CPU為通用型處理器,采用串行架構,擅長邏輯計算,負責不同類型種類的數據處理及訪問,同時邏輯判斷又需要引入大量分支跳轉中斷處理,這使得CPU的內部結構復雜。也因此,CPU算力的提升主要靠堆核來實現。
隨著云計算、大數據、AI、物聯網等技術應用,數據在近幾年呈指數型增長,IDC統計顯示全球90%數據均在近幾年產生,這便對CPU的處理能力提出考驗,而目前CPU的物理工藝、核心數已接近極限,數據量卻不會停止,服務器的處理能力必須提升。因此,在AI時代下,僅由CPU做算力提供者的傳統服務器并不能滿足需求。
不同于CPU,GPU采用并行計算模式,單卡核心數達到上千個,擅長處理密集型運算應用,如圖形渲染、計算視覺和機器學習。經過幾年驗證,搭載GPU的服務器也被證實的確適用這個時代。
AI服務器市場現狀
IDC全球半年度人工智能系統支出指南預測顯示,2019年全球人工智能系統支出將達到358億美元,相比2018年增加44.0%。同時,人工智能系統支出到2022年將翻一番達到792億美元,2018年到2020年預測期內復合年增長率(CAGR)為38.0%。
這一數值也意味著,AI服務器的市場有多廣。也因此,全球幾大服務器廠商均緊鑼密鼓部署著AI服務器。
目前,在中國市場上,浪潮的市場占有率最大,且處于絕對領先地位,份額達到51.4%,曙光和新華三緊隨其后。從行業分布來看,互聯網當之無愧是AI服務器的主要用戶。而在GPU上,NVIDIA具有明顯優勢,其Tesla系列產品在AI基礎設施市場占據主導地位,尤其在線下訓練場景中處于壟斷地位。
而在AI服務器上,目前性能最強的為浪潮AI超級服務器AGX-5,AGX-5是專為深度學習和高性能計算的性能擴展設計,單機在8U空間里可以配置16顆NVIDIA Tesla V100 Tensor Core 32GB GPUs,擁有10240個張量計算核心,計算性能高達每秒2千萬億次。
【凡本網注明來源非中國IDC圈的作品,均轉載自其它媒體,VPS,目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。】