此外,TPU也不向企業(yè)或政府的數(shù)據(jù)中心出售。但谷歌對此表示滿意,因為它將TPU和TensorFlow視為其全面的AI領(lǐng)導(dǎo)力戰(zhàn)略。針對硬件的軟件優(yōu)化,可以構(gòu)建強大而耐用的平臺。
作者將會分三部分進(jìn)行介紹,本文是第一部分。
雖然TPU會對谷歌的人工智能的發(fā)展產(chǎn)生影響,但除了內(nèi)部的,對外的服務(wù)(這是一個相當(dāng)大的市場)是故意限制的。TPU只能用于培訓(xùn)和運行Google TensorFlow框架,無法使用它來訓(xùn)練或運行使用Apache MxNet或PyTorch構(gòu)建的AI,PyTorch框架的重要推動者是Facebook 和微軟。TPU也不能用于非AI HPC應(yīng)用,這一領(lǐng)域GPU占據(jù)絕對主導(dǎo)地位。
谷歌是最早推出專用芯片(ASIC)的公司之一,然而谷歌可能是NVIDIA最大的客戶之一。谷歌的“Tensor Processing Units”(TPU)芯片已經(jīng)更新至第三代,可以加速云端的深度學(xué)習(xí)訓(xùn)練,最近還可以加速推理處理。據(jù)悉,用于訓(xùn)練和處理DNN的Google TPU的性能相當(dāng)穩(wěn)定,單芯片每秒性能可達(dá)45 TOPS。相比之下,NVIDIA的Volta性能最高可達(dá)125 TOPS。第一批TPU只供內(nèi)部使用,現(xiàn)在谷歌將它們作為服務(wù)提供給Google Compute Cloud的客戶。
CES 2019上,免備案主機,英特爾透露正在與Facebook密切合作準(zhǔn)備推出Nervana神經(jīng)網(wǎng)絡(luò)處理器(NNP-I),因為許多人猜測Facebook正在開發(fā)自己AI加速器。與此同時,英特爾副總裁兼AI產(chǎn)品總經(jīng)理Naveen Rao在Twitter上分享,NNP-I是采用英特爾10nm的SoC,服務(wù)器租用 免備案服務(wù)器,并采用IceLake x86內(nèi)核。
毫無疑問,NVIDIA以其強大的可擴(kuò)展架構(gòu)為動力打造出受歡迎的產(chǎn)品。NVIDIA現(xiàn)在擁有一個強大且持續(xù)更新的軟件,高校、初創(chuàng)公司和合作伙伴使其成為由其新創(chuàng)建的生態(tài)的主導(dǎo)者。有些人會認(rèn)為這個生態(tài)系統(tǒng)是堅固的護(hù)城河,但暴風(fēng)云正在出現(xiàn)。潛在的威脅來自英特爾,谷歌,AMD以及數(shù)十家美國和中國的初創(chuàng)公司。
NVIDIA的領(lǐng)先優(yōu)勢
AMD
賽靈思
在最新報告季度,NVIDIA數(shù)據(jù)中心收入同比增長58%至7.92億美元,占公司總收入的近25%。過去的四個季度總營收達(dá)到28.6億美元。如果能夠保持這種增長趨勢,2019年數(shù)據(jù)中心營收或達(dá)到約45億美元。
目前為止,在我看來,大部分競爭者都“火力不足”。因為我非常有信心除了谷歌,其它挑戰(zhàn)者都沒有搶奪了NVIDIA的市場份額。讓我們來看看目前的競爭格局,2019年將會變得非常有趣。
過去三年,AMD一直在努力讓AI的軟件正常運轉(zhuǎn)。當(dāng)我2015年在那里工作時,如果沒有啟動Windows,你甚至無法在Linux服務(wù)器上運行GPU。從那時起,AMD進(jìn)行了很多工作,ROCm軟件和編譯器簡化了CUDA的遷移,并且在其芯片上加速數(shù)學(xué)庫MlOpen(不要與OpenML混淆)。然而,目前AMD的GPU仍然至少落后NVIDIA V100產(chǎn)品一代,而V100推出已經(jīng)接近兩年了。