AI 算力 需求 迎來爆發式增長
華為云·云容器實例本次發布的GPU加速型容器實例本質是在Serverless K8S的基礎上提供GPU算力,這兩個技術的結合給AI、基因、視頻處理等場景帶來不一樣的體驗。
隨著容器技術逐漸被各個領域開發者接受,大家發現容器技術可以提供標準化的容器打包,解決AI場景中不同工具對環境的依賴。用戶在搭建深度學習訓練環境,需要準備帶GPU的機器,安裝python,tensorflow,GPU驅動等,如果要從開發環境到測試環境,再從測試環境到生成環境,涉及環境遷移過程中如何保證環境的一致性。然而容器帶來的標準化打包能力可以提供了絕佳的解決方案,可以極大降低AI平臺的復雜度,做到多訓練框架并存、大幅簡化生產環境部署。
免運維 。 相比傳統租用云服務器、甚至自建IDC,GPU加速型容器實例無需客戶維護集群、考慮集群的升級、社區bug修復、集群資源利用率等問題,直接購買和管理GPU容器實例。同時,CCI提供了可視化的pod CPU/MEM/GPU監控功能,可以實時監控處理過程,極大的簡化運維成本。
目前K8S已經成為業界最主流的容器管理平臺,它提供靈活的編排調度系統,可以滿足大規模、高并發的AI分布式訓練,大幅提高訓練速度。因此,域名購買 directadmin購買,directadmin漢化 虛擬主機,公有云GPU容器實例對AI用戶的吸引力越來越高。
日前,華為云·云容器實例(CCI)全球首發基于K8S的serverless GPU加速型容器實例。這是繼華為云在全球首發基于K8S的容器實例后,為容器實例服務提供更豐富的計算選擇,給關注AI、視頻處理等高性能計算的企業和開發者帶來更多的玩法。
高性能 。 華為云GPU加速型云容器實例支持秒級伸縮和高并發,kata容器啟動速度實測600ms,集群規模高達上十萬容器實例,讓客戶快速利用GPU實例實現分布式計算。例如,華為云EI使用該GPU容器實例,在斯坦福大學DAWNBench測試中取得前兩名的好成績,并達到0.8+的GPU線性加速比。
華為云·GPU加速型云容器實例在Serverless K8S上展現了免運維、高性能、低成本算力的優勢,逐步成為解決AI場景中各種環境問題的利器。未來也將在AI、基因、視頻處理等行業,為高性能計算的企業和開發者提供更加高效,安全、低成本的公有云服務。
低成本 。 很多高性能計算時長非常靈活,以AI訓練為例,很多場景下,客戶需要快速、多次計算進行迭代。華為云GPU加速型云容器實例提供按需按秒計費,讓客戶真正按業務計算市場進行消費,避免包年包月帶來的高成本。
以AI場景為例,OpenAI發布研究報告,透露2012年到2018年6年間單次AI訓練的計算量增加30萬倍,這意味著訓練計算量每3.5個月翻倍,是摩爾定律的5倍。同時,AI正在向各行各業普及,因此AI算力的需求會出現爆炸式增長。公有云因為低成本的硬件、無需關注基礎設施、0交付周期的優勢,是客戶在有AI算力需求時是更好的選擇。