2月28日,華為舉辦“DevRun Live”開發者沙龍首秀三場直播,華為技術大咖為開發者現場介紹了使用AI、云手機等技術進行產品開發的滿滿干貨。
14:00-15:00 “基于華為云AI平臺開發口罩智能識別方案”
華為云EI算法專家介紹了基于華為云AI開發平臺開發口罩智能識別方案。
為了更加及時的助力疫情防控,華為云EI算法團隊從接到口罩識別算法開發的需求到服務正式上線,總共耗時不到一周,這都得益于華為云ModelArts一站式AI開發平臺。
首先,基于ModelArts內置的標注工具和強大的智能標注功能,算法團隊在12小時內就完成了10000張以上的數據標注,并且對標注數據的樣本均衡性和數據質量都有很好地掌握;同時,ModelArts的30多種預置算法和優秀的多GPU訓練加速比,讓算法開發者無需自己編寫模型代碼,就能在數小時內完成模型的訓練;最后,通過ModelArts的一鍵部署上線能力,開發團隊通過自動化流水線的形式,在模型訓練完成后實現了云服務的自動部署和運維。
但當口罩識別模型需要開發成應用并部署到端側攝像頭時,往往存在各種挑戰:搭建嵌入式開發環境復雜、開發框架上手困難、端側設備算力有限等。
華為云HiLens平臺能有效解決以上挑戰的端云協同解決方案。HiLens平臺開發環境免搭建,開箱即用,而且預置了開發框架,封裝了基礎組件,接口簡易,提供了多模態數據接入、數據處理、模型推理能力,開發者只需少量代碼即可開發自己的AI技能。另外,HiLens平臺提供了技能開發模板給開發者參考,如口罩識別模板,開發者可以照葫蘆畫瓢,快速自定義開發AI技能。
可以看到,華為云ModelArts+HiLens讓AI開發變得如此簡單,讓開發者贏得了這場與時間的賽跑。
15:10-16:10面向5G時代的鯤鵬云手機開放平臺技術解讀
華為云手機、云手游創始人周宗榕圍繞鯤鵬云手機開放平臺的特點及應用進行了完整的介紹,其中詳細介紹了鯤鵬云手機構建步驟:
首先,基于鯤鵬服務器構建Android虛擬機。華為提供Robox容器和QEMU兩種技術實現方案,其中Robox容器云手機適用于性能高、成本敏感場景;QEMU基礎云手機適用于開發測試和安全強隔離場景。
其次,端云協同開發。基于鯤鵬端云協同SDK完成物理手機、鯤鵬云手機協同功能開發,實現畫面、聲音、觸控的集成,實現端云互動。
最后,進行全流程調優。完成開發步驟后,可通過高密性能測壓工具、E2E時延測試工具、Apps兼容性自動化測試工具等專業化工具進行輔助調優,幫助開發者實現生態兼容性、用戶體驗、成本控制等關鍵KPI達成。
16:20-17:20華為云鯤鵬云手機架構解密:Monbox方案選擇
華為云鯤鵬云手機解決方案架構師陳佳敦詳細介紹了華為云鯤鵬云手機背后Monbox軟件架構。
配置鯤鵬處理器等硬件固然重要,但想要實現云手機大規模商用依然是遠遠不夠的,Monbox軟件架構正是云手機商業打通的重要一步。Monbox軟件架構具備四大關鍵能力:
第一,應用100%兼容,性能零損耗
面對億級規模代碼量的Android系統,將仿真軟件、Android容器等移植到兼容ARM架構的鯤鵬服務器,端云同架構,原生應用100%兼容,性能零損耗,同時可根據業務需求變化提供系統級的優化和運維能力。
第二,單服務器云手機密度提升100%
對GPU性能問題,華為對其徹頭徹尾進行改進,采用GPU直通方案,通過容器方式,將GPU設備直接暴露給Android,驅動直接對接Android渲染框架,大幅提升渲染性能。同時結合驅動優化、綁核調整、容器隔離優化等一系列調優手段,實現單服務器云手機并發提升100%。
第三,媲美真機的端到端接入時延
將端到端操作拆解成指令輸入、上傳、GPU渲染、視頻編碼、回傳圖像等分段操作,將要編碼的圖像,按照一定規則做分層,根據帶寬動態調整圖像畫質。通過pipeline技術,將單幀進一步拆分,并行處理渲染,編碼、傳輸和解碼等操作,在客戶端重新拼接。此外,結合如Link Turbo,邊緣云+5G等技術,進一步降低網絡傳輸延遲,最終達到媲美真機的接入體驗。
第四,大幅降低接入流量,為客戶節省更多成本
通過編碼芯片加速向H.265演進,壓縮比相比H.264高50%,可節省一半流量。同時在不降低主觀感知的前提下,減少圖像大小,采用SCC、AI等算法,將圖像中重復元素和模式進一步壓縮,大幅降低接入流量,減少客戶流量成本。