近幾年來,城市大腦概念可謂如火如荼。
相比于前兩年大家對這一概念比較陌生,如今相信大部分讀者應該都已經知道,所謂城市大腦的基本內涵,是指用公路上的大量攝像頭,來識別車流、車牌和車輛,以及一些路段廣場上機遇攝像頭執行人臉識別和人流判斷。
這些“城市之眼”收集的數據,一方面可以幫助提升城市安防的智能化水準,比如預判人群擁堵、識別交通事故與可疑車輛等等;另一方面,城市大腦的作用主要體現在和交通燈、高架橋準入閘口的互動上。通過對車輛數據的識別和判斷,進而用城市大腦進行交通指揮,被廣泛相信是治理城市擁堵的有效方式。
這些技術邏輯近兩年被反復討論,加之科技巨頭的不斷加注與宣傳,很可能讓大眾覺得城市大腦已經非常完善,可以真正承擔一座城市的“AI交通指揮官”。然而事實上并非如此,從一種產業構思到實際落地,城市大腦,或者稱作智慧城市系統,還面臨著非常多物理世界中客觀存在的困難與障礙。尤其是城市攝像頭體系本身,與后加入的AI大腦,二者其實存在著無法忽視的“代溝”。
這個問題應該如何解決,近兩年也有相當多的學術討論。比如中國工程院院士、中國計算機學會理事長,北京大學教授、博導高文提出的“數字視網膜”理念,就廣為產學各界重視。在這一問題中構成了一種代表性的解題方案。
我們似乎可以從數字視網膜應運而生的現實問題,以及其發展思路中,共同探討這樣兩個問題:城市的智能,距離我們究竟有多遠?而如果希望拉進這個距離,目前有哪些急需開展的工作?
從這個角度思考,我們或許會發現數字視網膜既是一種學術創新,也是一個新的產業機遇。
“眼疾”未愈,城市大腦依舊幼稚
城市大腦概念,在現實執行中面臨的第一個問題,也可能是最根源的問題之一,就是原本并不用于智能計算的城市攝像頭,如何與AI帶來的識別,甚至智能分析能力連接在一起?
這個問題涉及一個基本矛盾,就是智能發生在哪里。
今天一般的城市大腦與智慧城市項目,主要是將攝像頭收集來的視頻數據進行存儲,從而在云端用算法就行識別和分析。
而這里就有很多矛盾滋生了出來,比如傳統攝像頭收集的視頻數據過于龐大,清晰度也欠佳,AI算法很難識別。
即使攝像頭能夠提供高清數據,但由于拍攝的視頻沒有進行特征提取,于是從提取到識別、檢索,再到推理的全鏈計算都必須發生在云端。這帶來的數據量非常龐大,美國服務器,云端將承受難以負載的數據壓力,從而影響識別精度與數據處理準確度。同時,把基礎視頻數據堆積到云端,客觀上也會造成過大的延遲,很難滿足交通場景里實時反應的剛性需求。
同時,城市綜合體每天產生的視頻數據,其本質上堪稱一個“數據包袱”。這些數據存在哪?存多久?誰來看?如何檢索?在海量數據面前,這些問題一一成為了城市數據管理體系的重擔。
那么如果讓攝像頭自己具備識別能力呢?這是如今智慧城市的主要解決方案,但是由于此前的原版攝像頭不便拆卸,想要加入新的識別能力就要加裝一個新的攝像頭。于是我們看到了拍照攝像頭、人臉識別攝像頭、車牌識別攝像頭、車輛識別攝像頭等等;在路口抬頭一看,簡直能激發密集恐懼癥。
這些“智能攝像頭”識別出的數據,本質上無法做到匯融與底層打通,而是只能各自為政。后端的AI也就只能偏聽偏信,無法進行完整的交通場景分析,給出真正的“智能建議”。
那么如果讓識別和推理的全套AI能力都發生在攝像頭里呢?這帶來的最大問題就是端側算力不夠充沛,無法支撐復雜的計算。如果在每個攝像頭都加載大量AI算力和專用硬件模組,那將是一筆無法負擔的成本。而且想要讓AI全局化理解城市,各攝像頭也必須進行全局匯總。