最近,創建14年的美國社交網絡公司Facebook,正遭受自創建以來最大的危機,媒體甚至將“滅頂之災”冠之頭上。
上周五,Facebook承認,曾在2016年幫助特朗普贏得美國總統大選的數據分析公司Cambridge Analytica(劍橋分析),違規獲得了5000萬Facebook用戶的信息。與此同時,Facebook也始終在強調,這次事件并非數據泄密,因為Facebook并沒有遭遇任何攻擊或系統滲透,對方所獲得的5000萬用戶數據來源于第三方。
但不管如何,于公眾而言,Facebook才是這次事件的最大禍首。
若僅僅是因為卷入2016年的美國總統大選,對于Facebook來說尚可應付,畢竟,自當年大選以來,Facebook就一直與之糾纏不清。
問題是,此次事件的爆發,從根本上打擊了Facebook的商業運作邏輯,即通過用戶的行為偏好進行特征分析,完成用戶畫像,進而借助相應的算法模型,來向用戶精準投放廣告。過去Facebook可以依靠用戶的不斷增長實現業績紅利,現在卻不得不依靠更高質量的廣告投放來獲得客戶青睞。
可顯然,當下“數據泄密”事件的爆發,動搖了用戶對Facebook的信任。很多美國用戶在事件爆發后就以卸載Facebook App來表達其憤怒。
Facebook旗下的Whatsapp則公開與之切割,表示在確保數據安全前不會與之共享數據。
數據的濫用,正在使其成為“有毒資產”
自移動互聯網爆發,大數據、人工智能等技術大行其道以來,數據似乎成為一座巨大的財富礦山。現在看來,數據的濫用卻正在使其成為個人的有毒資產。雖然說任何新興技術的出現、進化都需要一個過程,在任何時代也不可能做到絕對的安全,但類似的數據泄密事件,還是應該引起人類的反思,尤其是保護數據的方法和原則。
當前,許多數據保護的方法,局限于數據采集的方式和目的限制。即使是將于5月25日生效的歐盟《統一數據保護條例》(GDRR)也是如此。
從全球范圍內來看,《統一數據保護條例》對數據隱私的強調更加嚴格,更加強化對自然人數據的保護。比如在將數據運用于智能決策方面上,它要求將關鍵數據排除在智能決策之外。該條例所列舉的敏感數據包括種族、政治傾向、宗教信仰、健康、性生活、性取向的數據,或者可唯一性識別自然人的基因數據、生物數據。
同時,該條例也要求增加進行采集數據時的透明度,即明確數據采集的范圍、使用的目的等,并且要求數據進行分析的過程必須是可被理解的。
因此,目前廣泛應用于人工智能技術的深度學習算法,在5月25日之后的歐盟地區,將成為“非法”的,因為它并不能被解釋。
雖然GDRR對數據保護進行了強化,但其邏輯并沒有改變,仍然局限于對數據采集的許可及其使用目的的限制。
數據的處理和使用,應納入監管
而Facebook這次的“泄密”事件卻告訴我們,僅僅局限于此恐怕遠不足夠,還需要從數據的使用及處理等方面加強。
首先,隨著移動設備的更加普及,以及諸如數字建筑等的出現,未來人類社會必然需要不斷與數據打交道。甚至可以明確地說,未來必定存在一個物理實體的人類社會,與一個數字化的虛擬人類社會。兩者是為共生的孿生體。人類無法避免數據被收集的可能。
更何況,隨著技術的進化,更多的數據未必直接來自物理現實,而是基于物理現實推測、觀察出來的數據。從這一角度上講,這類數據將是上述歐盟法律條例無法監管的范圍。
再者,誠如此次Facebook事件所呈現的,Cambridge Analytica的數據并非直接來自Facebook,而是第三方的轉售。因此,基于采集的許可及目的限制等保護數據原則,對此將束手無策。
因此,需要轉向基于以合法利益受損的影響及危害等原則進行評估,拓展到對數據的使用及處理層面的監管。這也是防止數據被濫用,或是惡意使用算法所必然要求的。在這層意義上,歐盟《統一數據保護條例》要求算法可被理解,具有相當的進步意義。
在此,我們必須意識到,大數據本身并不中立,它反映的是人類真實的社會。一個并不真正平等、存在偏見和歧視的不完美社會,必然導致不完美的大數據分析結果。同樣,作為最能反映創造者特征的人工智能技術,站群服務器,也勢必同樣充滿價值觀,其算法可能被惡意使用。為了確保數據不淪為人的有毒資產,數據保護的原則與思路,需要進行與時俱進,從處理和使用環節上著手。