在不久將來,隨著AI能做的事越來越多,必然會產生需要AI直接與其他AI進行交互的場景。那么,如何保證AI與AI之間的信息交互是安全可信且可審計的呢?是通過在不同...
在不久將來,隨著 AI 能做的事越來越多,必然會產生需要 AI 直接與其他 AI 進行交互的場景。那么,如何保證 AI 與 AI 之間的信息交互是安全可信且可審計的呢?是通過在不同公司之間建立數據網關?還是簡單地通過客戶端轉發?我想真正的答案就是智能合約 + 「跨鏈」技術。
原文標題:《從大數據和 AI 技術的發展看跨鏈技術的必要性和必然性》 作者:楊鎮,資深軟件工程師、架構師、獨立講師,具備 18 年軟件開發經驗,曾翻譯《以太坊黃皮書》、《Solidity 官方文檔》、《精通以太坊》,著有《深入以太坊智能合約開發》、《以太坊智能合約高級開發課程》、《工程師眼中的比特幣和以太坊》
本文首先會對大數據和 AI 技術做一些概念掃盲,算是個小小的科普,也會涉及一些我認為有助于我們從本質上理解這些技術的關鍵點;我本人其實早就想聊聊這些內容,因為我見多太多人乃至很多公司都并不確切地知道這些最基本的概念,都只是在跟風或者被很多媒體、大公司的商業炒作所迷惑。所以本文的很多內容都可以看作是對從大眾層面理解這些技術概念的誤區的一種澄清。
當然,本文中也會聊聊我個人「略懂」的區塊鏈以及時下熱門的「跨鏈」話題,這也是我寫本文的主要目的。希望本文能給專業的和非專業的朋友都提供一些有用的信息或者啟發。
寫作本文可以說是一時興起,其中關于「跨鏈」的內容,靈感主要來自于前幾天 Gavin Wood 博士說到的一個觀點。
近些年,越來越多的企業、媒體在炒作「大數據(Big Data)」,我想無論是專業的技術人員還是普通大眾,其實首先都要明確一個概念——到底多大的數據才能叫「大數據」?
我曾經供職于一家幾乎所有中國人都知道的制造業公司,公司內部也曾說過要做大數據分析,要引入大數據概念內的技術工具和基礎設施,其根據就是其業務數據量已經達到了 100 多 TB (1 TB 約等于 1 萬億字節)。但這顯然忽略了一個重要因素,就是這 100 多 TB 數據是這家公司自成立以來的所有數據(20 多年的歷史數據)。而 Facebook 每天產生的數據量早已超過了 10 TB,請注意,是每天 。這是一個量級么?有可比性么?
所以我們談「大數據」,最重要的指標其實在于「數據增量大」,或者叫做「數據增速大」。僅僅是歷史數據量大,談不上「大數據」,因為不管歷史數據再多,他們都是「歷史數據」,是不會再修改的數據,分析一次就完事了;而如果「數據增速大」,其絕對數據量自然也就會非常大,那么它對于數據分析工具和相關技術的要求也就會相應提高。
而當我們以「數據增速大」作為關鍵指標來篩選的時候,我們就會發現:其實目前市面上 99.9% 的公司所謂的「大數據」分析,都只是給 20 多年前就出現了的 BI (Business Inteligence,即商業智能,因為篇幅原因,這里不做展開介紹)業務換了個新馬甲而已。真正能稱得上是「大數據」的業務,大概只有那些全球化的數據信息服務,或者信息化的社會公共基礎服務。前者的代表就是全球化的社交媒體 / 內容平臺(Facebook、Twitter、微信、早期的微博)、搜索引擎(Google、百度)、高流量的電商平臺(Amazon、淘寶)、高流量的支付交易網關、高活躍度的移動智能設備系統服務等互聯網應用;后者的代表則是類似運營商、公共基礎設施服務(比如交通、能源)等一般由政府控制的社會公共基礎服務。
「大數據」的概念首次被提出是在大概 10 年之前,目前業內廣泛認同的 3V 指標是衡量大數據的最主要指標,它們包括 Volume (數據量)、Variety (多樣性)、Velocity (增長速度),后來有業內人士在 3V 指標的基礎上增加了 Veracity (真實度)和 Value (價值),將其擴展為 5V 指標。而在大數據的多樣性和高速增長特性的共同影響下,非關系型數據庫(Nosql database)也得到了大量的應用和快速的進化發展。
此外值得一提的就是近年來得到飛速發展的物聯網(Internet of Things)公司?;诖罅康慕K端設備 / 傳感器所采集 / 傳輸的數據是有可能達到「大數據」的級別的,只是目前能支持到「數億」量級終端設備的公司還并不多,但這已經是一個可以看到的未來方向了。