即便有了TensorFlow或OpenAI等人工智能框架的支持,相比主流網(wǎng)頁(yè)開(kāi)發(fā)人員,人工智能仍然需要深層知識(shí)和理解。如果你已經(jīng)建立了一個(gè)工作原型,你就可能是這個(gè)房間里最聰明的人。恭喜你,你成了高級(jí)俱樂(lè)部的成員。
在Kaggle上,你甚至可以通過(guò)解決現(xiàn)實(shí)世界的項(xiàng)目賺到可觀的收益。總而言之,這工作不錯(cuò),但光憑它是否足以讓你創(chuàng)辦一家企業(yè)?畢竟,你不可能改變市場(chǎng)機(jī)制。從商業(yè)角度來(lái)看,歐洲主要代理 德國(guó)服務(wù)器,人工智能只是現(xiàn)有問(wèn)題的另一種實(shí)施方式。客戶并不關(guān)心采取怎樣的實(shí)施方式,他們只關(guān)心結(jié)果。這意味著你不能僅僅通過(guò)人工智能來(lái)坐享其成。蜜月期結(jié)束后,你必須要?jiǎng)?chuàng)造價(jià)值。從長(zhǎng)遠(yuǎn)來(lái)看,只有客戶才最重要。
雖然你的客戶可能并不關(guān)心人工智能,但風(fēng)投對(duì)此很關(guān)心。新聞媒體也同樣關(guān)注。很多行業(yè)都是如此。這種關(guān)注度上的差異可能會(huì)給創(chuàng)業(yè)公司制造一個(gè)危險(xiǎn)的現(xiàn)實(shí)扭曲力場(chǎng)。但你不要被騙了:除非你創(chuàng)造了通用的多用途人工智能,否則就沒(méi)有免費(fèi)的午餐。即使你是風(fēng)投的寵兒,你也必須為你的客戶走到終點(diǎn)。因此,讓我們也當(dāng)一回駕駛員,看看我們如何為未來(lái)的場(chǎng)景做準(zhǔn)備。
“主流人工智能列車”
人工智能似乎與其他大趨勢(shì)不同,比如區(qū)塊鏈、物聯(lián)網(wǎng)、金融科技等。當(dāng)然,它的未來(lái)是不可預(yù)測(cè)的。但幾乎所有技術(shù)都是如此。不同之處在于,我們作為一個(gè)人的價(jià)值主張似乎正處于危險(xiǎn)之中——不只是其他行業(yè)。我們作為決策者和創(chuàng)意者的價(jià)值正在被重新評(píng)估。這引起了人們的情感反應(yīng)。我們不知道如何定位自己。
基礎(chǔ)技術(shù)的數(shù)量非常有限,大部分都可以歸類為“深度學(xué)習(xí)”,這構(gòu)成了幾乎所有應(yīng)用的基礎(chǔ):卷積神經(jīng)網(wǎng)絡(luò)、長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)、自動(dòng)編碼器、隨機(jī)森林、梯度增強(qiáng)技術(shù),以及少數(shù)其他應(yīng)用。
人工智能還提供了許多其他的方法,但這些核心機(jī)制最近已經(jīng)取得了壓倒性的成功。大多數(shù)研究人員認(rèn)為,人工智能技術(shù)的進(jìn)步將來(lái)自于這些技術(shù)的改進(jìn)(而不是那些與之有本質(zhì)區(qū)別的方法)。出于以上原因,我們可以把這稱為“主流人工智能研究”。
任何真實(shí)的世界解決方案都由這些核心算法和非人工智能外形組成,來(lái)準(zhǔn)備和處理數(shù)據(jù)(例如數(shù)據(jù)準(zhǔn)備、功能工程、環(huán)境建模)。人工智能這一部分的改進(jìn)往往會(huì)讓非人工智能的部分變得多余。這是人工智能的本質(zhì),也幾乎是它的定義——讓解決特定問(wèn)題的方法過(guò)時(shí)。但是,這種非人工智能的部分通常是以人工智能為驅(qū)動(dòng)的公司真正的盈利來(lái)源。這是他們的秘密武器。
人工智能的每一個(gè)改進(jìn),都使得這種競(jìng)爭(zhēng)優(yōu)勢(shì)更有可能開(kāi)源,而且每個(gè)人都可以使用。但也會(huì)帶來(lái)災(zāi)難性的后果。就像弗雷德里克?耶利內(nèi)克曾經(jīng)說(shuō)過(guò)的:“每次我解雇一位語(yǔ)言學(xué)家,語(yǔ)音識(shí)別器的性能就會(huì)提升。”
機(jī)器學(xué)習(xí)基本上已經(jīng)引入了下一階段的裁員:代碼被簡(jiǎn)化為數(shù)據(jù)。幾乎所有基于模型、概率和規(guī)則的識(shí)別技術(shù)都是在2010年被深度學(xué)習(xí)算法淘汰。
現(xiàn)在只要用幾百行腳本(加上相當(dāng)數(shù)量的數(shù)據(jù))就能打敗領(lǐng)域?qū)I(yè)知識(shí)、功能建模以及成千上萬(wàn)行代碼。正如上面所提到的:這意味著,在主流人工智能列車的軌道上,專有代碼不再是一種可防御的資產(chǎn)。
重大貢獻(xiàn)極其罕見(jiàn)。真正的突破或新進(jìn)展,甚至是基本組成部分的新組合,這些只有非常有限的研究人員才有可能做到。正如你可能想到的那樣,這個(gè)內(nèi)部圈子的規(guī)模要小得多(開(kāi)發(fā)者人數(shù)肯定少于100)。
這是為什么呢?也許這根植于它的核心算法:反向傳播。幾乎每一個(gè)神經(jīng)網(wǎng)絡(luò)都是通過(guò)這種方法訓(xùn)練的。最簡(jiǎn)單的反向傳播形式可以在第一個(gè)學(xué)期的微積分課程中學(xué)到,完全不復(fù)雜(——但也不是小學(xué)水平的知識(shí))。雖然這似乎很簡(jiǎn)單——或者可能是出于這個(gè)原因——在50多年豐富多彩的歷史中,只有少數(shù)人能看到難點(diǎn)所在并質(zhì)疑其主要架構(gòu)。
如果反向傳播能像今天這樣具有可見(jiàn)性,我們的成就可能會(huì)比現(xiàn)在的階段領(lǐng)先10年(計(jì)算能力除外)。
從70年代的普通神經(jīng)網(wǎng)絡(luò)到再循環(huán)網(wǎng)絡(luò),到今天的長(zhǎng)短期記憶網(wǎng)絡(luò),都震動(dòng)了人工智能領(lǐng)域。并且,它還只需要幾十行代碼!數(shù)代學(xué)生和研究人員經(jīng)過(guò)數(shù)學(xué)計(jì)算,計(jì)算出了梯度下降法,證明了它的正確性。但最后,大多數(shù)人點(diǎn)了點(diǎn)頭,說(shuō)“這只是一種優(yōu)化形式”便繼續(xù)努力。分析理解是不夠的。你需要某種形式的“發(fā)明家直覺(jué)”來(lái)使之與眾不同。