坊間流傳著這么一個說法:谷歌想回中國,必須靠AI;而靠AI回中國,必須搞個大事情。于是,上周四的晚上李飛飛發布了一篇博客,然后連著發了三條推特,宣布一個叫AutoML的AI產品啟動了。
一夜之間,中國的科技媒體就爆炸了,空氣中似乎回蕩著那一句話:搞事情了搞事情了搞事情了……
AutoML到底是不是跟谷歌的中國戰略有關,我們不做討論。這里希望幫大家搞清楚的,是這個AutoML到底要搞什么事情。
按照谷歌云AI項目首席科學家李飛飛的說法,AutoML的目標是降低開發者、研究者和企業群體使用人工智能相關工具和框架的門檻。而通俗的理解大概就是,這個產品可以不用寫一行代碼,就訓練出一個企業級的機器學習模型。AutoML也就是“自動機器學習”的意思。
驚不驚喜?意不意外?
傳說中學會機器學習年入50萬起呢?說好的BAT瘋搶AI工程師呢?是不是感覺剛掏出去的培訓費被風吹走了?
更有網友驚奇地評論道:不是說一起用AI去革一大堆工作的命嗎?怎么我辛辛苦苦學AI結果先被革命了?
當然了,現實并沒有這么殘酷。但谷歌的動作并不是孤例,背后隱含著的,是一直被反復提及的“AI民主化”。并且也確實折射出“我們今天學的AI也許是沒用的”這種可能。
讓我們從這個“谷歌大動作”來一點點說起。
搞笑的吧?原來最先被AI革命的是AI工程師?
谷歌放出的這個讓代碼界風聲鶴唳的東西,叫做AutoML Vision.是整個AutoML體系的第一款產品,專注自動生產圖像識別領域的模型。
我們用簡單易懂的方式描述一下這個系統是如何工作的吧:
假如以前我想要做一個能夠進行圖像識別的AI系統,那么我需要在開發框架上自己搭建訓練過程,完成各種訓練部署,導入數據集,整個過程需要使用編程的方式來完成。
但在AutoML Vision上,我就一行代碼都不用寫,只需要按照說明,把我希望訓練用的圖片都拖進系統里,然后耐心等待,一個訓練好的機器學習模型就趁熱出爐了。
舉個例子,假如你想訓練一個模型,用來識別你家的貓主子是不是生氣了(這得有多無聊……),那么就只需要在AutoML Vision拖入你家貓的照片、它生氣時候的照片、高興時候的照片等等等等,然后你就會得到一個識別程序。用它連上手機拍照,就可以讓AI去理解貓大人的喜怒哀樂了。
是不是挺神的?
(AutoML Vision拖放圖片界面)(AutoML Vision拖放圖片界面)
這背后,是谷歌利用了深度學習領域中的遷移學習(Transfer Learning)技術。把此前谷歌訓練圖像識別模型時積累下來的訓練過程,遷移到AutoML當中,這樣就節省下來了后續類似模型的開發過程。
簡單來說,AutoML有點像谷歌云搭建的一個“解題公式”。之后的考生并不需要知道公式是怎么來的,只需要把問題套進去就可以得到答案。當然了,這只是簡單交代一下它的工作原理,實際上沒有那么容易。尤其在調試進程中,不同模型需求和系統的兼容度是個大問題。
總而言之,這個產品以及背后的思路,對于想做機器學習又缺乏專業技術和人才的企業來說確實是個福音。它取消的,是通過代碼搭建機器學習模型的過程,以及復雜的調試工作。僅保留了輸入特定數據這件事給用戶。很大程度上降低了機器學習訓練中的工作量,尤其是編程工作。
但也別太樂觀。雖然AutoML目前還沒有正式發布,真實效果有待考量,使用價格也是未知數。但就目前信息來看,AutoML生成定制化模型需要的數據量還是很大。不是毫無基礎的開發者能夠搞定的。
而且它只能完成相對簡單的任務,且只能套用谷歌給出的訓練方案。如果想要制作比較復雜的機器學習系統,使用獨特算法進行訓練,那么編程還是不可避免的。
所以呢,目前來看真正用心且努力進入AI開發領域的朋友大可放心。只懂個大概想要快速轉行AI騙高薪的朋友,那就期待老板比你更不懂吧…
除了圖像識別,谷歌未來還計劃將AutoML服務拓展到翻譯、視頻和自然語言處理等領域。這或許意味著初級的AI程序被自動生成、快速復制到各行業已經不遠了。
雖然谷歌表示AutoML是目前唯一一個此類產品,但其實各家也都在部署類似的業務。比如亞馬遜的Amazon SageMaker,以及微軟還未正式發布的定制圖像識別模型服務。包括國內的百度,也在旗下AI開放平中推出過定制化圖像開放平臺。
谷歌這次之所以被稱為“搞了個大事”,主要是因為目前來看AutoML的自動化程度更高,尤其是解決了自動搭建訓練模型和調參這兩大問題。
在谷歌這么賣力的背后,似乎寫著五個大字:AI民主化…
AI民主化,要取消了誰的集權?