最近看TensorFlow代碼的時候,用Git pull下來最新的master一看,哇許多幾何的更新,然后點擊去之前看到一半的cc文件繼承看,許多幾何處所都改變了。可是一看Git log,有許多幾何龐大的commit叫什么 “Merge commit for internal changes”, “Merge for github”,沒有任何的其他描寫…,這樣根基上不知道到底竄改是為了什么。
相對來說Hadoop的開源要實誠得多,每個竄改都有對應的JIRA來跟蹤,從JIRA內里可以看到竄改的原因、設計(對付大的改變來說)和接頭。任何一個存眷項目標人都可以在代碼merge之前提出本身的質疑,(只要不是無理取鬧)根基上可以或許獲得很具體的答復。
呈現這種區別最大的原因是來歷于Google與Apache本質上差異,Google作為一個貿易公司,有的是人來維護代碼,根基上不在乎來自公司外的孝敬。對付Google來說,開源TF(目測k8s也差不多)最大的目標是擬定尺度,推進本身的cloud,別的假如有更多的人來測試和修修補補那些外圍一點的對象那是再好不外了。
而Apache基金會原來就是為了開源而生,公司把項目孝敬給Apache基金會的目標除了為了晉升自身形象以外,主要是為了吸引用戶和更多的開拓者,也就是造成杠桿的效應,那么為了獲得更多真誠的輔佐,必定得把本身的腸腸肚肚都剖出來給人看。否則外部的人怎么去孝敬。
雖然兩種方法各有黑白,對Google這種級此外公司這種方法大概更快也制止了許多接頭的時間可是也會讓許多潛在參加者走掉,香港云服務器 美國云主機,而Apache的方法更民主更開放。作為Hadoop的一員,我照舊真心喜歡Apache的開放的事情方法…