欧美一区2区三区4区公司二百,国产精品婷婷午夜在线观看,自拍偷拍亚洲精品,国产美女诱惑一区二区

歡迎來到云服務器

大數據應用

數據挖掘規模十大經典算法

國際權威的學術組織the IEEE International Conference on Data Mining (ICDM) 早前評選出了數據挖掘規模的十大經典算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART.

不只僅是選中的十大算法,其實介入評選的18種算法,實際上隨便拿出一種來都可以稱得上是經典算法,它們在數據挖掘規模都發生了極為深遠的影響。

數據挖掘規模十大經典算法

1.C4.5

C4.5算法是呆板進修算法中的一種分類決定樹算法,其焦點算法是ID3算法. C4.5算法擔任了ID3算法的利益,并在以下幾方面臨ID3算法舉辦了改造:

1) 用信息增益率來選擇屬性,降服了用信息增益選擇屬性時方向選擇取值多的屬性的不敷;

2) 在樹結構進程中舉辦剪枝;

3) 可以或許完成對持續屬性的離散化處理懲罰;

4) 可以或許對不完整數據舉辦處理懲罰。

C4.5算法有如下利益:發生的分類法則易于領略,精確率較高。其缺點是:在結構樹的進程中,需要對數據集舉辦多次的順序掃描和排序,因而導致算法的低效。

2. The k-means algorithm 即K-Means算法

k-means algorithm算法是一個聚類算法,把n的工具按照他們的屬性分為k個支解,k < n。它與處理懲罰殽雜正態漫衍的最大期望算法很相似,因為他們都試圖找到數據中自然聚類的中心。它假設工具屬性來自于空間向量,而且方針是使各個群組內部的均方誤差總和最小。

3. Support vector machines

支持向量機,英文為Support Vector Machine,簡稱SV機(論文中一般簡稱SVM)。它是一種監督式學習的要領,它遍及的應用于統計分類以及回歸闡明中。支持向量機將向量映射到一個更高維的空間里,在這個空間里成立有一個最大隔斷超平面。在分隔數據的超平面的雙方建有兩個相互平行的超平面。脫離超平面使兩個平行超平面的間隔最大化。假定平行超平面間的間隔或差距越大,分類器的總誤差越小。一個極好的指南是C.J.C Burges的《模式識別支持向量機指南》。van der Walt 和 Barnard 將支持向量機和其他分類器舉辦了較量。

4. The Apriori algorithm

Apriori算法是一種最有影響的挖掘布爾關聯法則頻繁項集的算法。其焦點是基于兩階段頻集思想的遞推算法。該關聯法則在分類上屬于單維、單層、布爾關聯法則。在這里,所有支持度大于最小支持度的項集稱為頻繁項集,簡稱頻集。

5. 最大期望(EM)算法

在統計計較中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模子中尋找參數最大似然預計的算法,個中概率模子依賴于無法視察的埋沒變量(Latent Variabl)。最大期望常常用在呆板進修和計較機視覺的數據集聚(Data Clustering)規模。

6. PageRank

PageRank是Google算法的重要內容。2001年9月被授予美國專利,專利人是Google首創人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指網頁,而是指佩奇,即這個品級要領是以佩奇來定名的。

PageRank按照網站的外部鏈接和內部鏈接的數量和質量倆權衡網站的代價。PageRank背后的觀念是,每個到頁面的鏈接都是對該頁面的一次投票,被鏈接的越多,就意味著被其他網站投票越多。這個就是所謂的“鏈接風行度”——權衡幾多人愿意將他們的網站和你的網站掛鉤。PageRank這個觀念引自學術中一篇論文的被引述的頻度——即被別人引述的次數越多,一般判定這篇論文的權威性就越高。

7. AdaBoost

Adaboost是一種迭代算法,其焦點思想是針對同一個練習集練習差異的分類器(弱分類器),然后把這些弱分類器薈萃起來,組成一個更強的最終分類器 (強分類器)。其算法自己是通過改變數據漫衍來實現的,它按照每次練習集之中每個樣本的分類是否正確,以及上次的總體分類的精確率,,來確定每個樣本的權值。將修悔改權值的新數據集送給基層分類器舉辦練習,最后將每次練習獲得的分類器最后融合起來,作為最后的決定分類器。

8. kNN: k-nearest neighbor classification

K最近鄰(k-Nearest Neighbor,KNN)分類算法,是一個理論上較量成熟的要領,也是最簡樸的呆板進修算法之一。該要領的思路是:假如一個樣本在特征空間中的k個最相似(即特征空間中最相近)的樣本中的大大都屬于某一個種別,則該樣本也屬于這個種別。

9. Naive Bayes

在浩瀚的分類模子中,應用最為遍及的兩種分類模子是決定樹模子(Decision Tree Model)和樸素貝葉斯模子(Naive Bayesian Model,NBC)。樸素貝葉斯模子起源于古典數學理論,有著堅硬的數學基本,以及不變的分類效率。同時,NBC模子所需預計的參數很少,對缺失數據不太敏感,算法也較量簡樸。理論上,NBC模子與其他分類要領對比具有最小的誤差率。可是實際上并非老是如此,這是因為NBC模子假設屬性之間彼此獨立,這個假設在實際應用中往往是不創立的,這給NBC模子的正確分類帶來了必然影響。在屬性個數較量多可能屬性之間相關性較大時,NBC模子的分類效率比不上決定樹模子。而在屬性相關性較小時,NBC模子的機能最為精采。

10. CART: 分類與回歸樹

CART, Classification and Regression Trees。 在分類樹下面有兩個要害的思想。第一個是關于遞歸地分別自變量空間的想法;第二個想法是用驗證數據舉辦剪枝。

騰訊云代理

Copyright © 2003-2021 MFISP.COM. 國外vps服務器租用 夢飛云服務器租用 版權所有 ? 粵ICP備11019662號

主站蜘蛛池模板: 略阳县| 宝坻区| 鸡东县| 姜堰市| 宜春市| 兴义市| 顺昌县| 两当县| 大余县| 岐山县| 湖南省| 天水市| 娄烦县| 鄂托克前旗| 府谷县| 德令哈市| 正阳县| 卓尼县| 尖扎县| 房产| 金秀| 资中县| 苏尼特右旗| 新晃| 石柱| 张家川| 莎车县| 城市| 安丘市| 鄂伦春自治旗| 天津市| 封丘县| 太湖县| 北票市| 栖霞市| 隆尧县| 漳州市| 寿阳县| 沈阳市| 蒲江县| 盘山县|