日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

几种机器学习算法的优缺点

發(fā)布時(shí)間:2023/11/30 编程问答 56 豆豆
生活随笔 收集整理的這篇文章主要介紹了 几种机器学习算法的优缺点 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1決策樹(Decision Trees)的優(yōu)缺點(diǎn)

決策樹的優(yōu)點(diǎn):

一、? ?? ?? ???決策樹易于理解和解釋.人們?cè)谕ㄟ^(guò)解釋后都有能力去理解決策樹所表達(dá)的意義。

二、? ?? ?? ???對(duì)于決策樹,數(shù)據(jù)的準(zhǔn)備往往是簡(jiǎn)單或者是不必要的.不需要預(yù)處理數(shù)據(jù)。

三、? ?? ?? ???決策樹是一個(gè)白盒模型。如果給定一個(gè)觀察的模型,那么根據(jù)所產(chǎn)生的決策樹很容易推出相應(yīng)的邏輯表達(dá)式。

四、? ?? ?? ??在相對(duì)短的時(shí)間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。

五、? ?? ?? ???可以對(duì)有許多屬性的數(shù)據(jù)集構(gòu)造決策樹。

六、? ?? ?? ???決策樹可很好地?cái)U(kuò)展到大型數(shù)據(jù)庫(kù)中,同時(shí)它的大小獨(dú)立于數(shù)據(jù)庫(kù)的大小。

?

決策樹的缺點(diǎn):

一、? ?? ?? ???對(duì)于那些各類別樣本數(shù)量不一致的數(shù)據(jù),在決策樹當(dāng)中,信息增益的結(jié)果偏向于那些具有更多數(shù)值的特征。

二、? ?? ?? ???決策樹處理缺失數(shù)據(jù)時(shí)的困難。

三、? ?? ?? ???過(guò)度擬合問(wèn)題的出現(xiàn)。

四、? ?? ?? ???忽略數(shù)據(jù)集中屬性之間的相關(guān)性。

?

?

2 人工神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)

人工神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn):分類的準(zhǔn)確度高,并行分布處理能力強(qiáng),分布存儲(chǔ)及學(xué)習(xí)能力強(qiáng),對(duì)噪聲神經(jīng)有較強(qiáng)的魯棒性和容錯(cuò)能力,能充分逼近復(fù)雜的非線性關(guān)系,具備聯(lián)想記憶的功能等。

人工神經(jīng)網(wǎng)絡(luò)的缺點(diǎn):神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)、權(quán)值和閾值的初始值;不能觀察之間的學(xué)習(xí)過(guò)程,輸出結(jié)果難以解釋,會(huì)影響到結(jié)果的可信度和可接受程度;學(xué)習(xí)時(shí)間過(guò)長(zhǎng),甚至可能達(dá)不到學(xué)習(xí)的目的。

?

?

3 遺傳算法的優(yōu)缺點(diǎn)

遺傳算法的優(yōu)點(diǎn):

一、? ?? ?? ???與問(wèn)題領(lǐng)域無(wú)關(guān)切快速隨機(jī)的搜索能力。

二、? ?? ?? ???搜索從群體出發(fā),具有潛在的并行性,可以進(jìn)行多個(gè)個(gè)體的同時(shí)比較,魯棒性好。

三、? ?? ?? ???搜索使用評(píng)價(jià)函數(shù)啟發(fā),過(guò)程簡(jiǎn)單。

四、? ?? ?? ???使用概率機(jī)制進(jìn)行迭代,具有隨機(jī)性。

五、? ?? ?? ???具有可擴(kuò)展性,容易與其他算法結(jié)合。

?

遺傳算法的缺點(diǎn):

一、? ?? ?? ???遺傳算法的編程實(shí)現(xiàn)比較復(fù)雜,首先需要對(duì)問(wèn)題進(jìn)行編碼,找到最優(yōu)解之后還需要對(duì)問(wèn)題進(jìn)行解碼,

二、? ?? ?? ???另外三個(gè)算子的實(shí)現(xiàn)也有許多參數(shù),如交叉率和變異率,并且這些參數(shù)的選擇嚴(yán)重影響解的品質(zhì),而目前這些參數(shù)的選擇大部分是依靠經(jīng)驗(yàn).沒有能夠及時(shí)利用網(wǎng)絡(luò)的反饋信息,故算法的搜索速度比較慢,要得要較精確的解需要較多的訓(xùn)練時(shí)間。

三、? ?? ?? ???算法對(duì)初始種群的選擇有一定的依賴性,能夠結(jié)合一些啟發(fā)算法進(jìn)行改進(jìn)。

?

?

4 KNN算法(K-Nearest Neighbour) 的優(yōu)缺點(diǎn)

KNN算法的優(yōu)點(diǎn):

一、? ?? ?? ??簡(jiǎn)單、有效。

二、? ?? ?? ??重新訓(xùn)練的代價(jià)較低。

三、? ?? ?? ???由于KNN方法主要靠周圍有限的鄰近的樣本,而不是靠判別類域的方法來(lái)確定所屬類別的,因此對(duì)于類域的交叉或重疊較多的待分樣本集來(lái)說(shuō),KNN方法較其他方法更為適合。

四、? ?? ?? ???該算法比較適用于樣本容量比較大的類域的自動(dòng)分類,而那些樣本容量較小的類域采用這種算法比較容易產(chǎn)生誤分。

?

KNN算法缺點(diǎn):

一、? ?? ?? ???KNN算法是懶散學(xué)習(xí)方法(lazy learning,基本上不學(xué)習(xí)),一些積極學(xué)習(xí)的算法要快很多。

二、? ?? ?? ???類別評(píng)分不是規(guī)格化的(不像概率評(píng)分)。

三、? ?? ?? ???輸出的可解釋性不強(qiáng)。

四、? ?? ?? ???該算法在分類時(shí)有個(gè)主要的不足是,當(dāng)樣本不平衡時(shí),如一個(gè)類的樣本容量很大,而其他類樣本容量很小時(shí),有可能導(dǎo)致當(dāng)輸入一個(gè)新樣本時(shí),該樣本的K個(gè)鄰居中大容量類的樣本占多數(shù)。該算法只計(jì)算“最近的”鄰居樣本,某一類的樣本數(shù)量很大,那么或者這類樣本并不接近目標(biāo)樣本,或者這類樣本很靠近目標(biāo)樣本。無(wú)論怎樣,數(shù)量并不能影響運(yùn)行結(jié)果。可以采用加權(quán)值的方法來(lái)改進(jìn)。

五、? ?? ?? ???計(jì)算量較大。目前常用的解決方法是事先對(duì)已知樣本點(diǎn)進(jìn)行剪輯,事先去除對(duì)分類作用不大的樣本。

六、   k值的確定。

?

?

5 支持向量機(jī)(SVM)的優(yōu)缺點(diǎn)

SVM的優(yōu)點(diǎn):

一、? ?? ?? ???可以解決小樣本情況下的機(jī)器學(xué)習(xí)問(wèn)題。

二、? ?? ?? ???可以提高泛化性能。

三、? ?? ?? ???可以解決高維問(wèn)題。

四、? ?? ?? ???可以解決非線性問(wèn)題。

五、? ?? ?? ???可以避免神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇和局部極小點(diǎn)問(wèn)題。

?

SVM的缺點(diǎn):

一、? ?? ?? ???對(duì)缺失數(shù)據(jù)敏感。

二、? ?? ?? ???對(duì)非線性問(wèn)題沒有通用解決方案,必須謹(jǐn)慎選擇Kernel? function來(lái)處理。

?

?

6 樸素貝葉斯的優(yōu)缺點(diǎn)

優(yōu)點(diǎn):

一、? ?? ?? ???樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。

二、? ?? ?? ???NBC模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單。

?

缺點(diǎn):

一、? ?? ?? ???理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的(可以考慮用聚類算法先將相關(guān)性較大的屬性聚類),這給NBC模型的正確分類帶來(lái)了一定影響。在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時(shí),NBC模型的性能最為良好。

二、? ?? ?? ???需要知道先驗(yàn)概率。

三、? ?? ?? ???分類決策存在錯(cuò)誤率。

?

?

?

7 Adaboosting方法的優(yōu)點(diǎn)

一、? ?? ?? ???adaboost是一種有很高精度的分類器。

二、? ?? ?? ???可以使用各種方法構(gòu)建子分類器,Adaboost算法提供的是框架。

三、? ?? ?? ???當(dāng)使用簡(jiǎn)單分類器時(shí),計(jì)算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其簡(jiǎn)單。

四、? ?? ?? ???簡(jiǎn)單,不用做特征篩選。

五、? ?? ?? ???不用擔(dān)心overfitting。

?

?

準(zhǔn)確率和召回率的使用條件和計(jì)算方式,即什么情況下正確率指標(biāo)不適用?

準(zhǔn)確率(accuracy) = 預(yù)測(cè)對(duì)的/所有 = (TP+TN)/(TP+FN+FP+TN)
精確率(precision) = TP/(TP+FP)
召回率(recall) = TP/(TP+FN)

在正負(fù)樣本不平衡的情況下,準(zhǔn)確率這個(gè)評(píng)價(jià)指標(biāo)有很大的缺陷。

比如在互聯(lián)網(wǎng)廣告里面,點(diǎn)擊的數(shù)量是很少的,一般只有千分之幾,如果用acc,即使全部預(yù)測(cè)成負(fù)類(不點(diǎn)擊)acc 也有 99% 以上,沒有意義。

?

轉(zhuǎn)自:http://www.cnblogs.com/ljy2013/p/4268158.html

轉(zhuǎn)載于:https://www.cnblogs.com/Allen-rg/p/7301698.html

總結(jié)

以上是生活随笔為你收集整理的几种机器学习算法的优缺点的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。