日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪(fǎng)問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 循环神经网络 >内容正文

循环神经网络

adaboost mh matlab,Adaboost算法的前世今生

發(fā)布時(shí)間:2024/9/19 循环神经网络 49 豆豆
生活随笔 收集整理的這篇文章主要介紹了 adaboost mh matlab,Adaboost算法的前世今生 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Adaboost算法的前世今生

引言

眾所周知,模式識(shí)別的方法可以按照參與識(shí)別特征的屬性來(lái)區(qū)分,可以分為兩大類(lèi):一、使用定量特征(可度量)如物體長(zhǎng)度、寬度等,來(lái)描述的各種模式,這一類(lèi)主要是指決策理論,有匹配、統(tǒng)計(jì)、神經(jīng)網(wǎng)絡(luò)等方法;二、使用定性特征如特征結(jié)構(gòu)、排列順序等,來(lái)描繪的各種模式,這一類(lèi)主要是指結(jié)構(gòu)判別,主要有串和樹(shù)的匹配等方法。

模式識(shí)別的完整的流程順序是:傳感器——分割組織——特征提取——分類(lèi)器——后處理。其中分類(lèi)器的設(shè)計(jì)部分,可以使用的理論有很多,目前主要包括:基于統(tǒng)計(jì)理論的方法(貝葉斯理論)、線(xiàn)性判別函數(shù)、神經(jīng)網(wǎng)絡(luò)的方法、隨機(jī)方法(對(duì)于復(fù)雜的問(wèn)題)、非度量方法(定性結(jié)構(gòu)特征)

分類(lèi)器得到的模型不僅要很好擬合輸入數(shù)據(jù),還要能夠正確地預(yù)測(cè)未知樣本的類(lèi)標(biāo)號(hào)。因此,訓(xùn)練算法的主要目標(biāo)就是要建立具有很好的泛化能力模型,即建立能夠準(zhǔn)確地預(yù)測(cè)未知樣本類(lèi)標(biāo)號(hào)的模型。

通常我們用“方差”和“偏差”來(lái)測(cè)量學(xué)習(xí)算法與給定分類(lèi)問(wèn)題的“匹配”和“校準(zhǔn)”程度。“偏差”度量的是匹配的“準(zhǔn)確性”和“質(zhì)量”:一個(gè)高的偏差意味著一個(gè)壞的匹配,“方差”度量的是匹配的“精確性”和“特定性”:一個(gè)高的方差意味著一個(gè)弱的匹配。

研究表明,使用重采樣技術(shù)可以提高分類(lèi)器的準(zhǔn)確率,而boosting算法就是涉及分類(lèi)器設(shè)計(jì)中的重采樣技術(shù)。其思想內(nèi)涵在于:從給定的數(shù)據(jù)集中抽取多個(gè)數(shù)據(jù)子集,使得有可能計(jì)算任意統(tǒng)計(jì)量的值及其范圍。

說(shuō)道boosting,不得不說(shuō)Arcing(adaptive reweighting and

combining)自適應(yīng)的權(quán)值重置和組合:重新使用和選擇數(shù)據(jù),以期達(dá)到改善分類(lèi)器性能的目的。最簡(jiǎn)單的arcing版本就是bagging算法。

Bagging一個(gè)多分類(lèi)器系統(tǒng)

bagging算法的基本思想:

給定一個(gè)弱學(xué)習(xí)算法,和一個(gè)訓(xùn)練集;單個(gè)弱學(xué)習(xí)算法準(zhǔn)確率不高;將該學(xué)習(xí)算法使用多次,得出預(yù)測(cè)函數(shù)序列,進(jìn)行投票,最后結(jié)果準(zhǔn)確率將得到提高。

步驟1:從大小為n的原始數(shù)據(jù)集D中,分別獨(dú)立隨機(jī)的抽取n’個(gè)數(shù)據(jù)(n’

步驟2:每一個(gè)自助數(shù)據(jù)集都被獨(dú)立的用于訓(xùn)練一個(gè)“分量分類(lèi)器”。

步驟3、最終的分類(lèi)判決由這些“分量分類(lèi)器”各自的判決結(jié)果投票決定。

Bagging算法是第一個(gè)多分類(lèi)器系統(tǒng),后面還有(組合分類(lèi)器系統(tǒng))。

算法:

For t = 1,

2, …, T Do

從數(shù)據(jù)集S中取樣(放回選樣)

訓(xùn)練得到模型Ht

對(duì)未知樣本X分類(lèi)時(shí),每個(gè)模型Ht都得出一個(gè)分類(lèi),得票最高的即為未知樣本X的分類(lèi),也

可通過(guò)得票的平均值用于連續(xù)值的預(yù)測(cè) 。

Bagging 和boosting的區(qū)別

訓(xùn)練集:

預(yù)測(cè)函數(shù)

準(zhǔn)確性

使用要求

Bagging

隨機(jī)選擇,各輪訓(xùn)練集相互獨(dú)立

沒(méi)有權(quán)重;可以并行生成

在有些數(shù)據(jù)集中,boosting會(huì)引起退化

要求“不穩(wěn)定”的分類(lèi)方法

Boosting

各輪訓(xùn)練集并不獨(dú)立,它的選擇與前輪的學(xué)習(xí)結(jié)果有關(guān)

有權(quán)重;只能順序生成

在大多數(shù)數(shù)據(jù)集中,boosting的準(zhǔn)確性比bagging高

要求“不穩(wěn)定”的分類(lèi)方法

訓(xùn)練集的小變動(dòng)能夠使得分類(lèi)模型顯著變動(dòng)

Bagging是一個(gè)純粹的降低相關(guān)度的方法,如果樹(shù)的節(jié)點(diǎn)具有很高的相關(guān)性,bagging就會(huì)有好的結(jié)果。早期的AdaBoost在第二步的時(shí)候采用重采樣方法,即使某些樣本權(quán)重增加。這種方法與bagging存在某種關(guān)聯(lián)。它也是Boost的成功之處中降低相關(guān)度方面的重要部分。

AdaBoost在第二步中如果使用加權(quán)的tree-growing算法,而不是重采樣算法,效果會(huì)更好。可以使用stumps作為弱分類(lèi)器

最初的boosting算法

1989年Kearns and Valiant研究了PAC學(xué)習(xí)模型中弱學(xué)習(xí)算法和強(qiáng)學(xué)習(xí)算法兩者間的等價(jià)問(wèn)題,即任意給定僅僅比隨機(jī)猜測(cè)稍好(準(zhǔn)確率大于0.5)的弱學(xué)習(xí)算法,是否可以被提升為強(qiáng)學(xué)習(xí)算法?若兩者等價(jià),則我們只需尋找一個(gè)比隨機(jī)猜測(cè)稍好的弱學(xué)習(xí)算法,然后將其提升為強(qiáng)學(xué)習(xí)算法,從而不必費(fèi)很大力氣去直接尋找強(qiáng)學(xué)習(xí)算法。就此問(wèn)題,Schapire于1990年首次給出了肯定的答案。他主持這樣一個(gè)觀點(diǎn):任一弱學(xué)習(xí)算法可以通過(guò)加強(qiáng)提升到一個(gè)任意正確率的強(qiáng)學(xué)習(xí)算法,并通過(guò)構(gòu)造一種多項(xiàng)式級(jí)的算法來(lái)實(shí)現(xiàn)這一加強(qiáng)過(guò)程,這就是最初的Boosting算法的原型。

主要思想是,根據(jù)已有的訓(xùn)練樣本集設(shè)計(jì)一個(gè)分類(lèi)器,要求其準(zhǔn)確率要比平均性能好,然后依次順序加入多個(gè)分量分類(lèi)器系統(tǒng),最后形成一個(gè)總體分類(lèi)器。

以一個(gè)二類(lèi)問(wèn)題舉例。

步驟1:從大小為n的原始樣本集D中隨機(jī)選取n1 個(gè)樣本點(diǎn)(不放回),組成樣本集D1。根據(jù)D1訓(xùn)練出第一個(gè)分類(lèi)器C1。

步驟2:構(gòu)造第二個(gè)樣本集D2,它是根據(jù)C1最富信息的那些樣本點(diǎn)組成的。在最后產(chǎn)生的D2集合中將有一半的樣本被C1正確分類(lèi),而另一半的樣本被C1錯(cuò)誤分類(lèi)。

步驟3:繼續(xù)構(gòu)造第三個(gè)樣本集D3,方法:在D中剩余的樣本中選取樣本點(diǎn),并且用C1和C2進(jìn)行分類(lèi),如果C1和C2判決結(jié)果不同,那么就把樣本加入D3,否則就忽略這個(gè)樣本。然后用D3訓(xùn)練新分類(lèi)器C3。

步驟4:用這3個(gè)分類(lèi)器對(duì)新樣本x進(jìn)行分類(lèi),如果C1和C2的判決結(jié)果相同,則表為一類(lèi),不同則表為另一類(lèi)。

Boosting方法有許多不同的變形,其中最流行的一種就是adaboost。這個(gè)名詞是“adaptive boosting”的縮寫(xiě)。這個(gè)方法允許設(shè)計(jì)者不斷的加入新的“弱分類(lèi)器”,直到達(dá)到某個(gè)預(yù)定的最小錯(cuò)誤率。

1995年Freund and Schapire提出

AdaBoost算法。

1996年Yoav Freund在Experiments with a New Boosting

Algorithm中提出了AdaBoost.M1和AdaBoost.M2兩種算法。其中,AdaBoost.M1是我們通常所說(shuō)的Discrete AdaBoost:而AdaBoost.M2是M1的泛化形式。該文的一個(gè)結(jié)論是:當(dāng)弱分類(lèi)器算法使用簡(jiǎn)單的分類(lèi)方法時(shí),boosting的效果明顯地統(tǒng)一地比bagging要好。當(dāng)弱分類(lèi)器算法使用C4.5時(shí),boosting比bagging較好,但是沒(méi)有前者的比較來(lái)得明顯。

AdaBoost.M1 Discrete

AdaBoost:

初始版本1.獲得一組樣本(X)和它的分類(lèi)(Y)和一個(gè)分類(lèi)器(weaklearn).

2.賦予平均的權(quán)值分布D(i)進(jìn)入循環(huán):T次1. 賦予弱分類(lèi)器權(quán)值D(i),使用弱分類(lèi)器獲得樣本(X)到分類(lèi)(Y)上的一個(gè)映射.(就是把某個(gè)X歸到某個(gè)Y類(lèi)中去)

2. 計(jì)算這個(gè)映射的誤差e,e=各個(gè)歸類(lèi)錯(cuò)誤的樣本權(quán)值之和.如果e>1/2那么弱分類(lèi)器訓(xùn)練失敗,跳出循環(huán),

訓(xùn)練結(jié)束(這在二值檢測(cè)中是不會(huì)發(fā)生的,而多值的情況就要看分類(lèi)器夠不夠強(qiáng)健了)

3. 設(shè)beta B = e / ( 1 - e

).用于調(diào)整權(quán)值.因?yàn)閑<1/2.因此0

4. 如果某樣本分類(lèi)正確,該樣本的權(quán)值就乘以B讓權(quán)值變小;如果分類(lèi)錯(cuò)誤,就讓該樣本的權(quán)值乘以B^-1或者不變,這樣就讓分類(lèi)正確的樣本權(quán)值降低,分類(lèi)錯(cuò)誤的樣本權(quán)值升高,加強(qiáng)了對(duì)較難分類(lèi)樣本的分類(lèi)能力5. 權(quán)值均衡化循環(huán)結(jié)束1. 最終的分類(lèi)器是,當(dāng)一個(gè)X進(jìn)入時(shí),遍歷所有Y,尋找使(h(x)=y的情況下,log(1/B)之和)最大者即是輸出分類(lèi)y

書(shū)上版本

具體算法:

每個(gè)樣本都賦予一個(gè)權(quán)重,T次迭代,每次迭代后,對(duì)分類(lèi)錯(cuò)誤的樣本加大權(quán)重,使得下一次的迭代更加關(guān)注這些樣本。

輸入:(X1,Y1),

(X2,Y2),…(Xn,Yn)

Xi∈X, Yi∈Y={+1,-1}

初始化權(quán)值:D1(i)=1/n

For t=1,…,T

在Dt下訓(xùn)練,

得到弱的假設(shè)ht:

X->{-1,+1},

錯(cuò)誤率:Εt=ΣDt(i)

[ht(Xi)≠Yi]

選擇αt=1/2 ln (

(1- Εt)/

Εt ),

更改權(quán)值:

if ht(Xi)≠Yi , Dt+1(i)=Dt(i)* eαt /Zt

if ht(Xi)=Yi , Dt+1(i)=Dt(i)* e

-αt /Zt

輸出:H(X)=sign( ∑

αtht(X) )

帶圖版本(程序版本):

初始賦予每個(gè)樣本相等的權(quán)重1/N

For t = 1, 2, …, T Do

學(xué)習(xí)得到分類(lèi)法Ct;

計(jì)算該分類(lèi)法的錯(cuò)誤率Et

Et=所有被錯(cuò)誤分類(lèi)的樣本的權(quán)重和;

βt= Et/(1 - Et)

根據(jù)錯(cuò)誤率更新樣本的權(quán)重;

正確分類(lèi)的樣本: Wnew= Wold*

βt

錯(cuò)誤分類(lèi)的樣本: Wnew=

Wold

調(diào)整使得權(quán)重和為1;

每個(gè)分類(lèi)法Ct的投票價(jià)值為log [ 1 / βt

]

最大錯(cuò)誤率問(wèn)題:

將γt=1/2-Et ;

Freund and Schapire 證明:

最大錯(cuò)誤率為:

即訓(xùn)練錯(cuò)誤率隨γt的增大呈指數(shù)級(jí)的減小.

最大總誤差:

m : 樣本個(gè)數(shù)

d : VC維

T : 訓(xùn)練輪數(shù)

Pr: 對(duì)訓(xùn)練集的經(jīng)驗(yàn)概率

如果T值太大,Boosting會(huì)導(dǎo)致過(guò)適應(yīng)(overfit)

《模式分類(lèi)》386頁(yè)

AdaBoost.M2是M1的泛化形式

.M2的流程是

1.獲得一組樣本(X)和它的分類(lèi)(Y)和一個(gè)分類(lèi)器(weaklearn).

2.對(duì)于某個(gè)樣本Xi將它的分類(lèi)歸為一個(gè)正確分類(lèi)Yi和其他不正確分類(lèi)Yb

3.樣本權(quán)值進(jìn)行如下分布首先每個(gè)樣本分到1/m的權(quán)值,然后每個(gè)不正確分類(lèi)分到(1/m)/Yb的個(gè)數(shù)。也就是說(shuō)樣本權(quán)值是分到了每個(gè)不正確的分類(lèi)上

進(jìn)入循環(huán)1. 求每個(gè)樣本的權(quán)值,即每個(gè)樣本所有不正確的分類(lèi)的權(quán)值和,再求每個(gè)樣本錯(cuò)誤分類(lèi)的權(quán)值,即不正確分類(lèi)的權(quán)值除以該樣本的權(quán)值.最后將每個(gè)樣本的權(quán)值歸一化2. 將樣本權(quán)值和某樣本的不正確分類(lèi)的權(quán)值輸入到weaklearn,獲得弱分類(lèi)器的輸出為各個(gè)分類(lèi)的可能值3. 計(jì)算偽錯(cuò)誤率:

4. 更新權(quán)值退出循環(huán)

1999年,ROBERT E. SCHAPIRE和YORAM SINGER,于Machine Learning發(fā)表論文:

Improved Boosting Algorithms Using

Confidence-rated Predictions。提出了更具一般性的AdaBoost形式。提出了自信率以改善AdaBoost的性能。并提出了解決多標(biāo)簽問(wèn)題的AdaBoost.MH和AdaBoost.MR算法,其中AdaBoost.MH算法的一種形式又被稱(chēng)為Real Boost算法。事實(shí)上:Discrete AdaBoost是指,弱分類(lèi)器的輸出值限定在{-1,+1},和與之相應(yīng)的權(quán)值調(diào)整,強(qiáng)分類(lèi)器生成的AdaBoost算法;Real AdaBoost是指,弱分類(lèi)器輸出一個(gè)可能度,該值的范圍是整個(gè)R,和與之相應(yīng)的權(quán)值調(diào)整,強(qiáng)分類(lèi)器生成的AdaBoost算法。

事實(shí)上,Discrete到Real的轉(zhuǎn)變體現(xiàn)了古典集合到模糊集合轉(zhuǎn)變的思想。

至于Gentle

AdaBoost。考慮到(AdaBoost對(duì)”不像”的正樣本權(quán)值調(diào)整很高,而導(dǎo)致了分類(lèi)器的效率下降),而產(chǎn)生的變種算法。它較少地強(qiáng)調(diào)難以分類(lèi)的樣本。Rainer Lienhart,

Alexander

Kuranov,

Vadim

Pisarevsky在論文Empirical Analysis of Detection Cascades of

Boosted Classifiers for Rapid Object Detection中提出在stump弱分類(lèi)器(即每個(gè)弱分類(lèi)器使用一個(gè)特征進(jìn)行分類(lèi))上進(jìn)行的對(duì)比試驗(yàn)中,Gentle的結(jié)果明顯好于Real和Discrete。

AdaBoost.MH(real)

算法的運(yùn)算流程:

1. 得到一組樣本(m個(gè))和樣本相應(yīng)的分類(lèi),這個(gè)分類(lèi)是由K個(gè)是和否的標(biāo)簽組成.某一個(gè)樣本可以有多個(gè)是標(biāo)簽.

2. 均分權(quán)值:1/mk進(jìn)入循環(huán):

1. 由弱分類(lèi)器獲得各樣本針對(duì)各標(biāo)簽的是或否結(jié)果(給出離散值或連續(xù)值)

2. 獲得alpha(t)3. 調(diào)整權(quán)值.大概是,弱分類(lèi)器判斷l(xiāng)標(biāo)簽的是或否,若判斷正確乘以1,錯(cuò)誤乘以-1,再乘以 ,然后…

4. 權(quán)值歸一化跳出循環(huán)輸出強(qiáng)分類(lèi)器

Logit和Gentle算法的提出過(guò)程大致是這樣的

1. 驗(yàn)證Boosting

algorithms是一種擬合一個(gè)additive logistic regression

model(加性的邏輯回歸模型)的階段式估計(jì)過(guò)程。它有最優(yōu)一個(gè)指數(shù)判據(jù),這個(gè)判據(jù)由第二定理與二項(xiàng)式對(duì)數(shù)似然判據(jù)是等價(jià)的。

2. 作者證明Discrete是使用adaptive Newton updates擬合一個(gè)additive logistic regression

model來(lái)最小化Ee^(-yF(x))的過(guò)程,其中F(x)=求和fm(x),而fm(x)就是各層分類(lèi)器的結(jié)果。

3. 作者證明Real是使用層級(jí)最優(yōu)的方法來(lái)擬合一個(gè)additive logistic regression model.

4. 作者說(shuō)明了為什么要選擇Ee^(-yF(x))作為目標(biāo):因?yàn)榇蠹叶加眠@個(gè)

5. 作者證明了當(dāng)(blabla一個(gè)很復(fù)雜的公式,貼不出來(lái))時(shí)Ee^(-yF(x))最小

6. 作者證明了每次權(quán)值更新以后,最近一次訓(xùn)練出的弱分類(lèi)器錯(cuò)誤率為50%.

7. 作者證明了對(duì)于最優(yōu)的F(x),樣本的分類(lèi)乘以權(quán)值的和應(yīng)該為0.

于是作者用80年代興起的邏輯回歸的尋優(yōu)方法中提煉出了LogitBoost(我終于找到logitBoost的logic了)

logitBoost

自適應(yīng)的牛頓法,擬合加性logistic回歸模型1. 獲得樣本,(x,y)序列.將分類(lèi)y*=(y+1)/2

2. 設(shè)置初值,F(x)=0,p(xi)=1/2進(jìn)入循環(huán)1. 依式計(jì)算zi,wi.

2. 通過(guò)加權(quán)最小二乘的方式擬合函數(shù)fm(x).由zi擬合x(chóng)i,權(quán)重為wi

3. 更新F(x),p(x) 退出循環(huán)輸出分類(lèi)器sign[F(x)].作者提出,logitAdaBoost在每一輪中都使Ee^(-y(F(x)+f(x)))最優(yōu),會(huì)使訓(xùn)練樣本的代表性下降,于是提出了Gentle

AdaBoost(牛頓步長(zhǎng)法)

Gentle AdaBoost(matlab版)for It = 1 : Max_Iter

nodes =

train(WeakLrn, Data, Labels, distr);

for i =

1:length(nodes)

curr_tr = nodes{i};

step_out = calc_output(curr_tr, Data);

s1 = sum( (Labels == 1) .* (step_out) .*

distr);

s2 = sum( (Labels == -1) .* (step_out) .* distr);

if(s1 == 0 && s2 == 0)

continue;

end

Alpha = (s1 - s2) / (s1 + s2);%注意alpha的不同Alpha =

0.5*log((s1 + eps) / (s2+eps));real版

Weights(end+1) = Alpha;

Learners{end+1} = curr_tr;

final_hyp = final_hyp + step_out .* Alpha;

end

Z = sum(abs(Labels .*

final_hyp));

if(Z == 0)

Z = 1;

end

distr = exp(- 1 *

(Labels .* final_hyp) / Z);

Z =

sum(distr);

distr = distr /

Z;

end

ModestAdaBoost

for i = 1:length(nodes)

curr_tr = nodes{i};

step_out = calc_output(curr_tr, Data);

s1 = sum( (Labels == 1) .* (step_out) .*

distr);

s2 = sum( (Labels == -1) .* (step_out) .* distr);

s1_rev = sum( (Labels == 1) .* (step_out) .*

rev_distr);

s2_rev = sum( (Labels == -1) .* (step_out) .*

rev_distr);

Alpha = s1 * (1 - s1_rev) - s2 * (1 -

s2_rev);

其中的fm即為alpha

AdaBoost算法針對(duì)不同的訓(xùn)練集訓(xùn)練同一個(gè)基本分類(lèi)器(弱分類(lèi)器),然后把這些在不同訓(xùn)練集上得到的分類(lèi)器集合起來(lái),構(gòu)成一個(gè)更強(qiáng)的最終的分類(lèi)器(強(qiáng)分類(lèi)器)。理論證明,只要每個(gè)弱分類(lèi)器分類(lèi)能力比隨機(jī)猜測(cè)要好,當(dāng)其個(gè)數(shù)趨向于無(wú)窮個(gè)數(shù)時(shí),強(qiáng)分類(lèi)器的錯(cuò)誤率將趨向于零。

AdaBoost算法中不同的訓(xùn)練集是通過(guò)調(diào)整每個(gè)樣本對(duì)應(yīng)的權(quán)重實(shí)現(xiàn)的。最開(kāi)始的時(shí)候,每個(gè)樣本對(duì)應(yīng)的權(quán)重是相同的,在此樣本分布下訓(xùn)練出一個(gè)基本分類(lèi)器h1(x)。對(duì)于h1(x)錯(cuò)分的樣本,則增加其對(duì)應(yīng)樣本的權(quán)重;而對(duì)于正確分類(lèi)的樣本,則降低其權(quán)重。這樣可以使得錯(cuò)分的樣本突出出來(lái),并得到一個(gè)新的樣本分布。同時(shí),根據(jù)錯(cuò)分的情況賦予h1(x)一個(gè)權(quán)重,表示該基本分類(lèi)器的重要程度,錯(cuò)分得越少權(quán)重越大。在新的樣本分布下,再次對(duì)基本分類(lèi)器進(jìn)行訓(xùn)練,得到基本分類(lèi)器h2(x)及其權(quán)重。依次類(lèi)推,經(jīng)過(guò)T次這樣的循環(huán),就得到了T個(gè)基本分類(lèi)器,以及T個(gè)對(duì)應(yīng)的權(quán)重。最后把這T個(gè)基本分類(lèi)器按一定權(quán)重累加起來(lái),就得到了最終所期望的強(qiáng)分類(lèi)器。

一些改進(jìn)的算法

1、級(jí)聯(lián)ad

一種改進(jìn)的AdaBoost算法——AD_AdaBoost。Viola提出的級(jí)聯(lián)結(jié)構(gòu)的分類(lèi)器是指一組

串行的分類(lèi)器。在對(duì)待識(shí)樣本進(jìn)行分類(lèi)時(shí),只有被前面一級(jí)的分類(lèi)器判決為正的樣本才被送入后面的分類(lèi)器繼續(xù)處理,反之則被認(rèn)為是負(fù)樣本直接輸出。最后,只有那些被每一級(jí)的分類(lèi)器都判決為正的樣本才作為正樣本輸出。在級(jí)聯(lián)結(jié)構(gòu)的分類(lèi)器中,Viola和jones采用

Ad aBoost 算法來(lái)對(duì)每一級(jí)的分類(lèi)器進(jìn)行訓(xùn)練。

2、一種用于不平衡數(shù)據(jù)分類(lèi)的改進(jìn)

Ad a B o o s t

算法

3、基于雙閾值的增強(qiáng)型AdaBoost_快速算法

總結(jié)

以上是生活随笔為你收集整理的adaboost mh matlab,Adaboost算法的前世今生的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。