日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

PurdueUCLA提出梯度Boosting网络,效果远好于XGBoost模型!

發(fā)布時(shí)間:2025/3/8 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 PurdueUCLA提出梯度Boosting网络,效果远好于XGBoost模型! 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Gradient Boosting Neural Networks: GrowNet

一元@煉丹筆記

1. 簡(jiǎn)介

本文提出了一種新的梯度Boosting框架,將淺層神經(jīng)網(wǎng)絡(luò)作為“弱學(xué)習(xí)者”。在此框架下,我們考慮一般的損失函數(shù),并給出了分類、回歸和排序的具體實(shí)例。針對(duì)經(jīng)典梯度boosting決策樹貪婪函數(shù)逼近的缺陷,提出了一種完全修正的方法。在多個(gè)數(shù)據(jù)集的所有三個(gè)任務(wù)中,該模型都比最新的boosting方法都得了來(lái)更好的結(jié)果。

2. 背景

盡管在理論上和實(shí)踐中都有著無(wú)限的可能性,但由于其固有的復(fù)雜性,為新應(yīng)用領(lǐng)域開發(fā)定制的深度神經(jīng)網(wǎng)絡(luò)仍然是出了名的困難。為任何給定的應(yīng)用程序設(shè)計(jì)架構(gòu)都需要極大的靈活性,往往需要大量的運(yùn)氣。

在本文中,我們將梯度增強(qiáng)的能力與神經(jīng)網(wǎng)絡(luò)的靈活性和多功能性相結(jié)合,引入了一種新的建模范式GrowNet,它逐層建立DNN。代替決策樹,我們使用淺層神經(jīng)網(wǎng)絡(luò)作為我們的弱學(xué)習(xí)者,在一個(gè)通用的梯度增強(qiáng)框架中,可以應(yīng)用于跨越分類、回歸和排名的各種任務(wù)。

我們做了進(jìn)一步創(chuàng)新,比如在訓(xùn)練過(guò)程中加入二階統(tǒng)計(jì)數(shù)據(jù),同時(shí)還引入了一個(gè)全局校正步驟,該步驟已在理論和實(shí)際評(píng)估中得到證明,對(duì)提高效果并對(duì)特定任務(wù)進(jìn)行精確微調(diào)。

  • 我們開發(fā)了一種現(xiàn)成的優(yōu)化算法,比傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)更快、更容易訓(xùn)練。
  • 我們引入了新的優(yōu)化算法,相較于傳統(tǒng)的NN,它更快也更加易于訓(xùn)練;此外我們還引入了二階統(tǒng)計(jì)和全局校正步驟,以提高穩(wěn)定性,并允許針對(duì)特定任務(wù)對(duì)模型進(jìn)行更細(xì)粒度的調(diào)整。
  • 我們通過(guò)實(shí)驗(yàn)評(píng)估證明了我們的技術(shù)的有效性,并在三種不同的ML任務(wù)(分類、回歸和學(xué)習(xí)排名)中的多個(gè)真實(shí)數(shù)據(jù)集上顯示了優(yōu)異的結(jié)果。

3. 相關(guān)工作

3.1 Gradient Boosting Algorithms

Gradient Boosting算法是一種使用數(shù)值優(yōu)化的函數(shù)估計(jì)方法,決策樹是梯度提升框架中最常用的函數(shù)(predictive learner)。梯度提升決策樹(GBDT),其中決策樹按順序訓(xùn)練,每棵樹通過(guò)擬合負(fù)梯度來(lái)建模。本文中,我們將XGBoost作為基線。和傳統(tǒng)的GBDT不一樣,本文提出了Gradient Boosting Neural Network,使用千層的NN來(lái)訓(xùn)練gradient boosting。

我們認(rèn)為神經(jīng)網(wǎng)絡(luò)給我們一種優(yōu)于GBDT模型的策略。除了能夠?qū)⑿畔南惹暗念A(yù)測(cè)器傳播到下一個(gè)預(yù)測(cè)器之外,我們可以在加入新的層時(shí)糾正之前模型(correct step)。

3.2 Boosted Neural Nets

盡管像決策樹這樣的弱學(xué)習(xí)者在boosting和集成方法中很受歡迎,但是將神經(jīng)網(wǎng)絡(luò)與boosting/集成方法相結(jié)合以獲得比單個(gè)大型/深層神經(jīng)網(wǎng)絡(luò)更好的性能已經(jīng)做了大量的工作。在之前開創(chuàng)性工作中,全連接的MLP以一層一層的方式進(jìn)行訓(xùn)練,并添加到級(jí)聯(lián)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)中。他們的模型并不完全是一個(gè)boosting模型,因?yàn)樽罱K的模型是一個(gè)單一的多層神經(jīng)網(wǎng)絡(luò)。

在早期的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中,集成的策略可以帶來(lái)巨大的提升,但是早期都是多數(shù)投票,簡(jiǎn)單的求均值或者加權(quán)的均值這些策略。在引入自適應(yīng)的boosting算法之后(Adaboost),就有一些工作開始將MLP和boosting相結(jié)合并且取得了很棒的效果。

在最新的一些研究中,AdaNet提出自適應(yīng)地構(gòu)建神經(jīng)網(wǎng)絡(luò)層,除了學(xué)習(xí)網(wǎng)絡(luò)的權(quán)重,AdaNet調(diào)整網(wǎng)絡(luò)的結(jié)構(gòu)以及它的增長(zhǎng)過(guò)程也有理論上的證明。AdaNet的學(xué)習(xí)過(guò)程是boosting式的,但是最終的模型是一個(gè)單一的神經(jīng)網(wǎng)絡(luò),其最終輸出層連接到所有的底層。與AdaNet不同的是,我們以梯度推進(jìn)的方式訓(xùn)練每一個(gè)弱學(xué)習(xí)者,從而減少了entangled的訓(xùn)練。最后的預(yù)測(cè)是所有弱學(xué)習(xí)者輸出的加權(quán)和。我們的方法還提供了一個(gè)統(tǒng)一的平臺(tái)來(lái)執(zhí)行各種ML任務(wù)。

最近有很多工作來(lái)解釋具有數(shù)百層的深度殘差神經(jīng)網(wǎng)絡(luò)的成功,表明它們可以分解為許多子網(wǎng)絡(luò)的集合。

4. 模型

在每一個(gè)boosting步驟中,我們使用當(dāng)前迭代倒數(shù)第二層的輸出來(lái)增強(qiáng)原始輸入特性。

通過(guò)使用當(dāng)前殘差的增強(qiáng)機(jī)制,將增強(qiáng)后的特征集作為輸入來(lái)訓(xùn)練下一個(gè)弱學(xué)習(xí)者。模型的最終輸出是所有這些順序訓(xùn)練模型的得分的加權(quán)組合。

4.1 Gradient Boosting Neural Network: GrowNet

4.2 Corrective Step (C/S)

傳統(tǒng)的boosting框架,每個(gè)弱學(xué)習(xí)器都是貪心學(xué)習(xí)的,這意味著只有第個(gè)弱學(xué)習(xí)器是不變的。

短視學(xué)習(xí)過(guò)程可能會(huì)導(dǎo)致模型陷入局部極小,固定的增長(zhǎng)率ak會(huì)加劇這個(gè)問(wèn)題。因此,我們實(shí)施了一個(gè)糾正步驟來(lái)解決這個(gè)問(wèn)題。

  • 在糾正步驟中,我們?cè)试S通過(guò)反向傳播更新先前t-1弱學(xué)習(xí)者的參數(shù),而不是修復(fù)先前t-1弱學(xué)習(xí)者。

此外,我們將boosting rate ak納入模型參數(shù),并通過(guò)修正步驟自動(dòng)更新。

  • 除了獲得更好的性能之外,這一舉措可以讓我們避免調(diào)整一個(gè)微妙的參數(shù)。

C/S還可以被解釋為一個(gè)正則化器,以減輕弱學(xué)習(xí)器之間的相關(guān)性,因?yàn)樵诩m正步驟中,我們主要的訓(xùn)練目標(biāo)變成了僅對(duì)原始輸入的特定任務(wù)損失函數(shù)。這一步的有用性在論文《Learning nonlinear functions using regularized greedy forest》中對(duì)梯度提升決策樹模型進(jìn)行了實(shí)證和理論研究。

5. 模型應(yīng)用

5.1 回歸的GrowNet

此處我們以MSE為案例。

5.2 分類的GrowNet

5.3 LTR的GrowNet

6. 實(shí)驗(yàn)

6.1 實(shí)驗(yàn)效果

模型中加入的預(yù)測(cè)函數(shù)都是具有兩個(gè)隱層的多層感知器。我們將隱藏層單元的數(shù)量設(shè)置為大約輸入特征維數(shù)的一半或相等。當(dāng)模型開始過(guò)擬合時(shí),更多的隱藏層會(huì)降低效果。我們實(shí)驗(yàn)中采用了40個(gè)加法函數(shù)對(duì)三個(gè)任務(wù)進(jìn)行測(cè)試,并根據(jù)驗(yàn)證結(jié)果選擇了測(cè)試時(shí)間內(nèi)的弱學(xué)習(xí)器個(gè)數(shù)。Boosting rate最初設(shè)置為1,并在校正步驟中自動(dòng)調(diào)整。我們只訓(xùn)練了每個(gè)預(yù)測(cè)函數(shù)一個(gè)epoch,整個(gè)模型在校正過(guò)程中使用Adam optimizer也訓(xùn)練了一個(gè)epoch。epoch的個(gè)數(shù)在ranking任務(wù)中被設(shè)置為2;

  • 該方法在諸多方案上都取得了好于XGBoost的效果。

6.2 消融實(shí)驗(yàn)

  • C/S的影響非常大;C/S模式緩解了learner之間潛在的相關(guān)性;
  • 二階導(dǎo)數(shù)是有必要的;
  • 自動(dòng)化學(xué)習(xí)是有價(jià)值的ai;我們加了boosting rate ,它是自動(dòng)調(diào)整的,不需要任何調(diào)整;

6.3 隱藏單元的影響

  • 改變隱藏單元的數(shù)量對(duì)效果的影響較小。
  • 測(cè)試了具有不同隱藏單元的最終模型(具有兩個(gè)隱藏層的弱學(xué)習(xí)者)。Higgs數(shù)據(jù)有28個(gè)特征,我們用2、4、8、16、32、64、128和256個(gè)隱藏單元對(duì)模型進(jìn)行了測(cè)試。隱層維度越小,弱學(xué)習(xí)者獲得的信息傳播越少。另一方面,擁有大量的單元也會(huì)導(dǎo)致在某個(gè)點(diǎn)之后過(guò)度擬合。
  • 上圖顯示了這個(gè)實(shí)驗(yàn)在Higgs 1M數(shù)據(jù)上的測(cè)試AUC分?jǐn)?shù)。最高的AUC為0.8478,只有128個(gè)單元,但當(dāng)數(shù)量增加到256個(gè)單元時(shí),效果會(huì)受到影響。

6.4 GrowNet versus DNN

如果我們把所有這些淺層網(wǎng)絡(luò)合并成一個(gè)深神經(jīng)網(wǎng)絡(luò),會(huì)發(fā)生什么?

這種方法存在幾個(gè)問(wèn)題:

  • 對(duì)DNN參數(shù)進(jìn)行優(yōu)化非常耗時(shí),如隱藏層數(shù)、每個(gè)隱藏層單元數(shù)、總體架構(gòu)、Batch normalization、dropout等;
  • DNN需要巨大的計(jì)算能力,總體運(yùn)行速度較慢。我們將我們的模型(30個(gè)弱學(xué)習(xí)器)與DNN進(jìn)行了5、10、20和30個(gè)隱藏層配置的比較。
    • 在1000個(gè)epoch,在Higgs的1M數(shù)據(jù)上,最好的DNN(10個(gè)隱藏層)得到0.8342,每個(gè)epoch花費(fèi)11秒。DNN在900個(gè)epoch時(shí)取得了這一成績(jī)(最好)。GrowtNet在相同的配置下取得了0.8401 AUC;

7. 小結(jié)

本文提出了GrowNet,它可以利用淺層神經(jīng)網(wǎng)絡(luò)作為梯度推進(jìn)框架中的“弱學(xué)習(xí)者”。這種靈活的網(wǎng)絡(luò)結(jié)構(gòu)使我們能夠在統(tǒng)一的框架下執(zhí)行多個(gè)機(jī)器學(xué)習(xí)任務(wù),同時(shí)結(jié)合二階統(tǒng)計(jì)、校正步驟和動(dòng)態(tài)提升率,彌補(bǔ)傳統(tǒng)梯度提升決策樹的缺陷。

我們通過(guò)消融研究,探討了神經(jīng)網(wǎng)絡(luò)作為弱學(xué)習(xí)者在boosting范式中的局限性,分析了每個(gè)生長(zhǎng)網(wǎng)絡(luò)成分對(duì)模型性能和收斂性的影響。結(jié)果表明,與現(xiàn)有的boosting方法相比,該模型在回歸、分類和學(xué)習(xí)多數(shù)據(jù)集排序方面具有更好的性能。我們進(jìn)一步證明,GrowNet在這些任務(wù)中是DNNs更好的替代品,因?yàn)樗a(chǎn)生更好的性能,需要更少的訓(xùn)練時(shí)間,并且更容易調(diào)整。

更多干貨,請(qǐng)關(guān)注公眾號(hào):煉丹筆記mp.weixin.qq.com/s/2WnX

與50位技術(shù)專家面對(duì)面20年技術(shù)見證,附贈(zèng)技術(shù)全景圖

總結(jié)

以上是生活随笔為你收集整理的PurdueUCLA提出梯度Boosting网络,效果远好于XGBoost模型!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。