日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【AutoML】如何使用强化学习进行模型剪枝?

發(fā)布時(shí)間:2025/3/20 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【AutoML】如何使用强化学习进行模型剪枝? 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

大家好,歡迎來到專欄《AutoML》,在這個(gè)專欄中我們會(huì)講述AutoML技術(shù)在深度學(xué)習(xí)中的應(yīng)用,這一期講述在模型剪枝中的應(yīng)用。

作者&編輯 | 言有三

我們往期的文章中介紹了各種各樣的模型壓縮技巧,那么是否也可以使用AutoML技術(shù)來用于模型壓縮,比如剪枝呢。

1 AMC

AutoML for Model Compression(AMC)是一個(gè)利用強(qiáng)化學(xué)習(xí)自動(dòng)搜索并提高模型剪枝算法質(zhì)量的框架,其完整的流程如下:

在一般的剪枝算法中,我們通常遵循一些基本策略:比如在提取低級特征的參數(shù)較少的第一層中剪掉更少的參數(shù),對冗余性更高的FC層剪掉更多的參數(shù)。然而,由于深度神經(jīng)網(wǎng)絡(luò)中的層不是孤立的,這些基于規(guī)則的剪枝策略并不是最優(yōu)的,也不能從一個(gè)模型遷移到另一個(gè)模型。

AMC方法便是在該背景下,利用強(qiáng)化學(xué)習(xí)自動(dòng)搜索并提高模型壓縮的質(zhì)量,該框架是每一層進(jìn)行獨(dú)立壓縮,前一層壓縮完之后再往后層進(jìn)行傳播,t層接受該層的輸入特征s_t,輸出稀疏比率a_t,按照a_t對該層進(jìn)行壓縮后,智能體移動(dòng)到下一層L_t+1,使用驗(yàn)證集精度作為評估,偽代碼如下:

作者們對兩類場景進(jìn)行了實(shí)驗(yàn),第一類是受延遲影響較大的應(yīng)用如移動(dòng)APP,使用的是資源受限的壓縮,這樣就可以在滿足低FLOP和延遲,小模型的情況下實(shí)現(xiàn)最好的準(zhǔn)確率;這一類場景作者通過限制搜索空間來實(shí)現(xiàn),在搜索空間中,動(dòng)作空間(剪枝率)受到限制,使得被智能體壓縮的模型總是低于資源預(yù)算。

另一類是追求精度的應(yīng)用如Google Photos,就需要在保證準(zhǔn)確率的情況下壓縮得到更小的模型。對于這一類場景,作者定義了一個(gè)獎(jiǎng)勵(lì),它是準(zhǔn)確率和硬件資源的函數(shù)。基于這個(gè)獎(jiǎng)勵(lì)函數(shù),智能體在不損害模型準(zhǔn)確率的前提下探索壓縮極限。

每一層的狀態(tài)空間為(t, n, c, h, w, stride, k, FLOP s[t], reduced, rest, at?1),t是層指數(shù),輸入維度是n×c×k×k,輸入大小是c×h×w,reduces就是前一層減掉的flops,rest是剩下的flops。

因?yàn)榧糁νǖ罃?shù)特別敏感,所以這里不再是使用離散的空間,如{128,256},而是使用連續(xù)的空間,使用deep deterministic policy gradient (DDPG)來控制壓縮比率,完整的算法流程如下:

對于細(xì)粒度的剪枝,可以使用權(quán)重的最小幅度作為閾值,對于通道級別的壓縮,可以使用最大響應(yīng)值。

在谷歌Pixel-1 CPU和MobileNet模型上,AMC實(shí)現(xiàn)了1.95 倍的加速,批大小為1,節(jié)省了34%的內(nèi)存。在英偉達(dá)Titan XP GPU 上,AMC實(shí)現(xiàn)了1.53 倍的加速,批大小為50。

2 關(guān)于模型優(yōu)化的推薦資料

如果說要我在深度學(xué)習(xí)這么多方向里選擇一個(gè)的話,我會(huì)毫不猶豫地選擇模型優(yōu)化,這也是我一直在做的事情。

公眾號寫過很多的模型解讀了,如下是一些總結(jié):

知識星球也有一個(gè)模型結(jié)構(gòu)1000變板塊,是比公眾號的內(nèi)容更深更廣。如果感興趣的話這周加入最合適,雙十一優(yōu)惠還在。

之前在阿里天池也做了幾場直播,往期視頻如下:

模型的優(yōu)化技術(shù)包括設(shè)計(jì)更高效的模型結(jié)構(gòu),模型剪枝,量化技術(shù)等,如今隨著AutoML技術(shù)的發(fā)展,也有了更廣闊的空間,下面提供了一些參考資料大家可有閱讀。

[1]?He Y, Lin J, Liu Z, et al. Amc: Automl for model compression and acceleration on mobile devices[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 784-800.

[2]?Luo J H, Wu J. Autopruner: An end-to-end trainable filter pruning method for efficient deep model inference[J]. arXiv preprint arXiv:1805.08941, 2018.

[3]?Zhou D, Jin X, Wang K, et al. Deep Model Compression via Filter Auto-sampling[J]. arXiv preprint arXiv:1907.05642, 2019.

[4] Carreira-Perpinán M A, Idelbayev Y. “Learning-Compression” Algorithms for Neural Net Pruning[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 8532-8541.

總結(jié)

這次我們介紹了AutoML在模型剪枝中的一個(gè)經(jīng)典案例,實(shí)際上還有更多的內(nèi)容,感興趣的歡迎后續(xù)到有三AI知識星球中獲取。

下期預(yù)告:AutoML在模型量化中的應(yīng)用。

有三AI秋季劃

有三AI秋季劃已經(jīng)正式啟動(dòng)報(bào)名,模型優(yōu)化,人臉?biāo)惴?#xff0c;圖像質(zhì)量共24個(gè)項(xiàng)目,助力提升深度學(xué)習(xí)計(jì)算機(jī)視覺算法和工程項(xiàng)目能力。

轉(zhuǎn)載文章請后臺聯(lián)系

侵權(quán)必究

往期文章

總結(jié)

以上是生活随笔為你收集整理的【AutoML】如何使用强化学习进行模型剪枝?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。