日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ResNet才是YYDS!新研究:不用蒸馏、无额外数据,性能还能涨一波

發(fā)布時間:2024/10/8 编程问答 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ResNet才是YYDS!新研究:不用蒸馏、无额外数据,性能还能涨一波 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


?作者?|?杜偉、張倩

來源?|?機器之心

基線:我要是用上最新的訓練流程,性能還能漲一波。

在計算機視覺領域,何愷明等人 2015 年提出的 ResNet(deep residual network,深度殘差網(wǎng)絡)一直被視為經(jīng)典架構,它解決了深度 CNN 模型難訓練的問題,是 CNN 圖像史上的一個里程碑之作。

自提出以來,ResNet 系列模型一直被用作研究中的默認架構,或者新模型提出時用來對比的基線。然而,在過去的幾年里,神經(jīng)網(wǎng)絡訓練方面的最佳實踐已經(jīng)取得了很大進展。新穎的優(yōu)化、數(shù)據(jù)增強等方法提高了訓練流程的有效性。

在這篇論文中,獨立研究者 Ross Wightman 以及 Facebook AI、索邦大學的兩位研究者重新評估了普通 ResNet-50 在加入上述訓練進展之后所能達到的性能。

論文鏈接:

https://arxiv.org/pdf/2110.00476.pdf

具體而言,研究者重新評估了使用不同訓練方法時普通 ResNet-50 的性能,并在 timm 開源庫中分享了有競爭力的訓練設置和預訓練模型,希望它們可以成為未來研究工作的更好基線。例如,在 ImageNet-val 數(shù)據(jù)集上,使用研究者更高要求的訓練設置,并在無額外數(shù)據(jù)或蒸餾的情況下,普通 ResNet-50 在分辨率 224×224 下實現(xiàn)了 80.4% 的 top-1 準確率。

此外,研究者還報告了其他流行模型使用他們的訓練流程時取得的性能結果。

基線也需要與時俱進

在過去的十幾年里,人們已經(jīng)見證了圖像分類領域的很多重大進展,這些反映在了 ILSVRC’2012 挑戰(zhàn)賽或其他圖像分類基準測試結果的改進上。從原理上來講,性能的提升反映了社區(qū)對下面這個問題的最大化求解:

A 為架構設計,T 為訓練設置和超參數(shù),N 為測量噪聲,其中還包括從大量超參數(shù)或方法中選擇最大值時經(jīng)常出現(xiàn)的過擬合。降低 N 的良好做法有幾種,比如使用不同的 seed 測量標準差、使用單獨的評估數(shù)據(jù)集或者在遷移任務上對模型進行評估。

暫且撇開 N 不談,評估 A 或 T 上的進展也構成了一個挑戰(zhàn),這是因為它們的進展隨時間推移而變化。當在 (A, T ) 上進行聯(lián)合優(yōu)化時,無法保證給定架構 A_1 的最優(yōu)選擇 T_1 依然是另一模型設計 A_2 的最佳選擇。因此,即使是在同一訓練流程下比較模型時,人們也可能隱式地偏愛某一個模型。

將訓練流程與架構各自帶來的改進分開的一個好處是確保基線包含來自文獻的新「成分」,并在調(diào)整超參數(shù)方面付出合理的努力。理想狀態(tài)下,如果沒有資源和時間限制,人們可以為每個架構適配最佳的訓練流程,如下公式(1)所示:

但在現(xiàn)實中,這種理想狀態(tài)是不可能的。當比較架構時,大多數(shù)論文往往與以往發(fā)表論文中的結果進行比較,但被比較的這些架構使用的通常是相對較弱的訓練流程,最好的情況下也僅僅是使用類似或相同的流程。

本文作者表示,他們還沒有發(fā)現(xiàn)專門通過廣泛的成分選擇和超參數(shù)搜索來提升 ResNet-50 訓練流程的研究努力。在以往的文獻中,ImageNet-1k-val 上報告的針對 ResNet-50 架構的性能范圍區(qū)間為 75.2% 到 79.5%,具體取決于論文本身。目前還不清楚是否已經(jīng)投入足夠的努力來進一步推動基線。因此,研究者想要填補這方面的研究空白。

研究者探究的是何愷明等人提出的普通 ResNet-50 架構。他們優(yōu)化訓練流程以最大化該模型在原始測試分辨率 224 × 224 下的性能。這里只考慮訓練流程(training recipe)。因此,研究者排除了 ResNet-50 的所有變體,如 SE-ResNet-50 或 ResNet-50-D,這些變體通常會在相同的訓練流程下提升準確率。

3 種不同的訓練流程

研究者提出了 3 種具有不同成本和性能的訓練流程,以覆蓋不同的用例,下表 1 展示了 3 種訓練流程的資源使用情況和 top-1 準確率結果。

這 3 種訓練流程以實現(xiàn)測試分辨率 224 × 224 下 ResNet-50 的最佳性能為目標。研究者探索了很多使用不同優(yōu)化器、正則化以及超參數(shù)合理網(wǎng)格搜索數(shù)量的變體。其中,他們主要關注以下三個不同的訓練流程:

  • 流程 A1 旨在為 ResNet-50 提供最佳性能,因此 epoch 數(shù)量最多(600),訓練時間最長(在一個配有 4 個 V100 32GB GPU 的節(jié)點上訓練 4.6 天)

  • 流程 A2 的 epoch 數(shù)量為 300,可與 DeiT 等其他幾個優(yōu)秀訓練流程媲美,但批大小更大(2048)。

  • 流程 A3 旨在通過 100 個 epoch 和 2048 的批大小超越普通 ResNet-50 的流程,它在 4 個 V100 16GB GPU 上訓練了 15 個小時,并且可能是探索性研究的良好設置。

如下表 2 所示,研究者將用于訓練普通 ResNet-50 的不同方法與他們的方法進行了比較,其中只考慮修改了未修改的 ResNet-50 架構(即不考慮其他變體)。此外,研究者不考慮使用蒸餾之類的高級訓練設置,或者通過自監(jiān)督或偽標簽預訓練的模型。

實驗結果

上表 1 總結了文中提出的訓練流程的主要特點。研究者表示,就他們所知,使用訓練流程 A1 訓練的一個普通 ResNet-50 架構在 224×224 分辨率的 ImageNet 圖像測試中超越了 SOTA 模型。其他兩個訓練流程(A2、A3)雖然沒有達到 A1 的水平,但也用較少的資源實現(xiàn)了較高的性能。

在下表 3 中,研究者記錄了使用本文提出的訓練流程訓練其他架構時的效果,以測試這些訓練流程在其他模型上的泛化能力。在某些情況下,研究者觀察到 A2 要優(yōu)于 A1,這表明超參數(shù)不適用于較長的 schedule(通常需要更多的正則化)。

在下表 4 中,研究者對表 3 中的結果進行了補充。

在下表 5 中,研究者記錄了使用不同的預訓練流程在 7 個細粒度數(shù)據(jù)集上得到的遷移學習性能數(shù)據(jù),并與默認的 PyTorch 預訓練進行了比較。總體來看,A1 在大多數(shù)下游任務中都達到了最好的性能。

更多細節(jié)請參見論文。

#投 稿?通 道#

?讓你的文字被更多人看到?

如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學術熱點剖析科研心得競賽經(jīng)驗講解等。我們的目的只有一個,讓知識真正流動起來。

📝?稿件基本要求:

? 文章確系個人原創(chuàng)作品,未曾在公開渠道發(fā)表,如為其他平臺已發(fā)表或待發(fā)表的文章,請明確標注?

? 稿件建議以?markdown?格式撰寫,文中配圖以附件形式發(fā)送,要求圖片清晰,無版權問題

? PaperWeekly 尊重原作者署名權,并將為每篇被采納的原創(chuàng)首發(fā)稿件,提供業(yè)內(nèi)具有競爭力稿酬,具體依據(jù)文章閱讀量和文章質(zhì)量階梯制結算

📬?投稿通道:

? 投稿郵箱:hr@paperweekly.site?

? 來稿請備注即時聯(lián)系方式(微信),以便我們在稿件選用的第一時間聯(lián)系作者

? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿

△長按添加PaperWeekly小編

🔍

現(xiàn)在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

·

總結

以上是生活随笔為你收集整理的ResNet才是YYDS!新研究:不用蒸馏、无额外数据,性能还能涨一波的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。