日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

推翻Hinton NeurIPS论文结论!审稿人评价:该文章在标签平滑和知识蒸馏的关系上取得了重大突破!...

發布時間:2024/10/8 编程问答 65 豆豆
生活随笔 收集整理的這篇文章主要介紹了 推翻Hinton NeurIPS论文结论!审稿人评价:该文章在标签平滑和知识蒸馏的关系上取得了重大突破!... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

今天給大家介紹一篇 ICLR 2021 的文章,來自卡耐基梅隆大學,香港科技大學,北京大學和馬薩諸塞大學阿默斯特分校(是 MEAL 系列作者的一篇最新力作)。

論文標題:

Is Label Smoothing Truly Incompatible with Knowledge Distillation: An Empirical Study

論文鏈接:

https://openreview.net/pdf?id=PObuuGVrGaZ

項目主頁:

http://zhiqiangshen.com/projects/LS_and_KD/index.html

這是一篇非常特別的文章,其中一個審稿人評價這篇文章是標簽平滑和知識蒸餾領域有突破性的一篇文章,并給出了 8 分的高分。為什么說它特殊呢,因為論文的核心并不是常見的刷點打榜的工作,而是在澄清和糾正過去一篇比較有名的文章中提出的一個重要發現,基于這個發現衍生出來的觀點和在這個問題上的認知,進而讓人們更好的理解標簽平滑和知識蒸餾的工作原理,那篇被糾正的文章發表于? NeurIPS 2019 [1] ,作者之一是我們大家都非常熟悉的深度學習先驅之一的 Geoffrey Hinton。

?

大家應該很好奇,大佬的文章也會有不完善的觀點嗎?答案是肯定的。人們對于某些問題的認知本來就是在曲折中不斷前進的。我們首先來介紹一下 Hinton 那篇文章在講一個什么事情。

?

Hinton 這篇文章主要是在探究和解釋標簽平滑的機制和工作原理,下面這張圖很好解釋了這種機制:

?

這篇文章里第一個有意思的發現是:Label smoothing encourages the activations of the penultimate layer to be close to the template of the correct class and equally distant to the templates of the incorrect classes.這是一個非常重要的發現,它的大意是在說標簽平滑可以消除類內樣本之間的差異,讓學到的同一類別的特征表達更加緊湊。更具體來說,比如狗這個類別的圖片通常會包含不同的姿態,拍照角度,曝光程度,不同背景等等,標簽平滑可以很好的消除不同樣本特征中這些差異的或者稱為 noisy 的信息,而更多地保留它的高層語義信息,即狗這個類別信息。

基于標簽平滑這個特點,作者進一步提出了一個觀點,即:If a teacher network is trained with label smoothing, knowledge distillation into a student network is much less effective. 怎么解釋這個結論呢?如上圖最后一行所示,右側某類樣本在使用標簽平滑之后會聚集在類中心點,因此不同樣本到其他兩種樣本的距離信息會趨向于相同,即標簽平滑抹去了同一類別不同樣本到其他類別的距離的細微差別,作者認為這種現象對于知識蒸餾來說是有害的,因為蒸餾正是需要 teacher 能擁有這種捕捉同一類別不同樣本之間細微差別的能力才會有效的,因此他們還認為: a teacher with better accuracy is not necessarily the one that distills better. 大概意思就是 teacher 性能好對于知識蒸餾來說并不重要。

上述推理聽上去是不是非常合情合理,那么 ICLR 2021 這篇文章又在糾正一個什么事情呢?下面這張圖很好的解釋了它究竟在糾正什么:

作者首先重現了 NeurIPS 2019 那篇文章中的可視化過程,并證明了上述論文中提到的現象是真實存在并可重現的,但是他們還有了一個新的驚人的發現:

如果我們重新來審視上圖中兩個語義相似的類別(左側的兩個靠近的類別),當使用標簽平滑時,同一類別樣本聚集會更加緊密,因為標簽平滑會促使每個樣本與該類中其他樣本的類中心等距,而緊密的聚類會顯著促進語義相似的不同類的表示變得更加可分離,即兩個類中心距離 Dc 增大了,這進一步變現為語義相近但是不同類的樣本獲得更可區分的表達。

這種現象非常重要,因為這些相似類別是提高分類模型性能的關鍵。一般來說,我們沒有必要去衡量“狗和魚有多像或者有多不像”,因為我們有足夠的線索和特征來區分它們(即右側類樣本到左側類別的距離不重要),但對于細粒度的類別之間如不同種類的狗,如果能得到“toy poodle 與 miniature poodle 不同程度”的信息對于區分它們是非常關鍵的。

上述分析作者從原理上解釋了為什么標簽平滑和知識蒸餾并不沖突,為了更好地闡述兩者關系,作者提出了一個能定量地衡量被抹去信息大小的指標,稱之為 stability metric,它的數學表達如下:

物理意義為:如果標簽平滑會抹除類內的信息,類內樣本的特征表達的差異也將相應減少,因此,我們可以使用這種差異來監測標簽平滑抹除信息的程度,因為此指標也可以評估同一類別中不同樣本特征表達波動程度,因此我們也稱之為穩定性指標。

文章還有一個重要的觀點是:

作者提出如果知識蒸餾不考慮使用原始數據集標簽項,本質上標簽平滑和知識蒸餾優化方式是一致的,唯一差別來自 soft 的監督信息來源方式不一樣,知識蒸餾使用的是固定權重參數的 teacher 模型(一種動態的監督信息獲取方式),標簽平滑使用的是人為制定的平滑規則(固定不變的標簽信息)。

?

總言而之,文章中作者試圖去解答下面幾個關鍵:

1. Does label smoothing in teacher networks suppress the effectiveness of knowledge distillation?

teacher 網絡訓練時候使用標簽平滑是否會抑制知識蒸餾階段的有效性?

2. What will actually determine the performance of a student in knowledge distillation?

哪些因素將真正決定 student 在知識蒸餾中的性能?

3. When will the label smoothing indeed lose its effectiveness for learning deep neural networks?

標簽平滑在什么情況下真正失去有效性?

?

實驗部分

作者在圖像分類,二值化網絡,機器翻譯等任務上進行了大量的實驗來驗證他們的觀點,并且完全拋棄了可能會帶來誤導的小數據集,比如 CIFAR。眾所周知 CIFAR 上的實驗結果和現象經常會跟 ImageNet 上的不一致,從而產生誤導。

作者首先可視化了 teacher 產生的 soft 的監督信息的分布如下圖所示,我們可以看到使用標簽平滑訓練 teacher 產生的監督信號整體上是低于不使用標簽平滑,這跟標簽平滑本身的工作機制是一致的。作者還展示了在一些次要類別上的信號分布(下圖 2),這也是為什么 soft 標簽可以提供更多細微的語義信息差別的原因。

接下來是在圖像分類任務上的結果,包括 ImageNet-1K 以及 CUB200-2011。我們可以看到,不管 teacher 有沒有使用標簽平滑訓練,student 的性能基本是跟 teacher 的性能保持正相關的,即 teacher 性能越高,student 也越高。

作者進一步可視化了知識蒸餾過程的 loss 曲線和測試誤差曲線,如下圖。作者發現如果 teacher 是使用標簽平滑訓練出來的,那么在知識蒸餾過程中產生的 loss 會比較大,如下圖左側,但是這個更大的 loss 值并不會影響 student 的性能,也就是說,標簽平滑訓練的 teacher 產生的抑制作用只會發生在訓練數據集上,并不會延續到測試數據上,即 student 的泛化能力還是得到保證的。這也是一個非常有意思的發現,本質上,這種更大的 loss 是由于監督信號更加扁平(flattening)造成的,它具有一定的正則作用防止模型過擬合。

那么什么情況會真正導致標簽平滑無效或者效果變弱呢?

作者發現在下列兩種情況下標簽平滑會失效或者沒那么有效:1)數據集呈現長尾分布的時候(long-tailed);2)類別數目變多的時候。具體猜測原因可以去閱讀原文。

最后回答一個大家最關心的問題:知識蒸餾到底需要怎么樣的 teacher?

本質上,針對不同的場景和任務,需要的 teacher 類型也不盡相同,但大體上來說,精度越高的網絡,通常可以蒸餾出更強的 student(如下圖),當然 student 的性能也受其自身的結構容量限制,

更多細節大家可以去閱讀原論文。

參考文獻

[1] Müller, Rafael, Simon Kornblith, and Geoffrey Hinton. "When does label smoothing help?."?In NeurIPS?(2019).

?

特別鳴謝

感謝 TCCI 天橋腦科學研究院對于 PaperWeekly 的支持。TCCI 關注大腦探知、大腦功能和大腦健康。

?

更多閱讀

#投 稿?通 道#

?讓你的文字被更多人看到?

如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析科研心得競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。

?????稿件基本要求:

? 文章確系個人原創作品,未曾在公開渠道發表,如為其他平臺已發表或待發表的文章,請明確標注?

? 稿件建議以?markdown?格式撰寫,文中配圖以附件形式發送,要求圖片清晰,無版權問題

? PaperWeekly 尊重原作者署名權,并將為每篇被采納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算

?????投稿通道:

? 投稿郵箱:hr@paperweekly.site?

? 來稿請備注即時聯系方式(微信),以便我們在稿件選用的第一時間聯系作者

? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿

△長按添加PaperWeekly小編

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

總結

以上是生活随笔為你收集整理的推翻Hinton NeurIPS论文结论!审稿人评价:该文章在标签平滑和知识蒸馏的关系上取得了重大突破!...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。