日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

对比学习系列论文SDCLR(一)-Self-Damaging Contrastive Learning论文的概括

發布時間:2025/4/5 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 对比学习系列论文SDCLR(一)-Self-Damaging Contrastive Learning论文的概括 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.研究背景(研究的問題)

一切的大背景是對比學習大發展

  • 1.傳統深度學習當中就存在這個問題。
  • 2.雖然之前的工作指出,對比學習受到長尾問題影響比較小;但是作者實驗發現長尾問題可能對對比學習影響更大。
  • 3.因為我們在無監督學習當中沒有有效的分類標簽,所以傳統的解決長尾問題的方法可能并不奏效。(大約隱含的就是還是得需要我們來解決這個問題)

2.使用方法(包含解決思路)

  • 1.使用傳統的simCLR的結構,最后也接正常的對比損失函數。
  • 2.由于剪枝很容易剪掉不經常出現的長尾數據,這樣就導致我們可以借助這個特點發現長尾數據。
  • 3.我們通過剪枝獲得不同的模型,這個模型忘記了長尾數據,之后使用對比損失函數讓他和原來的網絡拉近一點。這個拉近的過程其實就無形的強化了長尾數據。

總結

以上是生活随笔為你收集整理的对比学习系列论文SDCLR(一)-Self-Damaging Contrastive Learning论文的概括的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。