自监督(对比学习)资料
一文梳理無監督對比學習(MoCo/SimCLR/SwAV/BYOL/SimSiam)(微信推文)
自監督學習(Self-Supervised Learning) 2018-2020年發展綜述(微信推文)
對比學習(Contrastive Learning)綜述(知乎)
綜述文獻:
2020TPAMI-Self-supervised Visual Feature Learning with Deep Neural Networks- A Survey
2020-A Survey on Semi-, Self- and Unsupervised Learning for Image Classification
幾個經典的自監督學習模型:
SimLCR
Chen Ting et al.ICML2020.
結論:
數據增強對表征學習的影響很大,有難度的增強的方法可以使表征學得更好;
batch size越大(即負樣本越多),表征學習效果越好;
nonlinear projection head有助于提升表征學習質量。
MoCo
Kaiming He et al. CVPR2020.
提出momentum encoder,把batch size和queue size解耦,避免大的batch size,也不需要memory bank去存儲所有編碼好的樣本了。
BYOL (Bootstrap Your Own Latent)
前人的工作是用同一張圖像的一個view的representation去predict另一個view的representation,但這樣做容易出現退化解(collapsed solutions, e.g., outputting the same vector for all images),因為很多時候,representation具有view invariance。為了避免退化解,前人的做法是加上negative pair。但是這樣就需要較多的negative examples,使得某些negative examples比較接近positive example,to make the discrimination task challenging.
這篇論文的目的是,能不能去除negative pair,同時避免退化解。
作者發現如果把其中一個encoder變成隨機初始化的固定下來(stop gradient),讓另一個encoder的表征和固定住權重的encoder的表征相互靠近,效果就能達到18.8%的準確率。
然后作者把 “固定住權重” 改為 “權重以momentum的方式更新”。
SwAV
motivation是去除負樣本。
對各類樣本進行聚類,得到聚類中心,根據每個樣本與所有聚類中心的距離,得到樣本的新的表示,用這種表示去做對比。
SimSiam
This method can be thought of as:
“BYOL without the momentum encoder”
“SimCLR without negative pairs”
“SwAV without online clustering”
總結
以上是生活随笔為你收集整理的自监督(对比学习)资料的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 民间故事120篇推荐
- 下一篇: 洋气的网名145个