日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings

發布時間:2023/12/8 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
  • 文獻閱讀:SimCSE:Simple Contrastive Learning of Sentence Embeddings
    • 1. 文獻內容簡介
    • 2. 主要方法介紹
    • 3. 主要實驗介紹
      • 1. STS Experiment
      • 2. Downsteam Experiment
    • 4. 討論
      • 1. loss function考察
      • 2. 其他正例構造方式考察
      • 3. 消解實驗
    • 5. 結論 & 思考

文獻鏈接:https://arxiv.org/abs/2104.08821v2

1. 文獻內容簡介

這篇文章將對比學習引入到了sentence embedding的學習過程當中。

主要思路感覺還是接著之前的SentenceBert一脈相承的(這部分內容我之前也寫過一個小博客《文獻閱讀:Sentence-BERT:Sentence Embeddings using Siamese BERT-Networks》進行過介紹),主體還是使用的Bert或者Roberta模型,但是不同于sentence bert的截斷遷移,這里采用的方式是通過引入對比學習來直接對sentence embedding進行學習,從而達到一個更好的效果。

2. 主要方法介紹

如前所述,這里的核心方法在于引入度量學習從而可以直接對sentence embedding進行學習。

不過這樣的方法帶來的問題在于說數據的準備,對比學習需要在數據上準備好正負例,但是這個缺乏直接的訓練數據。

比較標準的范式就是自己去通過一些簡單的方法來構造一些偽正負例,比如說刪詞、加詞、換序、雙向翻譯這類比較常規的操作,但是這篇文章里面提出了一種新型的正負例構造的方式,也就是標題中所說的SimCSE方法。

其思路異常的簡單,就是同一條數據過兩次模型,由于dropout的隨機性導致兩個計算結果會有一定的不一致,然后將這兩個結果作為正例對,而batch當中的其他所有的結果作為負例對,從而就完成了正負例的構建,然后就可以進行計算了。

3. 主要實驗介紹

1. STS Experiment

這部分實驗主要就是考察sentence embedding的直接表現??疾旆绞胶椭皫灼墨I的方法一致,就是考察一下STS數據集在spear correlation的性能表現,得到結果如下:

可以看到,基本就是碾壓局,而且提升的點還挺多的。

2. Downsteam Experiment

另一方面,SimCSE finetune之后得到的模型在下游分類任務當中的性能表達也不錯。

該文獻同樣在下游一些分類任務當中的結果如下:

可以看到,即使放到下游任務當中,SimCSE依然可以得到很好的性能表現。

4. 討論

但是,雖然上述實驗結果顯示SimCSE方法在結果上展現了很高的優越性,但是其何以如此優秀依然是一個值得討論的問題。

對此,文獻中也進行了一定的考察。

1. loss function考察

首先,考察文獻中對于loss function的定義,其具體的表達式如下:

L=?logesim(hizi,hizi′)/τ∑j=1Nesim(hizi,hjzj′)/τL = - log \frac{e^{sim(h_i^{z_i}, h_{i}^{z_i'})/\tau}}{\sum_{j=1}^N e^{sim(h_i^{z_i}, h_{j}^{z_j'})/\tau}}L=?logj=1N?esim(hizi??,hjzj??)/τesim(hizi??,hizi??)/τ?

這個loss function的定義事實上就我所知算是現階段對比學習比較慣用的一個定義了,文獻中對于這個公式的有效性方面進行了一定的討論。

具體而言,上述loss函數可以展開為:

L=?1τE[f(x)T?f(x+)]+E[logE[ef(xT?f(x?)/τ)]]L = -\frac{1}{\tau} E[f(x)^T \cdot f(x^+)] + E[log E[e^{f(x^T \cdot f(x^-)/\tau)}]]L=?τ1?E[f(x)T?f(x+)]+E[logE[ef(xT?f(x?)/τ)]]

其中,前者可以用于保證alignment,即正例之間的相似性,而后者則可以用于保證uniformity,即正例與負例之間的相異性以及在整個表示空間當中embedding的分布均勻性。

而實際在結果的表現當中,文獻中也給出了不同方法在alignment以及uniformity的性能表達如下:

可以看到,SimCSE在alignment以及uniformity方面是比較均衡的。

2. 其他正例構造方式考察

但是,如前所述,這個loss函數的定義事實上算是對比學習的常用定義了,并不算什么新穎的東西,該文獻最新穎的技術點還是在于兩次dropout的正例對的定義方式,但是,這樣的構造方式是否真的較之其他的實驗方法會更有效呢?

文中同樣給出了不同的正例構造方式下模型在STS數據集下的性能表達,具體如下表所示:

可以看到,較之其他的整理構造方式,SimCSE同樣具有更好的性能表達。

3. 消解實驗

最后,文獻還做了一些消解實驗來看一下一些基礎的因子對實驗結果的影響,具體如下兩表所示:

不過整體而言,上述內容顯示batch size、MLM以及sentence embedding的選擇方面都會對結果產生一定的影響,但是影響事實上都不是特別顯著,唯一值得一提的可能就是batch size,其大小選擇需要保持適中,不要太大也不要太小。

5. 結論 & 思考

這篇文獻對我而言最大的意義在于提供了一種新型的表征學習的方式,以及在缺乏優質的標注數據的情況下進行自監督學習的方式,在如今數據為王的時代下,能夠有效的擴展并利用好數據無疑有著巨大的意義。

因此,我也是在推薦場景下借鑒上文的思路進行了一些實驗,值得一提的是,在看文獻的時候事實上我就存在著一個疑問,即我不奇怪SimCSE能夠學到很好的uniformity,但是對于alignment的學習我始終抱有一定的疑惑,因為事實上他的正例對是通過dropout進行構建的,本質而言都是他自己,僅在參數上進行了生成靠近,但是這無法學習到跨輸入的相似性,對于兩個相似的句子,只能通過全局的loss最小化的方式進行間接的學習。

因此,我事實上對于上文能夠在alignment方面獲取較好的效果是比較驚訝的,實際進行實驗之后發現,如果直接從0開始訓練,上文的方式在alignment方面確實效果不佳,盡在uniformity方面獲得了較好的性能表達,但是,如果基于已經pretrain之后的模型在進行finetune,上述問題看起來似乎是可以解決的,至少在我這邊的實驗結果,看起來無論是本身的embedding表達還是在下游的recall以及ranker模型當中,都超越了之前的baseline,似乎還是可以的。

總結

以上是生活随笔為你收集整理的文献阅读:SimCSE:Simple Contrastive Learning of Sentence Embeddings的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。