日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习

發布時間:2024/7/5 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Giorgi, J. M., O. Nitski, G. D. Bader and B. Wang (2020). "DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations." arXiv preprint arXiv:2006.03659.

原文鏈接:https://arxiv.org/pdf/2006.03659

GitHub項目地址:

https://github.com/JohnGiorgi/DeCLUTR

本文提出了一個簡單并且易于實現的不對模型敏感的深度學習指標,并且該學習方法不需要任何標注的數據,損失函數為對比學習的損失函數加上MLM的損失函數。本文主要關注于對比學習在句子層面表征的應用。最近,受到CV領域的對比學習框架啟發,本文提出了一個類似于BYOL利用正樣本進行對比學習的NLP領域應用。這里注意的是編碼器是共享權重,并非權值更新。

?

模型的流程如下

1. 先從無標注的文檔中以beta分布中抽樣anchor片段,在從這一篇相同的文檔以不同的beta分布抽樣出positive樣本對。

2. 之后分別將anchor片段和positive片段經過兩個相同架構共享權值的編碼器,生成對應的token embedding。

3. 再將token embedding進行pooler操作,即將所有的token embedding平均生成同一維度的sentence embedding。

4. 計算對比學習的損失函數。,計算了兩個片段信息之間的距離。表示溫度超參。

5. 在計算出對比學習的loss之后,再加入MLM的loss,對模型進行反向梯度傳播更新參數。??????

本文的實驗結果如下

模型:DeCLUTER-small使用DistilRoBERTa預訓練模型參數為基礎,DeCLUTER-base使用RoBERTa-base預訓練模型參數為基礎。


數據集:OpenWebText corpus,有495243個至少長度為2048的文檔。


SentEval:含有28個測試數據集,氛圍Downstream和Probing。Downstream使用模型編碼出的句子嵌入來作為分類器的feature進行分類,而Probing評估模型生成的句子嵌入所還有的語義信息,比如預測動詞的時態等。

??????

總而言之,本文提出了一種利用對比學習來幫助模型更好地學習句子層面的表征。并且本文的方法十分簡單且易于實現,適用于很多模型。實驗也表明對比學習在NLP領域句子表征層面上的可行性。


?

OpenKG

開放知識圖譜(簡稱 OpenKG)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。

點擊閱讀原文,進入 OpenKG 博客。

總結

以上是生活随笔為你收集整理的论文浅尝 | DeCLUTR: 无监督文本表示的深度对比学习的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。