日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【NLP】ACL2020 | 词向量性别偏见

發布時間:2025/3/8 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【NLP】ACL2020 | 词向量性别偏见 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

作者?| Salesforce?Research? 編譯 |?NewBeeNLP

ACL2020關于詞嵌入性別偏見的蠻有意思的一項工作:
論文地址:https://arxiv.org/abs/2005.00965
代碼地址:https://github.com/uvavision/Double-Hard-Debias

TL; DR

從人類生成的語料庫中學習到的單詞嵌入繼承了強烈的「性別偏見(gender bias)」,并且會通過下游模型進一步放大。我們發現諸如單詞頻率之類的語料庫規則會對現有的post-hoc debiasing算法產生負面影響,并建議在推斷和刪除性別子空間之前針對此類語料庫規則來凈化詞向量。

詞嵌入中的性別偏見

詞嵌入是詞匯表中單詞的向量表示,它們能夠捕獲單詞的語義和句法含義以及與其他單詞的關系。盡管在自然語言處理(NLP)任務中廣泛使用了詞嵌入,但由于其從訓練語料庫中繼承了意想不到的性別偏見,因此飽受批評。如論文中所討論的(Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[1]),我們認為一個單詞在定義上與性別無關但其學習的嵌入更接近于某個性別時,這就產生了性別偏見。例如,在下圖中, 軸是對「他(he)」「她(she)」 兩個詞的嵌入之間差異的投影,而 軸是在嵌入過程中捕獲性別中立性的方向,與性別無關的位于上半部分,而與性別有關的詞位于下半部分。盡管從定義上說,brilliant和genius不分性別,但它們的embedding更加接近男性(he)。同樣,homemaker和sewing與女性(her)聯系更緊密。

為什么性別偏見如此重要?

詞嵌入中的性別偏見是一個嚴重的問題。想象一下,人們基于有偏詞嵌入開發了一個簡歷過濾模型。該模型可以潛在地過濾掉像程序員這樣的職位的女性候選人,也可以排除像理發店這樣的職位的男性候選人。同樣,當QA模型被用于解析醫學報告時,如果將醫生全部默認為男性而護士全部默認為女性的則很大可能會提供錯誤的答案。

早期的硬Debias方法

先前的工作[1]通過后處理(post-processing)從詞嵌入中減去與性別相關的成分,從而減少了性別偏見。具體而言,它需要一組特定于性別的單詞對,并計算這些單詞對的差異向量的第一個主成分作為嵌入空間中的性別方向。其次,它將有偏見的詞嵌入投射到與推斷的性別方向正交的子空間中,以消除性別偏見。雖然證明了這種方法可以緩解單詞類比任務中的性別偏見,但這篇論文(Lipstick on a Pig: Debiasing Methods Cover up Systematic Gender Biases in Word Embeddings But do not Remove Them[2])認為這些努力的效果是有限的,因為性別偏見仍然可以從去偏后的嵌入幾何圖中恢復。

詞頻會扭曲性別傾向

在某種情況下,我們假設很難以現有的「Hard Debias」方法所采用的方式來識別單詞嵌入的真實性別方向。參考資料[3]和[4]表明詞頻顯著影響詞嵌入的幾何形狀。例如,流行詞和稀有詞聚集在嵌入空間的不同子區域中,盡管事實上這些詞在語義上并不相似。這可能會對識別性別方向的過程產生負面影響,并因此降低“硬性偏見”消除性別偏見的能力。我們通過經驗證明,某些單詞的頻率變化會導致相應差異向量與其他差異向量之間的相似性發生重大變化,如下圖所示。

雙重硬性偏差:通過消除頻率影響來改善硬性偏差

由于單詞頻率會扭曲性別方向,因此我們建議使用「Double-Hard Debias」消除單詞頻率的負面影響。關鍵思想是在應用Hard Debias之前將單詞嵌入投影到intermediate subspace?;叵胍幌?#xff0c;Hard Debias通過將嵌入空間轉換為無性別的空間來減少性別偏見。同樣,在Double-Hard Debias中,我們首先將所有單詞嵌入轉換為「無頻率子空間」,在該子空間中,我們能夠計算出更準確的性別方向。更具體地說,我們嘗試找到對頻率信息進行編碼的維度,該頻率信息分散了性別方向的計算。然后,我們沿著字詞嵌入的這個特定維度投影組件,以獲得修正的嵌入,并對修正的嵌入應用Hard Debias。

為了識別此維度,我們采用top biased words的聚類作為代理,并反復測試詞嵌入的主成分。詳細步驟如下:

  • 計算所有單詞嵌入的主成分作為頻率維度候選;

  • 選擇一組最偏(top-biased)的男性和女性詞匯(例如,程序員,家庭主婦,游戲,舞蹈等);

  • 對沒有候選維度 分別重讀步驟4-6;

  • 投影嵌入(embedding)到與 正交的中間空間中,從而獲得經過修正的嵌入;

  • 對修正的嵌入應用 Hard Debias;

  • 對選定的top biased詞的debiased embedding進行聚類,并計算聚類精度。

  • 如果步驟6中的聚類算法仍將有偏見的詞聚類為與性別對齊的兩組,則意味著刪除 不能改善去偏性。因此,我們選擇導致有偏詞聚類準確性下降幅度最大的 并將其刪除。

    Double-Hard Debias的表現如何?

    我們在幾個bias mitigation基準上評估Double-Hard Debias,包括重要的下游任務--conference resolution。我們使用 WinoBias數據集來量化性別偏見。WinoBias由兩種類型的句子組成。每種類型的句子可以分為pro-stereotype子集和anti stereotype子集,性別是這兩個子集之間的唯一區別。類型1句子中的一個示例包含一個定型觀念句子:「The physician hired the secretary because he was overwhelmed with clients」。還有一個反刻板印象的句子:「The physician hired the secretary because she was overwhelmed with clients」。前定型和反定型之間的性能差異反映了共指系統在男性和女性群體中的表現差異。因此,我們將此差距視為性別偏見得分。最初的GloVe嵌入帶有明顯的性別偏見,因為我們可以看到兩種類型的句子的性能差距分別達到29點和15點。與Hard Debias和其他最新的debiasing方法相比,我們的方法在兩種共指句子中都實現了最小的差異。同時,Double-Hard Debias還保留了詞嵌入中有用的語義信息。在原始測試集上,我們僅觀察到F1分數下降了0.1%。

    我們還對所有前500個有偏見的女性和男性嵌入進行tSNE預測。如下圖所示,原始的GloVe嵌入明顯投影到了不同的區域,表明強烈的性別偏見。與其他方法相比,Double-Hard GloVe最大程度地混合了男性和女性的嵌入,顯示出在消除偏見后可以捕獲到較少的性別信息。

    結論

    我們發現單詞頻率統計信息的簡單變化可能會對用于消除單詞嵌入中性別偏見的去偏方法產生不良影響。盡管迄今為止在以前的性別偏見減少工作中都忽略了詞頻統計,但是我們提出了Double-Hard Debias,它減輕了詞頻特征對去偏算法的負面影響。我們認為,提供公平實用的單詞嵌入很重要,希望這項工作能夠激發沿這個方向的進一步研究。

    本文參考資料

    [1]

    Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings: https://arxiv.org/abs/1607.06520

    [2]

    [Lipstick on a Pig: Debiasing Methods Cover up Systematic Gender Biases in Word Embeddings But do not Remove Them: https://arxiv.org/abs/1903.03862

    -?END?-

    往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯獲取一折本站知識星球優惠券,復制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群請掃碼進群:

    總結

    以上是生活随笔為你收集整理的【NLP】ACL2020 | 词向量性别偏见的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。