日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文浅尝 - ECIR2021 | 两种实体对齐方法的严格评估

發布時間:2024/7/5 编程问答 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文浅尝 - ECIR2021 | 两种实体对齐方法的严格评估 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

筆記整理 |?譚亦鳴,東南大學博士生



來源: ECIR 2021

在這篇工作中,作者對兩種SOTA實體對齊方法做了廣泛的研究:首先仔細分析了現有benchmark的過程,并論證了其中存在一些缺陷,使得原始方法給出的實驗結果之間可能存在不可對比的情況;另一方面,作者懷疑存在一種普遍的直接對測試集做超參數優化的處理,這種情況將會導致論文發表的實驗性能的可靠性(價值)不那么高。因此,本文篩選了一種具有代表性的benchmark數據集樣本,分析它的特征,同時,考慮到實體的表示對于系統性能的決定性影響,作者對實體表示的不同初始化方案也進行了測試。進一步的,作者使用共同的訓練/驗證/測試集在所有數據集和所有方法上進行了實驗評估,從結果上看,雖然大多數情況下,SOTA方法都優于baseline,但是當數據集包含噪聲時,則出現明顯性能下降。

首先作者對現有方法的共性做了說明:

1.大多數方法基于GNN

2.使用基于表示學習的實體名特征

3.考慮了KG中不同類型的關系(在預處理過程中聚合不同類型的關系)

基于這些共性,作者選擇了在近期工作中效果較好的關系感知-雙圖卷積網絡(RDGCN),此外,也引入了深度圖匹配共識(DGMC)出于以下兩個因素:i.前面提到的工作未提到該方法 ; ii.在該方法沒有使用關系類型信息的條件下,取得了非常好的性能。

實體對齊數據集分析:

表1列舉了目前實體對齊任務所使用的公開數據集:

DBP15K:目前最流行的對齊評價數據集,包含來自DBpedia的三個子集(語言對),數據集存在多個涵蓋共享對齊實體的變體,所有的對齊均為1->1的情況,從數據集的構建方法來看,除共享實體之外的其他實體(排他實體?exclusive entity)之間不存在關系,導致這些實體的匹配過程復雜化,在實際應用中,它們也難以被確定。因此作者認為該數據集僅在一定程度上反映了部分真實用例。此外,作為PyTorch Geometric資源的一部分,DBP15k的另一個變體具有不同的對齊實體集,這就導致了這些已發布的方法之間并不能直接的對比它們之間的性能。因此,為了解決這個問題,作者使用了一個更小的JAPE變體,每個圖譜包含19-20k實體。

OpenEA由基于度分布的采樣方法從DBpedia,YAGO以及Wikidata中獲取的KG pairs,其對齊也是1->1匹配,其中不包括exclusive entity,本文使用所有的KG pairs包含15k的實體。

WK3l15k是從維基百科提取的多語言KG pairs,作者也額外從平行三元組中抽取了對齊實體,圖譜包含補充的exclusive entity,并且存在m->n的匹配情況。作者也是使用了15k規模的樣本,每個KG包含15k左右的實體,語言對為英-德和英-法。

基于標注的初始化方法

Prepared translations:DBP15k數據集中命名實體一般先翻譯為英語,然后使用Glove進行向量化處理;

Prepared RDGCN embeddings:OpenEA考慮到DBpedia與YAGO來自相似的數據源,它們的label往往是對等的。對于這類KG pairs,作者的做法是將這些label刪去。然而RDGCN需要基于label的初始化,因此作者通過預定義的命名屬性給出屬性三元組,從而獲取label。當無法通過屬性找到label的時候則會選擇使用實體的url替代。

Multilingual-BERT:WK3l15K上并沒有實體嵌入相關的工作,因此這里作者使用M-BERT預訓練模型處理這個部分,并使用最后四層之和為字符表示,并研究了總和,均值以及最大聚合作為超參數的情況。

實體對齊方法

本文主要評估了兩種對齊方法:RDGCN以及DGMC。

與所有GNN方法類似,兩個模型均采用了Siamese體系,因此對于所有的KG都使用了相同的模型以及相同的權重處理實體向量表示。得到實體表示之后,對齊方法計算一個affinity矩陣用于描述兩個圖譜上的實體之間的相似度。

RDGCN

RDGCN模型包括:

1.relation-aware message passing;

模型學習關系的重要性,并對由這些關系連接的對應實體的信息進行加權。

包含四個步驟(:

a.從實體表示獲取關系文本,對于每個關系提取其上下文用于連接頭尾實體平均表示;

b.DA表示對偶圖注意機制,通過ReLU激活函數計算其注意力得分;

c.更新實體的表示;

d.應用一個從初始化表示到當前實體表示的跳躍連接;

2.standard message passing

利用一個鄰接矩陣反映兩個實體之間是否存在關系。

該部分由一系列的GCN層以及highway層構成,每層都通過以下方式運算:

DGMC

DGMC也包含兩個部分:

1.enrichment

通過一系列GNN層利用鄰居信息強化實體表示:

每層的計算方式為:

2.correspondence refinement

該部分首先針對每個實體計算其他子圖中最接近的匹配,通過稀疏對應關系矩陣表示,而后對每個實體隨機生成向量,并將它們發送到可能的匹配項。

實驗

實驗設置

評價的標準使用Hits@1,衡量匹配實體top-1的準確性

考慮到過去的工作中沒有一個統一的訓練-驗證劃分,因此這里作者建立了一個標準訓練驗證測試的子集劃分(70%用于測試,24%用于訓練,6%用于驗證),從而進行一個公平對比。

作者繼續調整了每個數據集上各模型的參數設置,并采用了上述初始化方案(超參設置如表3)

模型訓練的early stop條件基于Hits@1確定,并最終選出驗證集上最好的模型進行測試比對(實驗結果見表4)

首先從zero-shot的結果看,即使是最弱的環境(openEA 39.15%),單純使用實體命名表示也是能夠具有一定的準確性,因此與不使用該信息的模型進行對比是不公平的。在DBP15k上,可以看到Wu的初始化策略比Xu要強7%-9%。

模型性能對比

可以看到兩者在三個數據集上均優于基線模型,但兩者之間卻沒有明顯的優劣差異。雖然DGMC與預期結果相比有所降低,但是在幾乎所有的DBP15K子集上,均有一定性能優勢,這論證了較小的測試集可能導致更好的實驗結果。

此外,不同的初始化也回影響模型的性能,尤其反映在DGMC(ja-en)以及GCN-Align(fr-en)。RDGCN在OpenEA子集上具有明顯優勢。

WK3L15k數據集的結果是值得關注的例外,DGMC方法的性能因其對應關系的細化而被認為對噪聲具有魯棒性,但它的性能并不優于zero-shot結果。

可以得到結論,對于基于GNN的實體對齊方法來說,其性能的主要影響還是來自超參數。

表5給出了OpenEA上對于RDGCN模型參數的消融實驗結果:


?

OpenKG

開放知識圖譜(簡稱 OpenKG)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。

點擊閱讀原文,進入 OpenKG 網站。

總結

以上是生活随笔為你收集整理的论文浅尝 - ECIR2021 | 两种实体对齐方法的严格评估的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。