NAACL’21 | 来看如何让模型学会因为所以但是如果
文 | Eleanor
編 | 戲
有一些標準考試那是真的難,難到能分分鐘教你做人。對于留學黨來說,申請法學博士需要 LSAT 考試成績、申請商學院需要 GMAT 考試成績。這些標準考試到底有多難,大概考過的都懂8(嚶嚶嚶_(:з」∠)_)
要想在這些考試中取得高分,需要有很強的理解和分析復雜文本的能力。而具體而言,這類復雜文本可以被稱作論證文本,英文叫做 Argument。什么是 Argument 呢?最簡單的形式,有前提(Premise),有結論(Conclusion) 就叫做 Argument。更復雜的 Argument,按照哲學家圖爾敏提出的模型,還能包括數據(Datum)、支撐(Backing)、限定(qualifier)、反駁(rebuttal)等等[3]。
那么,怎么理解和分析 Argument ?那就需要邏輯推理能力了。那那那,如何才能擁有邏輯推理能力?其實就得先學會看文章里的邏輯結構,哪里是前提,哪里是結論,哪里是在表達觀點,哪里又是列出證據對觀點進行了佐證。這么復雜的任務,人類考生都說難,模型要咋做呢?
今天介紹的這篇被 NAACL 2021 收錄的論文提出了一個回答邏輯推理問題的模型。讓我們一起來看看它是如何看懂文章中的邏輯結構的吧~
論文題目:
DAGN: Discourse-Aware Graph Network for Logical Reasoning
論文鏈接:
https://arxiv.org/pdf/2103.14349
Arxiv訪問慢的小伙伴也可以在 【夕小瑤的賣萌屋】訂閱號后臺回復關鍵詞 【0427】 下載論文PDF~
1 論文概述
論文提出了一個解決邏輯推理的問答模型 DAGN。由于這些邏輯推理問題往往不提供任何的邏輯結構的提示,因而為了理解其中的邏輯關系,論文的模型引入了一種新的構建文本的邏輯結構的方法,即利用文本中的篇章關系(Discourse Relation)構建邏輯圖。
這一方法的好處是能夠捕捉文本級別的關系(Passage-Level Relations),例如句子之間的關系、主句與從句之間的關系、文本片段之間的關系等。如此一來,文本中的前提-結論,證據-觀點等等關系,就能反映在邏輯圖上了。
這樣的建圖方式,相比于以往的基于實體關系、句子依存關系的建圖方式,顯然要更適用于這一類邏輯推理任務。在構建邏輯圖之后,模型就能夠對文本信息進行類似于數學運算一樣的離散化操作了。在這里模型使用了圖神經網絡來進行圖計算,更新之后的圖節點特征,反映了邏輯推理下的文本特征。DAGN 長這樣:
2 基于篇章關系的邏輯圖構建
為了發現文本中的篇章關系,論文參考了大型的篇章關系語料庫——賓州篇章樹庫(Penn Discourse TreeBank, PDTB)[4]。根據 PDTB 的定義,在文本中大致能找到兩類篇章關系:一類由文本中的顯式連接詞(Explicit Connectives) 標記出來;另一類缺乏顯式連接詞的,需要通過上下文隱式地表明,稱之為隱式連接詞(Implicit Connectives)。這種隱式的上下文關系往往存在于兩個句子之間,或者同一個句子的兩個子句之間。根據 PDTB 的定義,論文定義了兩類篇章關系的標記:(1)所有在 PDTB 2.0 中被標記的顯式連接詞(2)幾個常用的分句的標點符號(例如:句號,逗號,冒號,分號等)。
在找到文本中所有的篇章關系之后,論文將文本根據篇章關系分割成若干個文本片段。這些文本片段被稱為基本篇章單元(elementary discourse units, EDUs),它們作為邏輯推理的基本單元參與到推理的過程中。于是,每一個 EDU 作為邏輯圖的一個節點,而篇章關系則作為邏輯圖的邊。邊的類別共兩種,一種是顯式連接詞所代表的關系,另一種是標點符號所代表的關系。邊的連接采用最簡單有效的方式:每兩個在文本中相鄰的 EDU 之間以界定它們的篇章關系相連,并且邊的連接是雙向的。
因而,邏輯圖實際上可以看作鏈狀圖。實驗證明這種簡單的構圖方式是有效的。建圖的例子展示在模型圖的第(1)部分。
3 識別篇章關系的圖神經網絡
首先初始化圖節點的特征,由于圖節點就是文本中的 EDU,因此需要對 EDU 進行編碼。模型首先使用預訓練的語言模型獲得每一個字符的基于上下文的編碼,然后將同一個 EDU 之內的字符編碼相加,獲得 EDU 的編碼。
然后,通過圖神經網絡進行信息傳遞的計算,更新圖節點的特征。圖計算參考了解決數學計算問題的 NumNet[5]。模型首先通過一個線性變換和一個激活層計算每一個圖節點的權重 ,然后通過這一權重進行信息傳遞的計算
一次傳遞后節點特征的更新為
再經過若干次的信息傳遞和節點特征更新之后,節點的 EDU 特征與對應位置的初始字符特征相加,最后經過分類器,選擇出認為正確的選項。
4 實驗驗證
模型的驗證在兩個邏輯推理問答數據集 ReClor 和 LogiQA 上進行。這兩個數據集都是多選題的形式,評價指標為的準確率。在表格所展示的實驗結果中,DAGN 以 RoBERTa-Large 作為預訓練的模型。DAGN 在兩個數據集上的實驗結果分別如下:
截止到 2020年11月17日,DAGN 在 ReClor 的排行榜上位列第一。
5 消融實驗
消融實驗部分討論了建圖方式以及圖推理計算。實驗結果表明,若去掉顯式的篇章連接詞,只采用分句的標點符號作為界定符,使得邏輯圖的節點不再是準確的 EDU ,而是更大單元的句子或者子句時,模型的性能有所下降。
此外,減少邊的類別或者改變邊的連接方式,對模型性能也有較大影響。尤其是當邊的連接方式變為節點之間的全連接時,模型性能顯著下降。由此證明,本文的建圖方式對于邏輯推理具有比較高的合理性。另一方面,實驗結果也表明,如果去掉模型中的圖推理部分,模型的性能也會明顯下降。
6 總結
論文提出了一個解決邏輯推理的問答模型 DAGN。DAGN 利用文本中的篇章關系構建邏輯圖并使用圖神經網絡進行邏輯推理。建圖的方式雖然簡單,但是有效。這種利用文本中的篇章關系去表示邏輯關系的思路,非常有意思,說不定可以借鑒到其他問題上~
尋求報道、約稿、文案投放:
添加微信xixiaoyao-1,備注“商務合作”
后臺回復關鍵詞【入群】
加入賣萌屋NLP/IR/Rec與求職討論群
后臺回復關鍵詞【頂會】
獲取ACL、CIKM等各大頂會論文集!
?
[1].Yu et al. ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning. In ICLR 2020.
[2].Liu et al. LogiQA: A Challenge Dataset for Machine Reading Comprehension with Logical Reasoning. In IJCAI 2020.
[3].https://en.wikipedia.org/wiki/Stephen_Toulmin.
[4].Prasad et al. The Penn Discourse TreeBank 2.0. In LREC 2008.
[5].Ran et al. NumNet: Machine Reading Comprehension with Numerical Reasoning. In EMNLP 2019.
總結
以上是生活随笔為你收集整理的NAACL’21 | 来看如何让模型学会因为所以但是如果的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 模型训练慢和显存不够怎么办?GPU加速混
- 下一篇: 还在随缘炼丹?一文带你详尽了解机器学习模