抽取+生成:一种基于背景知识的参考感知网络对话模型
「論文訪談間」是由 PaperWeekly 和中國中文信息學會社會媒體處理專委會(SMP)聯合發起的論文報道欄目,旨在讓國內優質論文得到更多關注和認可。
目前,對話系統(Dialogue Systems)已經在工業界和學術界引起普遍關注。序列到序列(Sequence-to-Sequence)模型被廣泛使用于相關研究中。但是這類模型傾向于生成低信息量的回復,如圖 1 所示。
▲ 圖1. 對話系統中的低信息量現象
?
近些年來,有些研究通過改進目標函數或者引入話題信息來嘗試解決這一問題,也有研究通過引入背景知識來解決這一問題,我們稱之為基于背景知識的對話。如圖 2 所示,其任務目標為同時基于外界背景知識與對話上下文,生成自然、高信息量的回復。
▲ 圖2. 基于背景知識的對話
目前,基于背景知識的對話方法可以為兩大類:生成式方法和抽取式方法。兩類方法各有優缺點。
▲ 圖3. 生成式與抽取式方法的回復
?
如圖 4 所示,生成式方法以每個時間步生成一個詞(token by token)的方式生成回復。
圖 3 給出 seq2seq+attention (S2SA) 與 seq2seq+copy(GTTP)在這一場景下生成的回復。
我們可以發現此種方法的優點是善于生成流利、自然的回復;缺點是逐詞生成的方式容易打碎一個完整的語義單元(scary movie 4 被逗號截斷),并且定位正確背景知識的能力不強。
▲ 圖4. 生成式方法
?
如圖 5 所示,抽取式方法直接從背景知識里抽取一個語義單元(span)作為回復。圖 3 給出 QANet 在此場景下的回復。可以發現此類方法的優點是定位背景知識準確;缺點是回復生硬,缺乏流利性。
▲ 圖5. 抽取式方法
針對上述研究的局限性,山東大學的陳竹敏課題組提出參考感知網絡,Reference-aware Network (RefNet),其同時結合生成式方法和抽取式方法的優點并規避其糟粕。
研究發現,RefNet 可以生成高信息量同時又不失流利的回復,并可以在自動評測與人工評測上超過現有的生成式與抽取式方法。
他們的研究成果?RefNet:A Reference-aware Network for Background Based Conversation?被人工智能頂級會議 AAAI-20 以 Oral 論文收錄。?
論文標題:RefNet: A Reference-aware Network for Background Based Conversation
論文來源:AAAI 2020
論文鏈接:https://arxiv.org/abs/1908.06449
代碼鏈接:https://github.com/ChuanMeng/RefNet
那么,RefNet 是如何建模的呢?
?
▲ 圖6. RefNet 框架
?
給定對話上下文 C(對話歷史)與背景知識 K,RefNet 的任務是生成回復?X。
如圖 6 所示,RefNet 包含了四個模塊,分別為:知識編碼器(Background Encoder)、語境編碼器(Context Encoder)、解碼選擇器(Decoding Switcher)、混合解碼器(Hybrid Decoder)。
?
其中,知識編碼器、語境編碼器分別通過雙向循環神經網絡把背景知識與對話上下文編碼成隱狀態表示。之后,二者的隱狀態表示會作為混合解碼器的輸入。
在解碼的每個時間步,解碼選擇器都會在參考解碼(Referencing Decoding)與生成解碼(GenerationDecoding)之間做出選擇;根據解碼選擇器的決定,混合解碼器要么去背景知識中抽取一個完整語義單元(參考解碼),要么生成一個詞(生成解碼)。
?
此外,在生成解碼模型下,解碼選擇器還將進一步決定具體的生成解碼方式,要么執行生成預測解碼(從預先定義的詞表中預測一個詞),要么執行生成拷貝解碼(從背景知識中拷貝一個詞)。
?
經過一定數量的解碼時間步(每個時間步均執行解碼選擇器和混合解碼器),我們可以得到最終的回復序列。回復序列將由生成解碼生成的詞與參考解碼抽取的語義單元共同按序合成。
我們具體來看解碼選擇器的實現。如圖 7 所示,在每一個時間步,解碼選擇器將預測一個在參考解碼 r,生成預測解碼 和生成拷貝解碼 上的概率分布,即 。我們將生成預測解碼概率 和生成拷貝解碼概率 加和得到生成解碼概率 P(g)。?
在訓練階段,我們可得知每個時間步應該執行參考解碼還是生成解碼,因此可引入一個解碼選擇器損失函數對解碼選擇器生成的概率分布進行監督優化。
在推理測試階段,對于每個時間步,我們首先計算 P(r) 與 ,如果 P(r)>=P(g),我們執行參考解碼從背景知識中抽取一個語義單元;如果 P(r)<P(g),我們執行生成解碼生成一個詞。
▲ 圖7. 解碼選擇器
我們再具體來看參考解碼與生成解碼的具體實現。假設當前在時間步 t 要輸出 ,執行參考解碼時,模型將從背景知識中抽取一個語義單元,即 是一個語義單元。模型將預測 的開始位置 和終止位置 ,見圖 8。
▲ 圖8. 參考解碼
執行生成解碼時,模型將生成一個詞,即當前輸出的 ?是一個詞。模型將通過生成預測解碼(從預先定義的詞表中預測一個詞)和生成拷貝解碼(從背景知識中拷貝一個詞)來共同決定,見圖 9。
?
▲ 圖9. 生成解碼
?
論文在 Holl-E 數據集上與最新的生成式與抽取式基線模型進行了自動指標評測,見圖 10。可以發現,除了在 BLEU 指標上與 AKGCM 不相上下以外,RefNet 在所有指標上顯著超過了所有生成式模型。其次,RefNet 也在大多數情況下超過了抽取式模型。
▲ 圖10. 自動指標評測
?
為了進一步增強實驗結果的說服力,論文也進行了人工評測,見圖 11。論文將 RefNet 與最強的生成式模型CaKe和最強的抽取式模型 QANet 在輸出回復的自然性(N)、信息性(N)、合適性(A)和類人性(H)4 個指標上進行評測,見圖 11。
?
實驗結果表面,RefNet 在所有指標上超過了兩個強有力的基線模型。
有意思的是,RefNet 甚至在自然性(N)上超過了最強的生成模型 CaKe,這說明 RefNet 的解碼選擇器在每個時間步對于生成和抽取的決策十分得當,使得生成的詞和抽取的語義單元以合理、自然的方式組成最終回復。
?
此外,QANet 雖然在信息性上取得了不錯的分數,但是在自然性和類人性上表現最差,這說明僅僅通過抽取的方法遠遠不能滿足對話任務的需要。
▲ 圖11. 人工評測
此外,論文還進行了分析實驗。首先,論文對比了 RefNet 在只進行生成(Force generation)或者只進行抽取(Force reference)的設置下的實驗結果,見圖 12。實驗結果說明兩種模式是互補的,二者結合起來可以進一步提升結果。
此外,RefNet 引入了一個解碼選擇器損失函數,其對解碼選擇器的輸出分布進行了監督學習以輔助模型在每個時間步對生成與抽取的選擇。因此,論文也對比了有無此損失函數的實驗結果,見圖 13。實驗結果表明,額外地監督帶來了進一步提升。
?
▲ 圖12. 分析純生成與純抽取
▲ 圖13. 分析解碼選擇器損失函數
?
論文最后比較了 RefNet 與最強的生成式模型 CaKe 與抽取式模型和 QANet 的實際輸出樣例,見圖14。
在這個樣例中,RefNet 成功定位并抽取了語義單元“$279,167,575”,并將其與自然的描述“it made”與“at the box office”進行合理地組合構成最終的回復。QANet 抽取了正確的語義單元,但是回復內容非常生硬;Cake 定位了錯誤的背景知識。
▲ 圖14. 樣例分析
總的來說,這一工作提出的 RefNet,其同時結合了生成式與抽取式方法的精華,通過解碼選擇器與混合解碼器協調并實現生成與抽取。
實驗證明 RefNet可以生成高信息量同時又不失流利的回復。RefNet 的一個限制是需要提前進行語義單元(span)的標注來實現監督學習。
所以對于未來的工作,設計一種弱監督的學習方式去自動學習語義單元的抽取很有必要,這將方便將 RefNet 移植到其他數據集與任務。
關于作者
孟川,山東大學計算機科學與技術學院研究生。研究方向為基于知識的人機對話。目前擔任 COLING 國際學術會議程序委員會委員。
任鵬杰,荷蘭阿姆斯特丹大學博士后研究員,2018年博士畢業于山東大學。主要研究方向為自然語言處理和推薦系統,已經在 TKDE, TOIS, SIGIR, WWW, AAAI, CIKM, COLING, ECAI 計算機學報等發表論文 40 余篇。
陳竹敏,山東大學計算機科學與技術學院教授。主要研究方向為信息檢索和自然語言處理,承擔國家自然科學基金等項目 13 項,在 SIGIR, WWW, AAAI, CIKM, COLING, WSDM, ECAI 等國際會議,及 TKDE, TOIS, JASIST, IRJ 計算機學報等國際期刊上發表論文 80 余篇。
Christof Monz,荷蘭阿姆斯特丹大學副教授,主要研究方向為自然語言處理,目前擔任荷蘭阿姆斯特丹大學語言技術實驗室主任,已經發表論文 100 余篇。
馬軍,山東大學計算機科學與技術學院教授。中國中文信息學會理事,中國計算機學會理論專委會理事,大數據專委會委員,社會媒體處理專委會常務委員,中文信息檢索專委會委員,中文信息技術專委會委員。主要研究方向為信息檢索和推薦系統,承擔國家自然科學基金等項目 20 余項,已經發表論文 200 余篇。
Maarten de Rijke,荷蘭皇家藝術與科學院院士,荷蘭阿姆斯特丹大學教授。他在信息檢索、機器學習、自然語言處理和數據挖掘的頂級會議和期刊上共發表了 670 篇文章,其中包括 SIGIR、WWW、KDD,ICML, NIPS,ACL,ACM TOIS ?和 IEEE TKDE。特別是在專家發現,在線學習, 模態邏輯以及問答系統領域做出了卓越貢獻。Maarten de Rijke 還多次擔任信息檢索領域各種會議的大會或程序委員會主席,其中包括 SIGIR, WWW, WSDM和CIKM等。
點擊以下標題查看更多往期內容:?
圖神經網絡時代的深度聚類
基于權重共享的神經網絡搜索統一方法
漫談強化學習中的引導搜索策略
?NAS+目標檢測:AI設計的目標檢測模型長啥樣?
ICLR 2020 | GAN是否真的判斷出了數據的真假?
二值神經網絡最新綜述
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的抽取+生成:一种基于背景知识的参考感知网络对话模型的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 发面放烤箱需多少度?
- 下一篇: 一文读懂领域迁移与领域适应的常见方法