日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

从ICLR 2020、AAAI 2020看对话系统近期研究进展

發布時間:2024/10/8 58 豆豆
生活随笔 收集整理的這篇文章主要介紹了 从ICLR 2020、AAAI 2020看对话系统近期研究进展 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?PaperWeekly 原創 ·?作者|王馨月

學校|四川大學本科生

研究方向|自然語言處理

本文盤點近期 ICLR 2020、AAAI 2020 上幾篇對話系統相關的論文。

ICLR 2020

論文標題:Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue

論文來源:ICLR 2020

論文鏈接:https://arxiv.org/abs/2002.07510

代碼鏈接:https://github.com/bckim92/sequential-knowledge-transformer

基于知識是一項結合上下文和外部知識生成有效回復的任務,一般通過更好地建模多輪基于知識的對話中的知識來提升。主要分為兩步:1)知識選擇;2)根據選擇出的知識以及上下文生成回應。不同于 TextQA 任務,基于知識的對話系統中上下文與要選擇的知識之間是一對多的關系。

因此,文章將序列潛在變量模型引入知識選擇過程,提出了 sequential knowledge transformer (SKT)。將知識選擇看作序列決策過程,根據多輪的潛在變量,聯合推斷出要選擇的知識,因此不僅能減少知識提取的多樣化造成的歧義,還能夠促使回復過程選擇合適的知識。在 Wizard of Wikipedia 上達成 SOTA 性能。

模型由三部分構成:句子編碼器用 BERT 和 average pooling 實現;序列知識選擇用 SKT 實現;解碼器用 Transformer 的 Decoder 結合 Copy 機制實現。

文章的核心在于 SKT 模型,如圖所示是模型在 t=3(迭代到第三輪對話)的狀態。

模型首先通過后驗知識推斷出前 t-1 輪選取的知識,再通過先驗知識分布推斷出 t 輪選取的知識并根據推斷出的知識生成回應。其中 代表 encoder, 為先驗知識分布, 為后驗知識分布。

作者在 Wizard of Wikipedia 和 Holl-E 上進行了實驗,結果如下:

作者在結論中指出,在基于知識的多輪對話知識提取中還有一些可能的研究方向,比如利用 filtering variational objectives 的序列蒙特卡洛推斷模型,以及探究知識選擇的可解釋性等。

ICLR 2020

論文標題:Low-Resource Knowledge-Grounded Dialogue Generation

論文來源:ICLR 2020

論文鏈接:https://arxiv.org/abs/2002.10348

在開放域對話系統中,目前大多數模型只能擬合小規模訓練數據,而基于知識對話的知識也很難獲取。因此,文章在缺少資源的假定下,設計了 disentangled response decoder,將依賴于基于知識的對話的參數從整個模型中分離分離。

通過這種方法,模型的主要部分可以從大規模的非真實對話以及非結構化文本中訓練,而其余的很少一部分參數則可以用有限的訓練數據擬合。在兩個基準上實驗的結果顯示只用 1/8 的訓練數據,模型就能達到 SOTA 性能并生成很好的跨領域知識。

文章將生成回應的問題分解為 3 個不相關的行為:1) 根據已生成的部分選擇合適的詞使得句子語法正確(符合語言模型);2) 根據上下文選擇合適的詞使得對話連貫(符合上下文處理器);3) 根據對話基礎上的外部知識選擇合適的詞(符合知識處理器)。

這三個步驟可以獨立地學習,據此,文章提出了如圖所示的生成模型:

相較傳統模型,主要的區別在作者通過將 decoding 過程分解為一個語言模型、一個上下文處理器、一個知識處理器,以模擬上述三個步驟。

作者在 encoding 過程使用 RNN+GRU 得到句子的隱藏向量序列 ,作為 decoding 過程上下文處理器的輸入;通過雙向 GRU 得到文本的表示 ,作為decoding過程知識處理器的輸入。

值得注意的是,模型并不像一般的 Transformer 模型在 encoding 過程通過 attention 機制來選擇知識,而是將這一步留在 decoding 過程,這能去除上下文編碼和知識編碼間的依賴。

Decoder 中將隱藏序列 根據 t-1 步驟的預測 word embedding 定義為 。將三個部分定義如下:

  • 語言模型:語言模型基于 通過一個 MLP 進行詞的預測。

  • 上下文處理器:通過一個 MLP 結合注意力分布權衡預測單詞來自詞匯表或上下文。

  • 知識處理器:知識處理器通過多層注意力機制(此處使用了 sentence-level 和 word-level)通過和上下文處理器類似的方式預測單詞。

最終通過 gumbel softmax 計算三個部分的參數。

作者在 Test Seen of Wizard 和 CMU_DoG 上進行的實驗結果如下:

此外,作者還探討了對使用固定參數還是 fine-tune 效果更好進行了實驗。結果顯示,當數據量較小(<5K)時,用固定參數效果更好,而數據量較大時,fine-tuning 則可以進一步提升模型表現。

AAAI 2020

論文標題:A Pre-training Based Personalized Dialogue Generation Model with Persona-sparse Data

論文來源:AAAI 2020

論文鏈接:https://arxiv.org/abs/1911.04700

在這篇文章中,作者指出,讓模型生成更加 human-like 的回復是對話系統中非常重要的問題,但由于自然語言中難以適當地添加角色信息,且真實生活中大多數對話中是缺少角色信息的(persona-sparse),使得這一問題更加艱難。

而角色信息相關的數據集如 PERSONA-CHAT,則由于構造時對話者被要求在很少輪中顯示性格而包含了過多個人信息(persona-dense),這一點不符合真實情況。

針對這一問題作者提出了可以在 persona-sparse 數據集上訓練的預訓練模型,并提出了一種注意力路由機制(attention routing mechanism)以在 decoder 中動態預測權重。實驗結果顯示此模型可以很好地生成連貫且 persona-related 的回應。

模型框架如圖:

其中,人物信息 是一個包含性別、位置、興趣標簽信息的鍵值對集合 ; 為對話-人物信息集合 。Encoder 和 decoder 按照 Transformer 架構實現。 和 經過 encoder 變為 和 ,作為 Decoder 的輸入,通過注意力路由機制得到的權重 merge。

如上圖,在 encoding 過程中作者將不同信息的 embedding 加在一起作為每個單詞最終的 embedding,通過encoder得到 ,同種方法將 的每個鍵值對組成一個句子序列 embedding 得到 。

而在 Decoder 中的 Attention Routing 的實現機制是:將 multi-head attention 的每一組操作視作一個 attention route,因此,對目標任務信息 、對話上下文 和上一輪編碼的 token 分別有:

作者又根據 設置了一個 0 到 1 之間的參數 ,用以調整 feature 的權重。參數 通過訓練時使用一個二分分類器,判斷回復是否 persona 來實現。可以看出 越大, 的占比越大。最終得到混合輸出:

訓練數據集 PersonalDialog 來自微博。實驗結果隨 的變化如圖所示:

作者在文中還給出了模型的 case study,可以參考。

AAAI 2020

論文標題:End-to-End Trainable Non-Collaborative Dialog System

論文來源:AAAI 2020

論文鏈接:https://arxiv.org/abs/1911.10742

本文主要針對非協作設定(如協商或勸導)下的對話中用戶和系統不具備相同目標的問題,引入了 hierarchical intent annotation scheme,基于 TransferTransfo 構建了一個端到端的神經網絡模型 MISSA (Multiple Intents and Semantic Slots Annotation Neural Network)。

作者還基于模型開發了一個防詐騙對話系統以及一個說服對話系統以說服人們做公益等。并創建了數據集 ANTISCAM。

GitLab:https://gitlab.com/ucdavisnlp/antiscam

MISSA 在 ANTISCAM 數據集的訓練過程如上圖所示。作者在 TransferTransfo 的基礎上主要做的改變為:

1) 由于 TransferTransfo 原本用于沒有意圖的開放域對話,作者加入了兩個 intent classifier 和兩個 semantic slot classifier;2) 為增加回復的多樣性,根據 nucleus 采樣策略設計了一個 filter 根據預設的規則對生成的回復進行采樣。

TramsferTransfo: Transformer 模型在對話生成方面的應用,將 Transformer 的 segement embedding 變為 dialogue state embedding 以標注意圖和對話狀態。

第 t 輪的 Intent classifier 和 semantic slot classifier 根據第 t-1 輪的最后一句的最后一個隱藏狀態和第 t 輪第 i 個句子的最后一個隱藏狀態加權求 Softmax 得到。

在訓練過程中,作者在每句話結尾設置了一個 token < sep >?。并在系統回應的橘子開頭設置?token?< pos_ans >。

作者在 ANTISCAM 和 PERSUASIONFORGOOD 數據集上進行了實驗,結果如下(其中 MISSA-sel 是 MISSA 去除回應 filter,MISSA-con 是 MISSA 去除回應開頭的 intent token):

ICLR 2020

論文標題:Augmenting Non-Collaborative Dialog Systems with Explicit Semantic and Strategic Dialog History

論文來源:ICLR 2020

論文鏈接:https://arxiv.org/abs/1909.13425

這篇文章同樣是針對 Non-collabratibe 的情況,提出了利用有窮狀態轉換器(finite state transducers, FSTs)構造的模型 FeHED (FST-enhanced hierarchical encoder-decoder model),用于建模對話中的語義和策略 history。

如下圖所示,FeHED 模型主要由四個部分組成:一個對話動作分類器、一個策略分類器、兩個 FST(FST-DA/S),以及一個層次 encoder-decoder 模型(HED)。

對話動作分類器和策略分類器的輸出作為 FSTs 的輸入,FSTs 的輸出結合 utterance embedding 作為 HED 的輸入,最終 HED 生成下一輪的策略和 utterance。

作者在 CraigslistBargain 和 Persuasion For Good 數據集上進行了實驗,結果如下。

這篇文章將有窮狀態轉換器用在規則和對話狀態的轉換,相較于 hidden states只能描述語義 history 而言,將 FSTs 用在多輪對話也是一種有意義的新思路。

數據集

AAAI 2020 上 Google 團隊發表了一篇論文 Towards Scalable Multi-Domain Conversational Agents: The Schema-Guided Dialogue Dataset,介紹了數據集 SGD (Schema-Guided Dialogue)。

研究團隊稱 SGD 數據集是目前公開可用的最大的任務型對話數據集,包含 16k 多領域對話數據,數據集也為每個領域提供了多個 API。

論文標題:Towards Scalable Multi-Domain Conversational Agents: The Schema-Guided Dialogue Dataset

論文來源:AAAI 2020

論文鏈接:https://arxiv.org/abs/1909.05855

GitHub:https://github.com/google-research-datasets/dstc8-schema-guided-dialogue

還有一篇 ACL 2020 上的論文 KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation 中介紹的 KdConv 數據集,包含影視、音樂、旅游方面的共計 4.5K 的多輪對話數據集。

論文標題:KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation

論文來源:ACL 2020

論文鏈接:https://arxiv.org/abs/2004.04100

GitHub:https://github.com/thu-coai/KdConv

總結

對話系統的論文數量雖然在各個會議中占比不算很高,但可以看出,還是有一些很有趣的想法。比如在第一篇文章中對 latent variable model 進行改進在解決回復多樣性的同時使得知識選擇更加準確。

而在第二篇文章中針對低資源的問題將語言模型、上下文與知識分離開,使得僅用 1/8 真實數據情況就能達到很好的性能。

而第三第四篇文章都對于對話系統的個性化作出了不同的嘗試,其中第三篇文章很有新意地將人物信息加入 encoding,第四、第五篇文章則考慮到日常生活中更多對話是非協作的情形作出了嘗試。

還可以看到 Visual Dialogue 也取得了一定進展,有興趣的讀者可以參考 AAAI 2020 的 DualVD: An Adaptive Dual Encoding Model for Deep Visual Understanding in Visual Dialogue

點擊以下標題查看更多往期內容:?

  • 任務導向型對話系統——對話管理模型研究最新進展

  • 超詳綜述 | 基于深度學習的命名實體識別

  • 復旦大學邱錫鵬教授:NLP預訓練模型綜述

  • BERT在小米NLP業務中的實戰探索

  • 針對復雜問題的知識圖譜問答最新進展

  • 從三大頂會論文看百變Self-Attention

#投 稿?通 道#

?讓你的論文被更多人看到?

如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學習心得技術干貨。我們的目的只有一個,讓知識真正流動起來。

?????來稿標準:

? 稿件確系個人原創作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?

? 如果文章并非首發,請在投稿時提醒并附上所有已發布鏈接?

? PaperWeekly 默認每篇文章都是首發,均會添加“原創”標志

?????投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請單獨在附件中發送?

? 請留下即時聯系方式(微信或手機),以便我們在編輯發布時和作者溝通

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

總結

以上是生活随笔為你收集整理的从ICLR 2020、AAAI 2020看对话系统近期研究进展的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。