日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CrossWOZ,一个大规模跨领域中文任务导向对话数据集

發布時間:2024/10/8 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CrossWOZ,一个大规模跨领域中文任务导向对话数据集 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

2018?年,任務導向對話數據集?MultiWOZ?橫空出世,并被評為當年?EMNLP?最佳資源論文。由于其大規模多領域的特點,引發了任務導向對話領域新的一輪發展熱潮。

為了進一步推動多領域(特別是跨領域)的研究以及填補中文任務導向對話數據的空白,清華大學計算機系、人工智能研究院 CoAI 小組構建了 CrossWOZ,一個大規模跨領域中文任務導向對話數據集。論文已被 Transactions of the Association for Computational Linguistics (TACL) 接收。

論文鏈接:https://arxiv.org/abs/2002.11893

數據和代碼:https://github.com/thu-coai/CrossWOZ

▲?CrossWOZ的一個對話片段,具體酒店名字被A,B,C替代

相比于之前的任務導向對話數據集(特別是MultiWOZ),CrossWOZ有三大特點:?

1. 在對話中,用戶在某個領域的選擇可能會影響到與之相關的領域的選擇。如上面的這個例子,用戶選擇了北京歡樂谷作為景點領域的結果,那么之后選擇的酒店就要在它附近。不同的景點選擇會對酒店產生不同的約束。這種跨領域約束隨著對話的進行而具體化,需要對話雙方都能對上下文有更好的理解,因而更具有挑戰性。

2. 這是第一個中文大規模多領域任務導向對話數據集,包含 6K 個對話,102K 個句子,涉及 5 個領域(景點、酒店、餐館、地鐵、出租)。平均每個對話涉及 3.2 個領域,遠超之前的多領域對話數據集,增添了對話管理的難度。?

3. 標注信息全面,可以用于研究任務導向對話系統中各個方面。除了提供對話雙方的對話意圖、系統端的對話狀態這些信息之外,還額外提供了每輪用戶端的對話狀態。用戶端狀態記錄了目標的完成情況,每輪根據系統回復動態更新,可用于研究用戶模擬器的搭建。

數據收集過程

收集數據時模擬的對話場景是一名游客向系統咨詢北京的旅游信息,分為以下幾個步驟:?

1. 領域數據庫構建:從網絡上爬取了北京的景點、酒店、餐館信息,以及這些地點的鄰近關系。同時這些地點附近的地鐵站組成了地鐵數據庫。出租領域無需數據庫。

▲?數據庫統計信息

2. 用戶目標生成:通過隨機采樣的方式生成各領域的目標。如下表,有值的表示約束條件,沒有值的表示需求信息,粗體的表示跨領域的約束,用占位符表示。這個例子里用戶要找一個免費的景點及其附近一家提供叫醒服務的酒店,并預訂一輛從景點到酒店的出租。

▲?用戶目標示例

3. 對話數據收集:雇傭人員在線匹配進行實時對話。用戶端以用戶目標作為初始狀態,通過對話獲取信息,每輪更新用戶狀態,填寫需求的信息和替換跨領域的約束。并選擇本輪要表達的約束或者要詢問的信息。系統端每輪維護各個領域的查詢表單作為系統狀態,根據查詢結果回復用戶。?

4. 數據處理:使用一些規則根據用戶和系統的狀態推導出對話意圖。經過三個專家對少量對話的核驗,數據標注質量較高。

數據統計

將對話分成五種類型:單領域 S,多領域 M,多領域加交通 M+T,跨領域 CM,跨領域加交通 CM+T。交通代表了地鐵和出租領域,M 和 CM 的區別是有沒有跨領域的約束。

統計信息如下表。可以發現含有跨領域約束的對話 (CM,CM+T) 會導致更多的系統多次查找 (Multi-query)、找不到結果 (NoOffer)、用戶自主修改目標 (Goal change) 的情況。

基線模型

由于豐富的標注信息,CrossWOZ 數據集可用于多種任務的研究。依托于 ConvLab-2 對話平臺,我們提供了 NLU、DST、Policy、NLG 的基線模型以及 user simulator,部分結果如下表。實驗說明跨領域的約束對各個任務都有挑戰性。

點擊以下標題查看更多往期內容:?

  • 深度學習預訓練模型可解釋性概覽

  • 如何使用知識圖譜增強信息檢索模型?

  • AAAI 2020?| 可建模語義分層的知識圖譜補全

  • 淺談Knowledge-Injected BERTs

  • BERT+知識圖譜:知識賦能的K-BERT模型

  • 從 Word2Vec 到 BERT

#投 稿 通 道#

?讓你的論文被更多人看到?

如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學習心得技術干貨。我們的目的只有一個,讓知識真正流動起來。

?????來稿標準:

? 稿件確系個人原創作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?

? 如果文章并非首發,請在投稿時提醒并附上所有已發布鏈接?

? PaperWeekly 默認每篇文章都是首發,均會添加“原創”標志

???? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請單獨在附件中發送?

? 請留下即時聯系方式(微信或手機),以便我們在編輯發布時和作者溝通

????

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

總結

以上是生活随笔為你收集整理的CrossWOZ,一个大规模跨领域中文任务导向对话数据集的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。