从会议、医患沟通和客服对话三大场景看对话文本摘要技术
?PaperWeekly 原創(chuàng) ·作者 | 海晨威
研究方向 | 自然語(yǔ)言處理
文本摘要是 NLP 領(lǐng)域一個(gè)重要的任務(wù),它以凝練的語(yǔ)句去描述原始文本中的主要信息。文本的形式是多種多樣的,其中,對(duì)話(huà)文本是人們?cè)诓煌涣鲌?chǎng)景下產(chǎn)生的交互式文本。提取對(duì)話(huà)中的主要信息,在實(shí)際應(yīng)用中可以減少人理解的時(shí)間,也可以更好地輔助后續(xù)可能的任務(wù)。
本篇文章會(huì)探究對(duì)話(huà)文本的特點(diǎn)和對(duì)話(huà)摘要的實(shí)現(xiàn),基于三個(gè)不同的對(duì)話(huà)場(chǎng)景(會(huì)議、醫(yī)患溝通、客服對(duì)話(huà)),分別介紹一篇有代表性的近期頂會(huì) paper,并在最后總結(jié)不同對(duì)話(huà)文本特點(diǎn)對(duì)應(yīng)的解決方案。
引言
當(dāng)前,對(duì)文本摘要的研究主要集中在新聞?lì)I(lǐng)域,而從廣泛的對(duì)話(huà)文本(包括會(huì)議、訪(fǎng)談、辯論、醫(yī)患溝通、客服對(duì)話(huà)和日常聊天等)中提取關(guān)鍵信息,也有著重要的價(jià)值和應(yīng)用場(chǎng)景。但直接把新聞?wù)哪P秃头椒ㄒ浦驳綄?duì)話(huà)文本上,并不能獲得期望的效果,因?yàn)閷?duì)話(huà)文本有著它不一樣的特點(diǎn):
1. 角色交互:對(duì)話(huà)文本是有兩個(gè)或多個(gè)角色參與的交互式文本,每個(gè)角色差異較大,有著各自的觀點(diǎn)和態(tài)度;
2. 文本超長(zhǎng):對(duì)話(huà)文本很長(zhǎng),一般都比新聞文本要長(zhǎng);
3. 話(huà)題跳轉(zhuǎn):對(duì)話(huà)過(guò)程中,經(jīng)常會(huì)有話(huà)題的跳轉(zhuǎn);
4. 數(shù)據(jù)匱乏:相比新聞?wù)獢?shù)據(jù)集,公開(kāi)的對(duì)話(huà)摘要數(shù)據(jù)集太少。
以上是對(duì)話(huà)文本的特點(diǎn),其實(shí)也是對(duì)話(huà)摘要方案要解決的難點(diǎn)。不同對(duì)話(huà)場(chǎng)景下的側(cè)重點(diǎn)不一樣,下面會(huì)在會(huì)議、客服和醫(yī)患場(chǎng)景下,介紹對(duì)應(yīng)論文如何去解決該場(chǎng)景下的難點(diǎn)問(wèn)題。
會(huì)議場(chǎng)景
會(huì)議場(chǎng)景下的對(duì)話(huà)摘要,其實(shí)就是會(huì)議紀(jì)要,讓參會(huì)者和未參會(huì)者都可以快速回顧和了解會(huì)議的主要內(nèi)容。
會(huì)議文本,一般都很長(zhǎng)很長(zhǎng),角色眾多且不固定,又因?yàn)闀?huì)議的私密性,公開(kāi)數(shù)據(jù)集很少。下面這篇 EMNLP 2020 的文章 [1] ,在一個(gè)模型中,通過(guò)針對(duì)性的設(shè)計(jì)來(lái)嘗試解決這些問(wèn)題。
論文標(biāo)題:
A Hierarchical Network for Abstractive Meeting Summarization with Cross-Domain Pretraining
論文來(lái)源:
EMNLP2020
論文鏈接:
https://arxiv.org/abs/2004.02016
代碼鏈接:
https://github.com/microsoft/HMNet
這篇文章提出了一個(gè) Hierarchical Meeting summarization Network(HMNet)模型,它的模型結(jié)構(gòu)圖如下:
HMNet 是一個(gè) Hierarchical Transformer,能夠融合整個(gè)對(duì)話(huà)文本和角色信息,端到端地生成會(huì)議摘要。
它包括兩個(gè) Encoder,一個(gè)是 Word-level Encoder,輸入是一輪對(duì)話(huà),指某一個(gè)角色連續(xù)說(shuō)的話(huà),并會(huì)在最前面加上一個(gè) [BOS] 開(kāi)始標(biāo)志位,其在最后一層的輸出作為本輪對(duì)話(huà)的語(yǔ)義向量,這一點(diǎn)和 BERT 一樣;另一個(gè)是 Turn-level Encoder,它的輸入是每輪對(duì)話(huà)的語(yǔ)義向量,也就是上一個(gè) Encoder [BOS] 位向量,并會(huì)在后面 concat 上這輪對(duì)話(huà)說(shuō)話(huà)者的角色向量。
不同于一般的 Transformer Decoder, 在 HMNet ?Decoder 中,每一個(gè) Block 塊會(huì)有兩個(gè) Cross-Attention 層,先對(duì) Word-level 信息做 Attention,再對(duì) Turn-level 信息做 Attention,以此去融合整個(gè)對(duì)話(huà)的信息。
針對(duì)角色交互問(wèn)題,HMNet 對(duì)每一個(gè)會(huì)議參與者都設(shè)計(jì)了一個(gè)角色向量(role vector),如產(chǎn)品經(jīng)理和開(kāi)發(fā)人員... 讓模型去感知不同角色的差異,文中的消融實(shí)驗(yàn)也驗(yàn)證了,角色向量的增加對(duì)摘要生成效果,有著不錯(cuò)的提升。
針對(duì)文本超長(zhǎng)問(wèn)題,HMNet 對(duì)文本進(jìn)行層次化的理解,先表征每輪對(duì)話(huà),再理解整通對(duì)話(huà),不需要做截?cái)?#xff0c;也不會(huì)因?yàn)?Attention ?O() 的復(fù)雜度而要求過(guò)高的內(nèi)存資源。但因?yàn)椴煌喆沃g沒(méi)有 token 級(jí)別的 Attention ,token 表示上會(huì)不及完全的 Attention 。
HMNet 所有參數(shù)都是隨機(jī)初始化,并完全從 0 開(kāi)始訓(xùn)練的,因此對(duì)訓(xùn)練數(shù)據(jù)量有著較大的要求,而公開(kāi)的會(huì)議數(shù)據(jù)集并不多。論文通過(guò)將公開(kāi)的新聞?wù)獢?shù)據(jù)構(gòu)造成對(duì)話(huà)文本的形式,對(duì) HMNet 進(jìn)行預(yù)訓(xùn)練,再在會(huì)議數(shù)據(jù)集上微調(diào)的方式,解決數(shù)據(jù)匱乏的問(wèn)題。
具體構(gòu)造方式是 concat M 篇新聞文章變成一個(gè) M 人的會(huì)議文本,每篇文章中的每句話(huà),作為當(dāng)前角色的一輪,并將 M 篇文章的每輪隨機(jī)地交織在一起,模擬對(duì)話(huà)的交互結(jié)構(gòu),同時(shí),將每篇文章的摘要合在一起作為最終的對(duì)話(huà)摘要。雖然這樣得到的文本不是真正的對(duì)話(huà),但讓模型去學(xué)會(huì)摘要任務(wù),去感知角色信息,能給后面基于會(huì)議數(shù)據(jù)的微調(diào)起到不錯(cuò)的預(yù)熱效果。
HMNet 在一個(gè)模型中,采用層次結(jié)構(gòu)、角色向量和跨領(lǐng)域預(yù)訓(xùn)練的設(shè)計(jì),針對(duì)性地解決了會(huì)議對(duì)話(huà)文本的多個(gè)難點(diǎn)問(wèn)題。
客服場(chǎng)景
客服場(chǎng)景,一般是用戶(hù)和客服兩個(gè)人的對(duì)話(huà),去解決一個(gè)或多個(gè)問(wèn)題,會(huì)涉及話(huà)題的跳轉(zhuǎn),還有很多無(wú)意義的口水句,客服對(duì)話(huà)摘要?jiǎng)t需要去捕捉每一個(gè)話(huà)題的核心內(nèi)容。
下面這篇 AAAI 2021 的文章 [2],從名字也可以看出來(lái),主要是去解決客服對(duì)話(huà)過(guò)程中話(huà)題跳轉(zhuǎn)的問(wèn)題。
論文標(biāo)題:
Topic-Oriented Spoken Dialogue Summarization for Customer Service with Saliency-Aware Topic Modeling
論文來(lái)源:
AAAI 2021
論文鏈接:
https://arxiv.org/abs/2012.07311
代碼鏈接:
https://github.com/RowitZou/topic-dialog-summ
論文引入了神經(jīng)主題模型去捕捉對(duì)話(huà)中的主題信息,如下圖(a)所示,基礎(chǔ)的神經(jīng)主題模型本質(zhì)是一個(gè)無(wú)監(jiān)督的變分自編碼器,通過(guò)重構(gòu)輸入,獲取中間的隱層向量作為主題向量,更多細(xì)節(jié)可以參考:基于深度學(xué)習(xí)的主題模型研究 [5]。
論文則改進(jìn)了神經(jīng)主題模型,如上圖(b)所示,使其能區(qū)分有價(jià)值主題和無(wú)意義主題。上面那條通路是去重構(gòu)參考摘要中的詞 s,對(duì)應(yīng)有價(jià)值主題;下面的通路是去重構(gòu)對(duì)話(huà)內(nèi)容中除開(kāi)參考摘要的詞 d-s,對(duì)應(yīng)無(wú)意義主題。這也使得改進(jìn)后的神經(jīng)主題模型變成了一個(gè)有監(jiān)督的學(xué)習(xí)過(guò)程。
同時(shí),論文將改進(jìn)的神經(jīng)主題模型分別應(yīng)用到客服對(duì)話(huà),用戶(hù)對(duì)話(huà)和完整對(duì)話(huà),用不同的主題向量去表征不同角色的主題信息,并 concat 到一起去輔助抽取(utterance extractor)和生成(abstractive refiner)兩階段的對(duì)話(huà)摘要模型。
上圖中間部分的 Topic-Informed Attention Mechanism 是融合了主題信息的 Cross Attention,通過(guò)類(lèi)似 Pointer Network 的方式讓模型學(xué)到對(duì) query-based attention 和 topic-guided attention 的自動(dòng)選擇,前者的 Q 是來(lái)自 Decoder 的輸入,后者的 Q 是來(lái)自 Topic Model 的主題向量,改造后的 Cross Attention 會(huì)替換原始 Transformer Decoder 中的 Cross Attention。
為了讓模型感知角色交互信息,抽取階段會(huì)在對(duì)話(huà)的每一句前面加上一個(gè)角色 token ,去表示這句話(huà)的說(shuō)話(huà)者。為了讓兩階段模型能夠聯(lián)合訓(xùn)練,使用了策略梯度的方法,這樣第一階段的抽取就不需要標(biāo)注,但也會(huì)增加模型訓(xùn)練的難度。
神經(jīng)主題模型的加入,對(duì)于往往包含多個(gè)主題的客服對(duì)話(huà)摘要有很好的加成作用,讓模型能夠感知主題的跳轉(zhuǎn),識(shí)別無(wú)意義的話(huà)術(shù),并捕捉每一個(gè)主題的核心內(nèi)容。
醫(yī)患場(chǎng)景
醫(yī)患場(chǎng)景下的對(duì)話(huà)摘要,和上面的會(huì)議與客服場(chǎng)景有一些差異,它不是去得到一個(gè)歸納性的摘要,而是有確定性的訴求,比如摘要中需要包括:用戶(hù)的病情,醫(yī)生的診斷等。
實(shí)際上與 query-based summarization 有點(diǎn)類(lèi)似,只不過(guò)醫(yī)患場(chǎng)景下的 query 并不是多種多樣的,而是確定性的訴求。下面這篇 ACL 2021 的論文 [3] 就是用模塊化的摘要技術(shù)去生成醫(yī)患對(duì)話(huà)的不同訴求摘要。
論文標(biāo)題:
Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
論文來(lái)源:
ACL 2021
論文鏈接:
https://arxiv.org/abs/2005.01795
代碼鏈接:
https://github.com/acmi-lab/modular-summarization
醫(yī)患對(duì)話(huà)摘要包括四個(gè)部分,SOAP:(Subjective information)患者報(bào)告的主觀信息;(Objective observations)客觀觀察,例如實(shí)驗(yàn)室結(jié)果;(Assessments)醫(yī)生的評(píng)估和診斷;(Plan)未來(lái)的治療計(jì)劃,包括診斷測(cè)試、藥物治療。而且,這四部分還會(huì)被再細(xì)分為 15 個(gè) subsection,但這個(gè)在論文中沒(méi)有具體描述。
論文中的醫(yī)患對(duì)話(huà)參考摘要,是 SOAP 四個(gè)部分的 concat,并且摘要中的每個(gè)句子都在對(duì)話(huà)中標(biāo)注了它的支撐句,也就是這個(gè)句子的歸納來(lái)源。而基于如此的數(shù)據(jù)集結(jié)構(gòu),論文把醫(yī)患對(duì)話(huà)摘要任務(wù)分解成了先抽取后生成兩個(gè)子任務(wù),并實(shí)驗(yàn)了四種對(duì)話(huà)摘要方案,按照對(duì)生成模型的依賴(lài)排序如下:
CONV2NOTE:沒(méi)有抽取階段,直接端到端地從對(duì)話(huà)生成摘要。
EXT2NOTE:抽取模塊會(huì)預(yù)測(cè)出所有的關(guān)鍵句,但不區(qū)分關(guān)鍵句對(duì)應(yīng)哪一個(gè)訴求,生成模塊基于抽取出的關(guān)鍵句產(chǎn)生完整摘要。
EXT2SEC:抽取模塊在預(yù)測(cè)關(guān)鍵句的同時(shí),會(huì)分類(lèi)到具體的訴求,生成模塊再用這部分關(guān)鍵句去生成對(duì)應(yīng)訴求的摘要,有幾個(gè)摘要訴求,生成模塊就對(duì)應(yīng)生成幾次。
CLUSTER2SENT:在 EXT2SEC 抽取模塊基礎(chǔ)上,還會(huì)對(duì)每個(gè)類(lèi)別下的關(guān)鍵句再進(jìn)行聚類(lèi)分割,用聚類(lèi)得到的每個(gè)片段,去生成摘要中的一句話(huà)。
下圖就是使用 CLUSTER2SENT 生成的一個(gè)醫(yī)患對(duì)話(huà)摘要示例:
圖中第二列的紫色框被抽取模塊分類(lèi)為一個(gè)子訴求片段,第三列它又被聚類(lèi)分割為了兩個(gè)子片段,每個(gè)片段對(duì)應(yīng)生成摘要中的一句話(huà)。
這篇論文沒(méi)有提出新穎的模型,都是選用現(xiàn)有的模型去實(shí)現(xiàn)它描述的四種對(duì)話(huà)摘要方案。這四種對(duì)話(huà)摘要方案實(shí)際上可以看作是對(duì)現(xiàn)有非純抽取式摘要方法的一個(gè)歸類(lèi)總結(jié):
CONV2NOTE 是純生成式;EXT2NOTE 可以看作是過(guò)濾了無(wú)意義句之后的生成式;EXT2SEC 是在抽取關(guān)鍵句的同時(shí),還對(duì)關(guān)鍵句做了分類(lèi),像一個(gè)序列標(biāo)注任務(wù),只不過(guò)標(biāo)注的對(duì)象不是 token,而是 sentence;CLUSTER2SENT 則是 EXT2SEC 的更精細(xì)化版本。
可以看出,四種方案的抽取模塊越來(lái)越精細(xì),論文實(shí)驗(yàn)也驗(yàn)證了效果的逐步提升。相比生成,抽取是更簡(jiǎn)單,更可控,也更有解釋性的模塊。當(dāng)抽取做的越好時(shí),對(duì)生成的依賴(lài)就會(huì)越小,但這對(duì)標(biāo)注的要求也會(huì)越高。
總結(jié)
相比于新聞文本,對(duì)話(huà)文本有著角色交互、文本超長(zhǎng)、話(huà)題跳轉(zhuǎn)、數(shù)據(jù)匱乏等特點(diǎn),在不同的對(duì)話(huà)場(chǎng)景下,對(duì)話(huà)摘要方案的側(cè)重點(diǎn)可能不一樣,但都會(huì)對(duì)上述(部分)對(duì)話(huà)摘要特點(diǎn)去做針對(duì)性的設(shè)計(jì),下面嘗試做一個(gè)簡(jiǎn)單的總結(jié):
角色交互:在對(duì)話(huà)摘要任務(wù)中,讓模型去感知角色信息,分辨不同角色的內(nèi)容,是一個(gè)很重要也很必要的設(shè)計(jì)。
一般原始對(duì)話(huà)文本中,就包含 “xx:” 這樣的角色標(biāo)識(shí),如果加到模型的輸入中,實(shí)則是對(duì)角色的一個(gè)軟編碼,不過(guò)有可能會(huì)在一定程度上影響句子的連貫性。而像上面客服場(chǎng)景介紹的論文,在每句話(huà)前面加上自定義角色 token,和 “xx:” 這樣的角色標(biāo)識(shí)其實(shí)是基本相同的效果。
對(duì)每個(gè)角色設(shè)計(jì)對(duì)應(yīng)角色向量,如上面會(huì)議場(chǎng)景介紹論文一樣,或在 BERT 中,使用 Segment Embedding 作為角色向量,都是一種硬編碼方式,不影響句子連貫性,但對(duì)角色的擴(kuò)展性較差,適用于確定性角色場(chǎng)景,如客服場(chǎng)景。
文本超長(zhǎng):對(duì)話(huà)文本一般很長(zhǎng),其中也有較多無(wú)意義的話(huà),如果把整通對(duì)話(huà)一次性輸入模型,對(duì)硬件資源和模型能力都是一個(gè)考驗(yàn)。
常見(jiàn)的解決方案包括:規(guī)則方案,兩階段方案,兩層次方案,長(zhǎng)輸入模型方案
規(guī)則方案可以通過(guò)正則、常見(jiàn)口語(yǔ)表述等人工規(guī)則去掉對(duì)話(huà)中的無(wú)意義話(huà)術(shù),一般做為預(yù)處理層,無(wú)法完全解決文本超長(zhǎng)的問(wèn)題。
兩階段方案一般將任務(wù)分為抽取和生成兩階段,抽取模塊提取關(guān)鍵句,去除無(wú)意義句,然后交由生成模塊,抽取模塊完成的越精細(xì),生成模塊的負(fù)擔(dān)就會(huì)越小。
兩層次方案是將長(zhǎng)文本做層次化分解,可分為 word-level, sentence-level, turn-level 和 section-level 等,讓模型先做層次化理解,再做融合或直接取最上層的表征用于后續(xù)模塊。
長(zhǎng)輸入模型方案是采用能接受長(zhǎng)輸入的模型,如將 self attention 改造成 sliding window attention + global attention 的 Longformer,能接受長(zhǎng)達(dá) 16K tokens 長(zhǎng)度的輸入。
在來(lái)自 EMNLP2021 的文章 [4] 中,基于長(zhǎng)文本對(duì)話(huà)摘要數(shù)據(jù)集,對(duì)上述后三個(gè)方案做了實(shí)驗(yàn)對(duì)比,表明兩階段方案有最好的效果。
話(huà)題跳轉(zhuǎn):這是對(duì)話(huà)類(lèi)數(shù)據(jù)一個(gè)比較顯著的特點(diǎn),而摘要一般需要去捕捉每一個(gè)主題的核心內(nèi)容。
融合主題模型,可以較好的感知主題的跳轉(zhuǎn),但對(duì)整個(gè)摘要模型的訓(xùn)練和復(fù)雜度會(huì)是一個(gè)不小的負(fù)擔(dān)。
通過(guò)兩階段的方式,讓抽取模塊對(duì)文本進(jìn)行分類(lèi)和切割,可以在一定程度上將不同主題內(nèi)容分割開(kāi),但一般需要對(duì)應(yīng)數(shù)據(jù)上的標(biāo)注。
數(shù)據(jù)匱乏:因?yàn)閷?duì)話(huà)文本的私密性,開(kāi)源的數(shù)據(jù)很少,在一定程度上限制了對(duì)話(huà)摘要技術(shù)的發(fā)展。
盡量避免模型從 0 開(kāi)始訓(xùn)練,充分利用預(yù)訓(xùn)練模型,也可以利用相似領(lǐng)域的數(shù)據(jù)進(jìn)行 post training。
跨域數(shù)據(jù)的構(gòu)造,公開(kāi)的新聞?wù)獢?shù)據(jù)集很多,改造使其匹配對(duì)話(huà)文本并用于預(yù)訓(xùn)練,會(huì)是一個(gè)不錯(cuò)的模型預(yù)熱方式。
對(duì)話(huà)摘要,是文本摘要的一個(gè)子方向,在近幾年受到了越來(lái)越廣泛的關(guān)注,在各大頂會(huì)中也有了不少相關(guān)的 paper,本文是對(duì)對(duì)話(huà)摘要的一個(gè)簡(jiǎn)單概述,希望能給大家?guī)?lái)一點(diǎn)啟發(fā)和幫助。
其實(shí),哈工大 SCIR 實(shí)驗(yàn)室已經(jīng)有過(guò)對(duì)話(huà)摘要相關(guān)的概述分享 [6],它是大而全的,能讓你看到對(duì)話(huà)摘要的過(guò)去、現(xiàn)在和未來(lái)。而本文是從技術(shù)實(shí)現(xiàn)的角度,在三個(gè)典型對(duì)話(huà)場(chǎng)景中,各選擇了一篇有代表性的論文,介紹了其基于對(duì)話(huà)文本不同特點(diǎn)做的針對(duì)性的解決方案,并做了對(duì)應(yīng)的方案總結(jié)。兩篇概述分享并不重復(fù),會(huì)是一個(gè)互補(bǔ)的形式,共同食用效果更佳。
參考文獻(xiàn)
[1] EMNLP 2020: A Hierarchical Network for Abstractive Meeting Summarization with Cross-Domain Pretraining
[2] AAAI 2021:Topic-Oriented Spoken Dialogue Summarization for Customer Service with Saliency-Aware Topic Modeling
[3] ACL 2021:Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
[4] EMNLP 2021: An Exploratory Study on Long Dialogue Summarization: What Works and What's Next
[5] 基于深度學(xué)習(xí)的主題模型研究:http://cjc.ict.ac.cn/online/onlinepaper/hjj-2020514180351.pdf
[6] 賽爾筆記| 對(duì)話(huà)摘要簡(jiǎn)述:https://zhuanlan.zhihu.com/p/380959946
特別鳴謝
感謝 TCCI 天橋腦科學(xué)研究院對(duì)于 PaperWeekly 的支持。TCCI 關(guān)注大腦探知、大腦功能和大腦健康。
更多閱讀
#投 稿?通 道#
?讓你的文字被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類(lèi)優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)術(shù)熱點(diǎn)剖析、科研心得或競(jìng)賽經(jīng)驗(yàn)講解等。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
📝?稿件基本要求:
? 文章確系個(gè)人原創(chuàng)作品,未曾在公開(kāi)渠道發(fā)表,如為其他平臺(tái)已發(fā)表或待發(fā)表的文章,請(qǐng)明確標(biāo)注?
? 稿件建議以?markdown?格式撰寫(xiě),文中配圖以附件形式發(fā)送,要求圖片清晰,無(wú)版權(quán)問(wèn)題
? PaperWeekly 尊重原作者署名權(quán),并將為每篇被采納的原創(chuàng)首發(fā)稿件,提供業(yè)內(nèi)具有競(jìng)爭(zhēng)力稿酬,具體依據(jù)文章閱讀量和文章質(zhì)量階梯制結(jié)算
📬?投稿通道:
? 投稿郵箱:hr@paperweekly.site?
? 來(lái)稿請(qǐng)備注即時(shí)聯(lián)系方式(微信),以便我們?cè)诟寮x用的第一時(shí)間聯(lián)系作者
? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿
△長(zhǎng)按添加PaperWeekly小編
🔍
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專(zhuān)欄吧
·
總結(jié)
以上是生活随笔為你收集整理的从会议、医患沟通和客服对话三大场景看对话文本摘要技术的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 一键启动怎么安装教程 快速学会一键启动的
- 下一篇: 一文详解图对比学习(GNN+CL)的一般