面向中文短文本的实体链指任务竞赛亚军DeepBlueAI团队技术分享
?PaperWeekly 原創(chuàng) ·?作者|羅志鵬
學(xué)校|深蘭北京AI研發(fā)中心
研究方向|物體檢測(cè)
全國(guó)知識(shí)圖譜與語(yǔ)義計(jì)算大會(huì)(CCKS 2020)11 月 12 日至 15 日在江西南昌舉行,CCKS(China Conference on Knowledge Graph and Semantic Computing)由中國(guó)中文信息學(xué)會(huì)語(yǔ)言與知識(shí)計(jì)算專委會(huì)定期舉辦的全國(guó)年度學(xué)術(shù)會(huì)議。CCKS 已經(jīng)成為國(guó)內(nèi)知識(shí)圖譜、語(yǔ)義技術(shù)、語(yǔ)言理解和知識(shí)計(jì)算等領(lǐng)域的核心會(huì)議。
CCKS 2020 舉辦的各項(xiàng)挑戰(zhàn)賽公布了最終結(jié)果,來(lái)自深蘭科技北京 AI 研發(fā)中心的 DeepBlueAI 團(tuán)隊(duì)斬獲了?3 項(xiàng)冠軍和 1 項(xiàng)亞軍,并獲得了一項(xiàng)技術(shù)創(chuàng)新獎(jiǎng)。我們可以通過(guò)這篇文章了解下 DeepBlueAI 團(tuán)隊(duì)在『CCKS 2020:面向中文短文本的實(shí)體鏈指任務(wù)』賽題中的解決方案。
賽題介紹
面向中文短文本的實(shí)體鏈指,簡(jiǎn)稱 EL(Entity Linking),即對(duì)于給定的一個(gè)中文短文本(如搜索 Query、微博、對(duì)話內(nèi)容、文章/視頻/圖片的標(biāo)題等),EL 將其中的實(shí)體與給定知識(shí)庫(kù)中對(duì)應(yīng)的實(shí)體進(jìn)行關(guān)聯(lián)。
此次任務(wù)的輸入輸出定義如下:
輸入:中文短文本以及該短文本中的實(shí)體集合。
輸出:輸出文本此中文短文本的實(shí)體鏈指結(jié)果。每個(gè)結(jié)果包含:實(shí)體 mention、在中文短文本中的位置偏移、其在給定知識(shí)庫(kù)中的 id,如果為 NIL 情況,需要再給出實(shí)體的上位概念類型。
團(tuán)隊(duì)成績(jī)
評(píng)價(jià)方式采用 F-1 分值,在最終榜單上我們 f1 達(dá)到了 0.89538 與第一名僅相差0.00002。
B 榜成績(jī):
A 榜成績(jī):
比賽難點(diǎn)
針對(duì)中文短文本的實(shí)體鏈指存在很大的挑戰(zhàn),主要原因如下:
口語(yǔ)化嚴(yán)重,導(dǎo)致實(shí)體歧義消解困難;
短文本上下文語(yǔ)境不豐富,須對(duì)上下文語(yǔ)境進(jìn)行精準(zhǔn)理解;
相比英文,中文由于語(yǔ)言自身的特點(diǎn),在短文本的鏈指問(wèn)題上更有挑戰(zhàn)。
引言
實(shí)體鏈接是一項(xiàng)識(shí)別文本中的實(shí)體指稱(指文本被識(shí)別到的命名實(shí)體)并將其映射到知識(shí)庫(kù)中對(duì)應(yīng)實(shí)體上的任務(wù)?[1]。
對(duì)于一個(gè)給定的實(shí)體鏈接任務(wù),首先需要使用命名實(shí)體識(shí)別方法和工具識(shí)別文本中的實(shí)體,然后對(duì)每個(gè)實(shí)體指稱利用候選實(shí)體生成技術(shù)生成對(duì)應(yīng)候選實(shí)體集,最后利用文本信息和知識(shí)庫(kù)的信息消除候選實(shí)體的歧義得到相匹配實(shí)體,如果最沒(méi)有相匹配實(shí)體則將該實(shí)體指稱標(biāo)記為 NIL(代表沒(méi)有對(duì)應(yīng)實(shí)體)。
一般來(lái)講,實(shí)體鏈接包括三個(gè)主要環(huán)節(jié):命名實(shí)體識(shí)別、候選實(shí)體生成、候選實(shí)體消歧。
CCKS 2020 任務(wù),對(duì)比 2019 年任務(wù) [2] 去掉了實(shí)體識(shí)別,專注于中文短文本場(chǎng)景下的多歧義實(shí)體消歧技術(shù),增加對(duì)新實(shí)體(NIL 實(shí)體)的上位概念類型判斷,所以 CCKS 2020 任務(wù)可以分成兩個(gè)子任務(wù),分別為多歧義實(shí)體消歧和 NIL 實(shí)體類型判斷。
針對(duì)實(shí)體消歧任務(wù)我們采用了基于 BERT [3] 的二分類方法,對(duì)每一個(gè)候選實(shí)體進(jìn)行預(yù)測(cè),然后對(duì)預(yù)測(cè)的概率進(jìn)行排序,由于數(shù)據(jù)集中包含 NIL 實(shí)體,我們將 NIL 實(shí)體也作為候選實(shí)體參與模型訓(xùn)練和概率排序,進(jìn)而完成消歧任務(wù)。
對(duì)于 NIL 實(shí)體類型判斷任務(wù)提出了基于問(wèn)答的 NIL 實(shí)體類型判斷模型,模型通過(guò)構(gòu)建問(wèn)句并依據(jù)已知實(shí)體信息構(gòu)建上下文,有效的引入短文本中已知實(shí)體的知識(shí)庫(kù)信息,額外信息的引入能夠顯著提升了模型的性能。
實(shí)體消歧任務(wù)
實(shí)體消歧主要是對(duì)于給定的實(shí)體指稱,利用候選實(shí)體生成技術(shù)得到相應(yīng)的候選實(shí)體集,然后在利用實(shí)體消歧模型找到真正對(duì) 應(yīng)的那個(gè)實(shí)體。如圖 1 所示,利用短文本中的實(shí)體指稱,可以通過(guò)候選實(shí)體生成的方式得到候選實(shí)體集合,然后利用候選實(shí)體的描述信息進(jìn)行實(shí)體消歧的得到與實(shí)體指稱相對(duì)應(yīng)的實(shí)體,如果找不到,則用 NIL 表示。
▲ 圖1 實(shí)體消歧數(shù)據(jù)樣例
實(shí)體描述文本
知識(shí)庫(kù)中實(shí)體的信息為結(jié)構(gòu)化信息,如下所示:
{"alias":?["承志"],?"subject_id":?"10005",?"data":?[{"predicate":?"摘要",?"object":?"愛(ài)新覺(jué)羅·承志是輔國(guó)公西朗阿之子。"},?{"predicate":?"義項(xiàng)描述",?"object":?"愛(ài)新覺(jué)羅·承志"},?{"predicate":?"標(biāo)簽",?"object":?"人物、話題人物、歷史"}],?"type":?"Person",?"subject":?"愛(ài)新覺(jué)羅·承志" }為了方便處理,我們將“predicate”與“object”相連得到描述文本。
候選實(shí)體生成
候選實(shí)體生成最常用的方法是基于字典的方法 [4,5],這種方法需要根據(jù)給定的知識(shí)庫(kù)構(gòu)建名稱字典,字典的鍵就是實(shí)體的名字,而值則是這個(gè)名字所對(duì)應(yīng)的所有的具有相同名字的實(shí)體。
對(duì)于每個(gè)實(shí)體指稱去檢索字典的鍵,如果字典的鍵符合要求,則將該鍵對(duì)應(yīng)的值中所有的實(shí)體都加入到候選實(shí)體集中,其中判斷字典的鍵是否符合要求通常的做法是采用精確匹配的方式,只有當(dāng)實(shí)體指稱和字典鍵彼此完全匹配的情況下才加入到候選實(shí)體集。
基本流程為先通過(guò)知識(shí)庫(kù)中的實(shí)體名字以及實(shí)體別稱構(gòu)建實(shí)體字典,然后采用精確匹配的方式匹配得到候選實(shí)體。
實(shí)體消歧
現(xiàn)在比較流行的消歧模型常用的方案是提取實(shí)體所在短文本的上下文特征,以及候選實(shí)體描述文本的特征,在將這兩類特征經(jīng)過(guò)全連接網(wǎng)絡(luò),最后進(jìn)行二分類 [6,7]。
這類方法對(duì)于長(zhǎng)文本很有效,但是對(duì)于短文本的消歧效果不是很好,主要是因?yàn)槎涛谋緝?nèi)容較短,上下文太少,難以提取有效的上下文特征,而候選實(shí)體的描述文本過(guò)長(zhǎng),這種情況造成傳統(tǒng)的實(shí)體消歧模型效果并不理想。考慮到短文本的特性,我們采用了基于 BERT 和實(shí)體特征的消歧模型。
▲ 圖2 實(shí)體消歧模型圖
模型圖如圖 2 所示,模型采用的思想主要是為利用 BERT 模型 [CLS] 符號(hào)的輸出向量,以及實(shí)體指稱所在開(kāi)始位置的向量和結(jié)束位置的向量,經(jīng)過(guò)全連接層,然后經(jīng)過(guò) sigmoid 進(jìn)行二分類。
其中 [CLS] 符號(hào)的輸出向量可以用來(lái)判斷短文本和候選實(shí)體的描述文本是否處在同一語(yǔ)義場(chǎng)景,實(shí)體位置的向量可以代表實(shí)體的上下文特征。模型的輸入為短文本以及候選實(shí)體的描述文本,形式為:[CLS] 短文本 [SEP] 候選實(shí)體描述文本 [SEP]。
優(yōu)化點(diǎn):
動(dòng)態(tài)負(fù)采樣:不同于以往在訓(xùn)練前選取固定的負(fù)樣本,模型采用動(dòng)態(tài)負(fù)采樣技術(shù),在模型訓(xùn)練中每個(gè) batch 選取不同的負(fù)樣本參與訓(xùn)練,通過(guò)這種方式能夠極大的提高模型的泛化能力。
NIL 排序:由于增加了 NIL 實(shí)體,對(duì)NIL 實(shí)體也作為候選實(shí)體參與訓(xùn)練和排序。
模型融合:采用了百度 ERNIE-1.0 [8] 和 Roberta-wwm [9] 模型兩個(gè)預(yù)訓(xùn)練模型,并采用交叉驗(yàn)證的方式對(duì)最后的結(jié)果進(jìn)行平均融合。
實(shí)體類型判斷
對(duì)于實(shí)體類型判斷任務(wù)大家通用的思路也就是 baseline 思路為,通過(guò)提取 mention 位置的向量,然后經(jīng)過(guò)全連接分類,得到實(shí)體的類型。
這種方案的最大缺點(diǎn)就是僅僅用短文本的信息去對(duì) NIL 實(shí)體進(jìn)行類型分類,沒(méi)有利用到已知實(shí)體信息的特征,為了利用上其他不是 NIL 實(shí)體的信息,我們構(gòu)建了基于問(wèn)答的實(shí)體類型判斷模型。模型基于問(wèn)答的思想,通過(guò)構(gòu)建問(wèn)句和上下文將已知實(shí)體的信息輸入到模型中,來(lái)提升實(shí)體類別判斷的性能。
{"text_id":?"456",?"text":?"神探加杰特,和彭妮長(zhǎng)得一模一樣,竟想要霸占泰龍的位置",?"mention_data":?[{"kb_id":?"283448",?"mention":?"神探加杰特",?"offset":?"0"},?{"kb_id":?"NIL_VirtualThings",?"mention":?"彭妮",?"offset":?"7"},?{"kb_id":?"NIL_VirtualThings",?"mention":?"泰龍",?"offset":?"21"},?{"kb_id":?"88355",?"mention":?"位置",?"offset":?"24"}] }對(duì)于上述例子,其中實(shí)體有 “神探加杰特” 、“彭妮”,“泰龍”,“位置” 4 個(gè)實(shí)體,需要預(yù)測(cè)類型的 NIL 實(shí)體有“彭妮”,“泰龍”,對(duì)于實(shí)體 “彭妮”,“泰龍”,“彭妮” 根據(jù)命名習(xí)慣很容易判斷為類型為 Person 類型, 就算根據(jù)短文本的語(yǔ)義分析判斷“彭妮”依舊是 Person 類型,同樣模型學(xué)習(xí)到的也是 Person 類型。而“彭妮”的真實(shí)類型為 VirtualThings 類型,可以看出在沒(méi)有其他額外信息的情況下,很難準(zhǔn)確預(yù)測(cè)“彭妮”的類型。
當(dāng)前任務(wù)為:對(duì)于輸入文本 ,其中存在 NIL 實(shí)體集合 {},求 NIL 實(shí)體 對(duì)應(yīng)的類型 。在經(jīng)過(guò)實(shí)體消歧后,已經(jīng)知道部分實(shí)體的知識(shí)庫(kù)信息和類型信息,那么任務(wù)可以變?yōu)?#xff1a;對(duì)于輸入文本 ,其中存在實(shí)體集合 {},已知實(shí)體 的知識(shí)庫(kù)信息 ,其中知識(shí)庫(kù)信息 會(huì)包含對(duì)應(yīng)的類型信息 ,求出 NIL 實(shí)體 對(duì)應(yīng)的類型 。對(duì)于改變后的任務(wù)主要是利用上已知實(shí)體的信息,對(duì)于這種任務(wù)我們采用問(wèn)答的形式,對(duì)于上述例子根據(jù)短文本以及 mention 構(gòu)建問(wèn)句為兩個(gè):
Question1:神探加杰特,和彭妮長(zhǎng)得一模一樣,竟想要霸占泰龍的位置,彭妮的類型是什么? Question2:神探加杰特,和彭妮長(zhǎng)得一模一樣,竟想要霸占泰龍的位置,泰龍的類型是什么?根據(jù)已知的實(shí)體信息構(gòu)建相關(guān)上下文為:
Context:神探加杰特的類型是作品,描述為?1983--1985?年美國(guó)播出的動(dòng)畫片,位置類型為其他,描述為詞語(yǔ)釋義通過(guò)上下文信息,可以得知“神探加杰特”為一個(gè)動(dòng)畫片,而不是電視劇電影等其他作品,那么模型則可以輕易學(xué)出,動(dòng)畫片中的人物為 VirtualThings 類型。本文將已知實(shí)體的信息分為實(shí)體類型和實(shí)體的描述(實(shí)體的描述僅僅使用了知識(shí)庫(kù)信息中“義項(xiàng)描述”這一項(xiàng)),后續(xù)會(huì)對(duì)此進(jìn)行實(shí)驗(yàn)分析。
具體任務(wù)為,根據(jù) question 和 context 去做多分類來(lái)識(shí)別問(wèn)句中要識(shí)別 NIL 實(shí)體的類型,模型基于 BERT 模型,輸入形式為 [CLS]question[SEP]context[SEP],對(duì)于上述例子模型圖如下,模型利用 BERT[CLS] 符號(hào)的輸出向量,以及實(shí)體所在的開(kāi)始位置向量和結(jié)束位置向量,經(jīng)過(guò)全連接層,然后經(jīng)過(guò) softmax 激活函數(shù)進(jìn)行多分類。
▲ 圖3 類型判斷模型圖
優(yōu)化點(diǎn):
對(duì)抗學(xué)習(xí):在類型判斷模型訓(xùn)練過(guò)程中,加入了 FGM [10] 對(duì)抗訓(xùn)練,通過(guò)在 word embedding 上添加擾動(dòng),提升模型魯棒性和泛化能力。
模型融合:采用了百度 ERNIE-1.0 和 Roberta-wwm 模型兩個(gè)預(yù)訓(xùn)練模型,并采用交叉驗(yàn)證的方式對(duì)最后的結(jié)果進(jìn)行平均融合。
實(shí)驗(yàn)
實(shí)體消歧任務(wù)
在實(shí)體消歧實(shí)驗(yàn)階段,我們對(duì) NIL 實(shí)體類型不做識(shí)別,下述試驗(yàn)結(jié)果沒(méi)有加入 NIL 類型的評(píng)價(jià)。其中實(shí)驗(yàn)中參數(shù)配置如下:batch size 為 32,針對(duì)不同層采用不同的學(xué)習(xí)率,其中 BERT 模型初始學(xué)習(xí)率為 1e-5,其他模型參數(shù)初始學(xué)習(xí)率為 5e-4,為了更好地收斂到最優(yōu),采用了基于指數(shù)衰減的學(xué)習(xí)率衰減策略,每輪衰減為原來(lái)的 0.5 倍。
NIL 實(shí)體判定策略:針對(duì)某個(gè)實(shí)體,有三種情況會(huì)判定為 NIL 實(shí)體,1. 沒(méi)有候選實(shí)體 2. 候選實(shí)體得分排序,最高得分是NIL,3. 候選實(shí)體得分排序,最高得分是不是 NIL,但是得分小于 0.05。
編號(hào) | 模型 | F1 |
1 | Model-static- neg2-ernie | 0.7376 |
2 | Model-dyanmic- neg2-ernie | 0.7415 |
3 | Model-dyanmic- neg1-ernie | 0.7402 |
4 | Model-dyanmic- neg3-ernie | 0.7393 |
5 | Model-dyanmic- neg2-bert | 0.7380 |
6 | Model-dyanmic- neg2-roberta | 0.7383 |
我們對(duì)以下幾個(gè)維度進(jìn)行了實(shí)驗(yàn)分析,1. 動(dòng)態(tài)負(fù)采樣與靜態(tài)負(fù)采樣 2.負(fù)采樣的個(gè)數(shù)? 3.不同預(yù)訓(xùn)練模型。實(shí)驗(yàn)結(jié)果如表 1 所示,static 代表靜態(tài)負(fù)采樣,dyanmic 代表動(dòng)態(tài)負(fù)采樣,neg2 代表負(fù)采樣的個(gè)數(shù)為 2。
對(duì)比模型 1 與模型 2,動(dòng)態(tài)負(fù)采樣對(duì)比靜態(tài)負(fù)采樣有著巨大的提升,靜態(tài)負(fù)采樣之所以不好是沒(méi)有利用上更多負(fù)樣本的信息,對(duì)比模型 2、3、4 可以得出,負(fù)樣本個(gè)數(shù)并不是越多越好,當(dāng)負(fù)樣本太多時(shí)會(huì)造成類別不均衡導(dǎo)致最終性能下降,并且負(fù)樣本增多也會(huì)導(dǎo)致數(shù)據(jù)變大,訓(xùn)練時(shí)間增加,綜合考慮本文最終采用 2 個(gè)負(fù)樣本。
對(duì)比模型 4、5、6 可以看出不同的預(yù)訓(xùn)練模型對(duì)最終的結(jié)果也有著很大的影響,由于數(shù)據(jù)集由百度提供,數(shù)據(jù)中知識(shí)庫(kù)來(lái)源大多來(lái)自百度百科,所有百度開(kāi)源的 ERNIE 模型性能最佳,roberta 次之,綜合考慮最終本文采取的方案為 ernie 模型與 roberta-wwt 融合。融合方案比較簡(jiǎn)單,采用交叉驗(yàn)證求平均的方式。
實(shí)體類型判斷任務(wù)
對(duì)于實(shí)體類型判斷任務(wù),我們采用準(zhǔn)確率作為評(píng)價(jià)標(biāo)準(zhǔn),在實(shí)驗(yàn)設(shè)計(jì)方向本文主要設(shè)計(jì)了一下幾個(gè)方面的對(duì)照實(shí)驗(yàn),模型1:采用 baseline 思路,將實(shí)體位置的向量特征輸出分類,模型2:僅僅加入已知實(shí)體的類型信息,不加入其他信息,模型3:加入簡(jiǎn)短的實(shí)體描述信息,模型4:即加入實(shí)體類型信息,又加入實(shí)體描述信息。模型5:加入對(duì)抗訓(xùn)練。
編號(hào) | 模型 | 準(zhǔn)確率 |
1 | Model-baseline | 0.8628 |
2 | Model-type | 0.8793 |
3 | Model-desc | 0.8782 |
4 | Model-type+desc | 0.8800 |
5 | Model- type+desc+FGM | 0.8819 |
由模型 1、2、3、4 可以發(fā)現(xiàn),相比于 baseline 加入已知實(shí)體的信息能夠顯著提升模型的性能,說(shuō)明已知實(shí)體的信息對(duì)短文本 NIL 實(shí)體的類別判斷有著很大的幫助。對(duì)比模型 2 和模型 3 可以發(fā)現(xiàn),已知實(shí)體的類別信息更為重要,這可能與僅僅采用了實(shí)體簡(jiǎn)短描述信息而沒(méi)有使用實(shí)體的全部描述信息。
從模型 4 可以得出將實(shí)體的類型信息與描述信息相結(jié)合則能夠達(dá)到更好的效果。從模型 5 可以看出加入對(duì)抗訓(xùn)練能夠提升模型的泛化能力,對(duì)最終的結(jié)果也有很大的提升。
實(shí)體鏈接結(jié)果
最終將兩個(gè)模型合在一起得到最終的實(shí)體鏈接效果表如下所示,其中測(cè)試集 A 和測(cè)試集 B 為多個(gè)模型交叉驗(yàn)證求平均的結(jié)果。
編號(hào) | 模型 | F1 |
1 | 開(kāi)發(fā)集 | 0.88010 |
2 | 測(cè)試集A | 0.89193 |
3 | 測(cè)試集B | 0.89538 |
總結(jié)
我們?cè)?2020(全國(guó)知識(shí)圖譜與語(yǔ)義計(jì)算大會(huì))舉辦的“面向中文短文本的實(shí)體鏈指”評(píng)測(cè)任務(wù)中取得了 A 榜第一名的成績(jī),B 榜第二名的成績(jī),其中基于問(wèn)答的實(shí)體類型判斷模型巧妙的利用到了已知實(shí)體的信息,此模型對(duì)后續(xù)此類型的任務(wù)提供了借鑒意義。
但是本文依舊有些地方需要改進(jìn),如知識(shí)庫(kù)給定的數(shù)據(jù)具有一定的結(jié)構(gòu)信息,直接連在一起當(dāng)文本使用,會(huì)損失這部分特征,可以設(shè)計(jì)更好的網(wǎng)絡(luò)來(lái)利用這部分結(jié)構(gòu)化信息。
參考文獻(xiàn)
[1] Rao, Delip, Paul McNamee, and Mark Dredze. Entity linking: Finding extracted entities in a knowledge base[J]. Multi-source, multilingual information extraction andsummarization. Springer, Berlin, Heidelberg, 2013. 93-115
[2] https://www.biendata.xyz/competition/ccks_2019_el/
[3] Devlin J, Chang M W, Lee K, et al. BERT: ? Pre-training of Deep Bidirectional Transformers for Language Understanding[J]. 2018.
[4] Zhang W, Su J, Tan C L, et al. Entity Linking Leveraging Automatically Generated Annotation[C]. COLING 2010, 23rd International Conference on Computational Linguistics, Proceedings?of?the Conference, 23-27 August 2010, Beijing, China. DBLP, 2010.
[5] Zhang W, Sim Y C, Su J, et al. Entity Linking with Effective Acronym Expansion, Instance Selection and Topic Modeling[C]. IJCAI 2011, Proceedings of the 22nd International Joint Conference on Artificial Intelligence, Barcelona, Catalonia, Spain, July 16-22, 2011. AAAI Press, 2011.
[6] Chen Z, Ji H. Collaborative Ranking: A Case Study on Entity Linking[C]. Proceedings of the 2011 Conference on?Empirical Methods in Natural Language Processing, ?EMNLP 2011, 27-31 July 2011
[7] Pilz A, Gerhard Paa?. From names to entities using?thematic context distance[C]. ?Acm Conference on Information & Knowledge Management. ACM, 2011.
[8] Sun, Yu, et al. "Ernie: Enhanced representation through knowledge integration." arXiv preprint arXiv:1904.09223 (2019).
[9] Cui, Yiming, et al. "Revisiting Pre-Trained Models for Chinese Natural Language Processing." arXiv preprint arXiv:2004.13922 (2020).
[10] Miyato, Takeru, Andrew M. Dai, and Ian Goodfellow. "Adversarial training methods for semi-supervised text classification." arXiv preprint arXiv:1605.07725 (2016).
更多閱讀
#投 稿?通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
?????來(lái)稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志
?????投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?
? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通
????
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的面向中文短文本的实体链指任务竞赛亚军DeepBlueAI团队技术分享的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 世界上有什么好吃的食物吗?
- 下一篇: @请注意查收:《史上最全的AI论文资料》