日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

综述 | 事件抽取及推理 (上)

發布時間:2024/7/5 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 综述 | 事件抽取及推理 (上) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文轉載自公眾號:知識工場。 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?



事件概要


事件是一種重要的知識,近年來,越來越多的工作關注于從開放域或領域文本中抽取結構化事件知識。同時,除了本身就很困難的事件抽取任務之外,近年來,越來越多的研究者開始關注于事件的推理工作中(事理推理,事件時序關系推理,事件 common sense level 的 intent 和 reaction 推理)。ACE給了事件定義為:

  • Anevent is a specific occurrence involving participants. An event is something that happens. An event can frequently be described as a change of state.


從中我們可以看到,事件一般是需要包含事件的參與者(角色),并且事件往往可以被描述為一系列狀態的改變。在事件抽取的過程中,一個事件往往被更形式化地定義為包含了事件觸發器(event trigger), 事件類型(event type), 事件元素(event argument) 和事件元素角色(event argument role),因此事件抽取的任務就是識別出上述事件要素并且進行結構化組織。從 Zero-Shot Transfer Learning for Event Extraction [HuangL,2017]這篇文章中我們也可以得到一個對事件抽取任務很好的定義:

  • Thegoal of event extraction is to identify event triggers and their arguments inunstructured text data, and then to assign an event type to each trigger and asemantic role to each argument.


因此,通常來說,事件抽取的基本任務都可以用以下幾個方面概括:

  • 事件觸發詞檢測 Event (trigger) detection

  • 事件觸發詞分類 Event trigger typing (一般和detection一起做,歸結為detection的一部分)

  • 事件元素識別 Event Argument Identification

  • 事件元素角色識別 Event Argument Role Identification


舉個例子來說明這個幾個事件要素:




在這個例子中,觸發詞 trigger 有兩個,為 injured 和 passed away,因此 event detection 的工作主要是識別出這兩個觸發詞(塊)。之后,需要對這些觸發詞進行分類,根據ACE事件觸發詞分類體系(如下圖),結合語義應該對應分成 Injure 事件和 Die 事件。然后紅字部分 Henry 根據分析應該判別 Henry 是事件的 Argument,角色都是事件的發起者。

?????? 每個事件類型都有一個模板,如下面兩個圖,列舉了一些時間類型的模板和模板的基本樣式:


(ACE 2005一些事件類型模板,左圖來源于?Kang Liu?的?PPT<Open domain Event Extraction from Texts>,右圖來源于網絡)


事件在確定了 trigger 類型之后,應該根據這些模板來進行填槽(slots)。



事件抽取方法


事件抽取的基本任務上面已經介紹了,學術界和工業界針對具體的一些任務都進行了自己的研究。這里值得注意的是這幾個任務有時候并不是孤立去解決的,現在越來越多工作證明 joint 的方法更加有效(比如 event detection 和 event typing 一般都一起做,大多工作都歸結為 event detection 的部分,[Shulin Liu,etc,2017]也指出一般在判斷事件類型的時候更需要對應的 Argument role 的信息,以及文本的上下文信息來共同確定)

同樣,先以一個簡單例子來解釋事件抽取方法:




(圖片來源于 [Y Chen, 2015] Event Extraction via DynamicMulti-Pooling Convolutional Neural Networks)


在這個例子中首先 event detection 找到兩個事件觸發詞 died 和 fired,然后要 trigger typing 判斷出 died 對應的是 Die 事件,fired 對應的是 Attack 事件,句子上面的黑色線表示的是 trigger 和 argument 之間的關系,下面的紅線是用 AMR(Abstract Meaning Representations;Banarescu et al., 2013)進行的識別 argument candidates 并且構建起event mention 結構。

?????? 從?An Overview of Event Extraction from Text [F Hogenboom .etc ] 中可以總結出事件抽取方法主要有以下幾種:

??Expert knowledge driven approaches(pattern-based approaches): 這個類別的方法主要是借助大量的已有的事件 patterns,比較適合于領域的事件抽取,將文本中的句子和已有的事件 patterns 進行匹配。同時使用詞匯+語法 patterns 和詞匯+語法 patterns 來進行 patterns 制作。這種方式往往能夠抽取出準確度較高的事件表達,但是這種方式比較費時費力,并且有領域局限性。

?Data-driven approaches (Machine Learningapproaches): Data driven 的方法借助machine learning 的相關算法,以及深度模型來進行觸發詞判斷等。具體來說,使用SVM,ME,CNN,RNN等方法來判斷句子中某個詞是否是觸發詞,重點都是在如何學習文本中 sentence 的表示,來提高判斷準確度。另外,也要用 AMR 進行事件本體結構構件,并達到基于事件元素角色、基于事件上下文的自動語義標注。這種方式的好處在于相對需要人力較少,并且可以做開放域文本的抽取,但準確率自然不算高。

?Hybrid event extraction approaches,簡言之,就是在做 event detection 的過程使用 pattern based 方法,在做 event typing 的時候要使用 machine learning 的一些方法提高模型的泛化能力,從而在減少人力的情況下盡量做到精準。基本現在近年的工作都是以這種方法作為基礎的思想,并且在事件表示,事件學習結構上下足功夫來對事件抽取的各個具體難題進行一一解決。

??其他方法,此處不詳細介紹


接下來,結合幾篇具體比較經典的事件抽取工作介紹一下一些基本的事件抽取的想法。



Dynamic Multi-Pooling Convolutional Neural Networks


Paper 原文:[Y Chen, 2015] Event Extraction via DynamicMulti-Pooling Convolutional Neural Networks ;這一節內容圖片均來自此文


在事件抽取的工作中,兩種特征是十分重要的:

  • lexical-level (詞匯級別特征): prior knowledge (先驗知識)

  • Sentence-level (句子級別特征) :從語法特征方面來幫助更好理解 events 和arguments


詞匯級別的特征可以用一個例子來進行詳細的說明,如下面的例子:





這兩個 beat 在兩句不同的句子中,我們人是可以識別前者是在講競選總統時候 Obama 打敗了 McCain,因此這里的觸發詞 beats 應該對應到的事件類型是?Elect?而后者說 Tyson 這個拳擊手打敗了對手,因此這個 beats 應該對應的是?Attack?事件類型。人們之所以知道這樣分類是因為有 prior knowledge 即先驗知識來支撐這樣的分類,即我們知道Obama 和 McCain 是兩個總統候選者,因此不太可能真的是 Attack 行為(一般來說),而因為 Tyson 是一個拳擊手,所以他的 beat 是實打實的 Attack 行為。原文作者將這樣的類似于 prior 的特征成為 lexical-level 的特征。這里我個人認為可以借助知識庫(knowledge base,如中文的我們實驗室的 CN-DBPedia 和 CN-Probase,借助 entity linking 工具),將具體的實體識別出來,獲取這些實體豐富的屬性和概念信息,從而可以獲取更多的先驗知識來進行更精準的實體 typing 。

?????? Sentence-level 的特征主要就是考慮語法特征進去,比較普遍的方法就是用 AMR 工具來對事件表達進行 argument candidate 的識別和事件結構化,即找到每個 argument 和trigger 在語法層面的聯系,比如 time,arg0,arg1,place.etc,如下圖。




原文作者提出,這種傳統的方法在提取這些特征時候嚴重依賴于已有的工具,但已有的工具的準確程度不能保證,容易導致 error propagation 。因此, sentence-level 和lexical-level 的特征應該使用更好的方式來進行學習和表示。對此,作者提出 Dynamic multi-pooling convolutional neural network 。

已有方法去用 CNN 來對句子進行處理并提取特征,傳統的CNN使用一個 max-pooling層來對卷積后的結果來做降維和保留顯著特征。池化層(Pooling layer)作用即為此,很多先前工作證明,Max-Pooling 能減少模型參數數量,有利于減少模型過擬合問題,因此在很多 CNN 結構中 Max-Pooling 是很自然的選擇。放在句子中的物理含義就是對一個句子的表示做 max 操作,從而找出整個句子最有用的信息。但這樣的操作可能會對句子產生信息丟失的錯誤,如上圖的例子,一個攝像師因為美軍坦克向一個酒店開火而死亡,使用傳統的 CNN 的 Max-Pooling 方式最終會獲取的關鍵信息就是 a man die,這樣就會忽略一些重要事實——這個句子還有一個坦克向酒店開火的事件,并且兩個事件是包含因果關系的,同時更重要的是,camera man 這個 argument 作為 die 的發起者,同時又是隱含的坦克 fire 事件的受體(雖沒有明顯指出,但是可以推出來),這些信息都是對 argument role 判定十分重要的。以這個典型的例子原文作者要說明這種用 max-pooling 的方法并不使用于事件抽取任務中。同時,為了使讀者相信這種情況不是個例,原文作者使用列數據的方式來直觀說明他們研究的必要性和重要性:



作者對問題的統計工作,可見這種問題在數據集的比例很高,直接說明了問題有研究必要


下圖為該工作主要模型:



(Architecture. 該圖以argument classification的工作過程作為示例)


該工作包含 event trigger identification 和 classification,以及 argument identification 和 argument role classification 的工作,相對比起來 trigger identification and classification要相對簡單點,所以就以比較復雜的 argument role identification and classification 作為介紹的重點。

模型的任務是在 trigger identification and classification 做完之后,確定每個句子中的argument 是哪個并且應該是哪種 argument role,每次對句子中除了 trigger 的每個詞當做argument candidate,然后進行該 candidate 的分類工作。因此抽象成的就是 word 分類任務,輸入是一個句子,以及句子的 trigger(已知,在句子上標注好)和 trigger 的 type (這里講 trigger 是單個 trigger,多個的話分別去做)。模型從左至右依次介紹:

  • Embedding learning:word embeddings,這個不需要太多介紹,skip-gram 做word2vec。Word-level 的特征就主要用 word embedding 獲取,這里如果要引入知識庫的知識作為先驗知識則需要知識庫的 embedding,或者對知識庫進行知識的表示建模。

  • Lexical Level Feature Representation:即單詞 embeddings 的拼接成向量形式

  • Sentence Level Feature Input:

1)CWF:Context-word feature,上下文特征,這里上下文指的是 argument candidate 上下文,比如圖上藍色部分,即把 cameraman 作為 argument candidate 作為研究,則句子其他部分是上下文。

2)PF:Position feature,當前詞和需要進行預測類型的 trigger candidate 或者argument candidate 的相對距離,以 cameraman 為例,則a:-1,cameraman:0,died:1,when:2,an:3, …考慮到上下文位置關系。

3)EF: event-type feature,事件類型特征是對于判定 argument candidate 的類別是十分重要的特征。


  • DCNN:

1)Convolutional layer:對上述的三個 feature 拼接成的矩陣進行卷積操作,這里簡單解釋一下對句子的卷積操作:在文本中,一句話所構成的詞向量作為輸入。每一行代表一個詞的詞向量(這里就是CWF+PF+EF),所以在處理文本時,卷積核通常覆蓋上下幾行的詞,所以此時卷積核的寬度與輸入的寬度相同,通過這樣的方式,我們就能夠捕捉到多個連續詞之間的特征,并且能夠在同一類特征計算時中共享權重。 CNN 的作用這里就是捕捉句子的組成結構的語義特征并且把這些語義信息壓縮要 feature map 中,使用 Multi-filters,在句子處理時候會自動學習有多少個 filters 來學習盡可能多的語義,比如一個 filter學 compositional feature,一個學習詞依賴,一個學習構詞法等,最終產生多個 feature maps。如果有 m 個 filters,每個 filter 窗口大小為 h,則



2)Dynamic Multi-Pooling:如圖,假設有三個 feature map,傳統的 max pooling 直接對每個 feature map 做一個 max 操作來提取最有用的信息,這里用的 dynamic pooling 就是將每個 feature map 根據 argument candidate 和 trigger 來進行分割操作,即把每個feature map 都根據 trigger 和 argument 來切成三塊,計算的 max value 不是整個 feature map 的 value,而是這三塊分別的 max value。因此,可以看到每個 feature map 經過dynamic pooling 的結果是三個部分的 max 值:max(c_11), max(c_12), max(c_13)。到這里核心部分完成。

  • Output:將上面所講的每個 feature map 的 dynamic pooling 的結果拼接,并加上lexical level feature representation 壓縮后的結果作為最終的 feature representation,然后過一個全連接層做分類,分類的結果包括各個 argument role 和 None role。




整個模型的主要過程就如上所示,這個講的是 argument role 的分類方式。Trigger 分類也用同樣的模型架構,但是輸入少了EF,dynamic pooling 分割時候也只根據當前 trigger candidate 進行分割,其他的都一樣,這里不再贅述。看一下實驗結果:




可以看出來這種 DMCNN 模型在 trigger 和 argument role 分類任務上都表現很好,說明了這種模型的效果。


本篇論文總結:

?????? Dynamic multi-pooling?在這里用的十分契合實際的場景,可以有效解決?argument candidate?可能作為多個?trigger?的?argument?但是扮演不同?role?的問題,并且對特征輸入做的十分清晰,輸入特征比較完整。在中文場景中由于中文的特殊性參考?nugget event trigger identification?那篇文章則應該把?char feature 考慮進去。這篇文章對事件抽取比較有啟發性。


下一節交叉講一下 pooling 選擇的策略,不要一味選擇 max pooling。



Pooling 選擇的策略


這里交叉介紹 pooling 選擇的策略:

?池化的應用:降維和保留顯著的特征

?Max pooling 是取整個 feature map 區域的最大值作為特征,即一個 max feature操作,在自然語言處理中常用于文本分類(text classification,觀察到的特征是一般都是句子的強特征,以便可以區分出是哪一個類別,減少噪音影響。

?Average-pooling?通常是用于句子主題模型(topic model,考慮到一個句子往往不止一個主題標簽,這時需要盡量多的句子上下文信息,如果是使用 Max-pooling 的話信息過少,所以使用 Average 的話可以廣泛反映這個 feature map 的特征

?K-max pooling:在一個 feature map 上返回K組最大值,即選擇 top k 的 feature 結果,不至于省略的太多,也不至于太平均,這種方式還保留了這k個特征的位置信息。

?Chunk-Max Pooling:類似于本文的 dynamic pooling,將 feature map 分為好幾個塊,具體怎么分塊完全看你關注句子的哪幾個部分,要定下哪幾個部分來進行split 。Chunk-max pooling 和 K-max pooling 的區別在于,后者是事先不對 feature map 進行分割,然后根據值選最大的幾塊并保留這些值的順序,前者是先選好切割成幾塊,然后對每塊選該塊中最大的值作為該塊的結果。這種策略不止在本任務中,在情感分析也有用。比如我在分析句子情感時候,可能比較關注但是(but)這個詞,我就可以根據 but 進行分割。原因就是比如一個評價說“某個商品很好,很漂亮,等等等等夸了一大堆, BUT 太貴了買不起”,其實是在含有負面情感在這邊,如果 max pooling 那肯定判定是位正面情感,但用這種 chunk-max pooling 方法就能有效甄別出這種情感轉折,特征的位置信息在這里就體現的尤為重要。



Event Argument 對事件抽取的促進


Paper原文:[Shulin Liu.etc,2017]? Exploiting Argument Information to Improve Event Detection viaSupervised Attention Mechanisms. 本節圖片均來自此論文

?

這篇文章進行一下簡單介紹,跟上面一篇文章是同一個研究組進行的,主要強調的是 eventargument 對于 event trigger detection 的重要性。以一個例子說明:




Fired 這個 event trigger 到底應該對應的是哪個事件類型?如果只用 surface text 的話無法判斷 Anwar 到底是什么,根據上下文可以得知 former protégé(role=Position)這個argument 角色,則可以輔助判斷這個 fired 應該是一個 end-position 的事件 trigger 類型。

?????? 這篇文章進一步說明 event trigger identification and classification (ED任務)和event argument identification and classification (AE任務)這兩個任務不應該獨立去研究,應該把兩個任務放在一起 joint 去研究。但 joint 的模型往往作為一個 multi-task 任務,loss 是聯合起來進行訓練的,語料中 argument 的數目較 trigger 要多得多,則模型偏向去提高 AE 任務。同時 joint 模型往往需要預 predict 一些 trigger candidate , 在預 predict 的過程也沒有考慮 Argument 的影響。這篇文章用 supervised attention 來進行借助 argument role 進行 ED 任務, argument word 將會比其他上下文 word 獲取更多 attention 。在訓練中 attention 值根據實體的類型、上下文等信息進行確定。結構如下所示:



本篇內容的工作突出點就是用了 context 中的實體的類型信息和 supervised attention機制,他們的 attention 機制也就是用標注的 argument 來使 argument 的部分享有更大的 attention 權重,方法比較簡單,有興趣可以原文仔細閱讀。



Imitation Learning 和 GAN 在事件抽取中的應用


Paper原文:[T Zhang, H Ji, etc.] Joint Entity and Event Extraction with Generative Adversarial Imitation Learning


本篇文章來自于 Prof. Ji Heng 的研究組,這篇文章站在更高的角度,將 IE 任務中的兩種 entity extraction 和 event extraction 結合起來,提出一種端到端的基于模仿學習( imitation learning ) 的聯合實體和事件抽取模型,同時為抽取出的實體打上 argument role 的分類標簽。并且作者在訓練過程中使用了逆強化學習方法 ( inverse reinforcement learning ) 來提高模型的能力.

?

問題描述和舉例:

在兩個句子中,有著同一個觸發詞(mention 相同),并有著相似的事件描述和上下文,傳統的方法很難通過上下文詞匯和語法特征去正確判別這個觸發詞應該觸發哪個事件,屬于哪種類型。即模型對于這種要深層次分析語義從而進行觸發詞識別的能力不夠。? ? ? ? ? ? ? ??

舉例描述: Death 這個事件觸發詞可能觸發一個 Execute 事件或者一個 Die 事件。我們可以看到這兩句話可以認為有相似的 local information(word embeddings)和contextual features(兩件事都在描述一個犯罪事件)。因此,傳統的有監督學習的方法會去計算 death 這個詞在觸發詞類型上的概率分布,由于在標準數據集中 death 標注為 Die 類型的比 Execute 多,從而會錯誤標注成為 Die 類型事件。

之后,原文作者對這種錯誤的原因進行了精彩的分析,如果有興趣的讀者可以轉到原文去仔細閱讀 introduction 部分。這里總結分析問題如下:首先原文作者提出這種錯誤是由于缺乏對錯誤 label 的學習,傳統的多分類問題往往使用交叉熵(cross entropy)來仔細研究為什么學習器學的是對的,但對錯誤的 label 一視同仁,沒有對這些錯誤的label進行深入的分析。模型學習的是提取大量特征,搞各種奇技淫巧來學習怎么正確去標記句子,但有時候卻無法處理一些 ambiguous instances ,這種情況往往錯誤的特征在計算概率時候沒有被減少。因此,從錯誤 label 中去學習,獲取更多信息是提高模型 robust 的關鍵。

另外,原文引入 RL 也很巧妙,還原到人去學習怎么避免錯誤的場景,然后讓機器去模仿人的動作,原文如下:

?To simulate this behavior fortraining an automatic extractor, we could assign explicit scores on those challenging cases – or rewards in terms of Reinforcement Learning (henceforth,RL).


方法部分:

?????? 原文方法歸結為幾點:使用模仿學習的思想用 Q-Learning 來做序列標記任務,找出哪些 word 是 entity 哪些是 trigger 。之后用用 policy gradient 來做事件對應 argument role 的判定,同時值得注意的是在訓練過程中 extractor 的 reward 是由 GAN 來動態評估的。

這里簡要介紹下 IRL 的引入原因: 實際任務中設計 reward 很困難,從認了專家提供的ground-truth 去反推 reward 有利于該問題。于是,對于給定狀態空間 S,動作空間 A, 并且給定決策軌跡數據集 π,每個 π 由一個 s 和 a 的序列集合組成。


IRL 執行思想:

  • 欲使機器做出和 ground-truth 相同的行為,等價于在某個 reward 的環境里求解最優策略,該最優策略產生的軌跡與范例軌跡一致

  • 初始很難獲取所有 policy,可以從隨機策略開始,迭代求解更好的 reward 函數,基于? reward 獲取更好的 policy,最終求得最符合范例數據集的 reward 和 policy?





(RL的一些關鍵部分對應的信息抽取領域的內容)


下面是 QL 做 entity 和 trigger 識別的框架圖,這里進行簡要介紹,需要讀者有一定 RL背景知識。作者使用 Bi-LSTM 做 context embeddings ,然后輸入到 forward LSTM 和全連接層去產生預測結果到 Q-Table 里面。






q-table的生成公式為:


? ? ? ? ? ? ? ? ? ? ? ? ??

其中,f_sl 操作就是 forward lstm 和 fully connect layer,然后 s_1,…s_t-1 ,說的是句子中當前詞之前的所有詞標記的狀態, a 對應的是一系列的標記 action , theta 是參數集。 Q-table 主要獲取所有分類的得分, extractor 就從 table 中獲取 rank 得分最大的標記作為標記。這樣在每一步都會計算一個 extractor 的標記和 ground-truth 的標記的差別,以此來計算 reward。

當前打的標記也會用 Bellman Equation 來對 Q-table 中的值不斷地進行更新,更新的策略為:



?中間那個 max 前面的符號是用來控制當前狀態和下個狀態的影響的大小。


以 Die 那個例子來看下學習過程:



從 Q-table 可以看到,剛開始 die 的分高,等式 4 會懲罰 Q 值,后面之后如果extractor 產生了一個對的 label Execute , Q 值就會被升高,從而讓決策強化。

接下來是判斷 Argument role 的工作,由于是借鑒之前工作的,因此這里也簡單說一下,就是考慮了 candidate argument? 和 trigger 的上下文,得到 contextual embedding,同時也考慮了句子中各個實體的類型信息和 trigger 的類型信息,這種方式之前的 paper 也強調了,做法其實沒有太大本質差別。結構框架圖如下所示:




文章另一個重點是用 GAN 來進行 reward 評分,通過不斷對比 extractor 的標記結果和 ground truth 進行對抗。具體引入的原因是由于序列標注和角色標注都很復雜,所以reward 值應該是動態變化的

?舉個例子:作者認為 extractor 應該給那些把觸發詞標記成實體的情況比那些對觸發詞沒啥特殊標記的情況更低的分值,就是如果對這些情況都預先定義一個 reward 值的話有點 expensive 。所以用 IRL 來動態評估 reward

1)這里對 GAN 進行訓練的過程進行闡述: GAN 在訓練過程中擴大了正確和錯誤標記的 rewards 值的差距,即對學習正確的 label 的例子將會給更高 reward 分,學習錯誤的label 的例子將會適當給更低的 reward 分,這樣不斷擴大學習中正負標記的 margins。

2)在訓練的最后幾個 epoch ,就會獲取一個比較好的動態的 reward 值,這個 reward 值就可以反過來導向 extractor 去進行正確標記。


總的來說,這篇文章從寫法和思想上都是十分有啟發性的,鼓勵讀者在閱讀本次簡單的介紹之后去實際讀一下這篇文章,現在這篇文章掛在 Arxiv 上。


本篇部分介紹了事件抽取的基本步驟,和一些經典的事件抽取任務的方法,希望能對大家有所幫助。同時,我們這次的介紹將分上下兩部分,下部分將在之后的公眾號進行推文,主要介紹的是一篇 zero-shot 方法在 event extraction 的使用,以及整個事件推理的專題。近年來事件推理逐漸引起注意,包括事理圖譜構建、common sense level 的事件起因和反應的推理,事件因果關系推理,事件時序關系等等都將在下一次的推文中進行詳細介紹。


參考文獻:

1.?Huang L, Ji H,Cho K, et al. Zero-Shot Transfer Learning for Event Extraction[J]. arXiv preprint arXiv:1707.01066, 2017.


2.?Ahn D. The stages of event extraction[C]//Proceedings of the Workshop on Annotating and Reasoning about Time and Events. Association for Computational Linguistics,2006: 1-8.


3.?Hogenboom F,Frasincar F, Kaymak U, et al. An overview of event extraction from text[C]//Workshop on Detection, Representation, and Exploitation of Events in the Semantic Web (DeRiVE 2011) at Tenth International Semantic Web Conference(ISWC 2011). Koblenz, Germany: CEURWS. org, 2011, 779: 48-57.


4.?Zhang T, Ji H.Event Extraction with Generative Adversarial Imitation Learning[J]. arXiv preprint arXiv:1804.07881, 2018.


5.?Chen Y, Xu L,Liu K, et al. Event extraction via dynamic multi-pooling convolutional neural networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on NaturalLanguage Processing (Volume 1: Long Papers). 2015, 1: 167-176.


6.?Liu S, Chen Y,Liu K, et al. Exploiting argument information to improve event detection viasupervised attention mechanisms[C]//Proceedings of the 55th Annual Meeting ofthe Association for Computational Linguistics (Volume 1: Long Papers). 2017, 1:1789-1798.


7. Event extraction from text.Liu Kang, 2017


8.?Huang L, CassidyT, Feng X, et al. Liberal event extraction and event schema induction[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2016, 1: 258-268.


9.?Feng X, Qin B,Liu T. A language-independent neural network for event detection[J]. Science China Information Sciences, 2018, 61(9): 092106.


10.?Lin H, Lu Y, HanX, et al. Nugget Proposal Networks for Chinese Event Detection[J]. arXiv preprint arXiv:1805.00249, 2018.




OpenKG.CN


中文開放知識圖譜(簡稱OpenKG.CN)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。

點擊閱讀原文,進入 OpenKG 博客。

總結

以上是生活随笔為你收集整理的综述 | 事件抽取及推理 (上)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。