日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

论文浅尝 | Leveraging Knowledge Bases in LSTMs

發(fā)布時(shí)間:2024/7/5 编程问答 16 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文浅尝 | Leveraging Knowledge Bases in LSTMs 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.


Yang, B., Mitchell, T., 2017. Leveraging Knowledge Bases in LSTMs for Improving Machine Reading. Association for Computational Linguistics, pp. 1436–1446.

鏈接:http://www.aclweb.org/anthology/P/P17/P17-1132.pdf


?

這篇論文是今年發(fā)表在 ACL 的一篇文章,來(lái)自 CMU 的工作,提出通過(guò)更好地利用外部知識(shí)庫(kù)的方法解決機(jī)器閱讀問(wèn)題。由于傳統(tǒng)方法中用離散特征表示知識(shí)庫(kù)的知識(shí)存在了特征生成效果差而且特征工程偏特定任務(wù)的缺點(diǎn),本文選擇用連續(xù)向量表示方法來(lái)表示知識(shí)庫(kù)。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)端到端模型使得大部分背景知識(shí)被忽略,論文基于 BiLSTM 網(wǎng)絡(luò)提出擴(kuò)展網(wǎng)絡(luò) KBLSTM,結(jié)合 attention 機(jī)制在做任務(wù)時(shí)有效地融合知識(shí)庫(kù)中的知識(shí)。


論文以回答要不要加入 background knowledge,以及加入哪一些信息兩部分內(nèi)容為導(dǎo)向,并借助以下兩個(gè)例子說(shuō)明兩部分內(nèi)容的重要性。“Maigretleft viewers in tears.”利用背景知識(shí)和上下文我們可以知道Maigret指一個(gè)電視節(jié)目,“Santiago is charged withmurder.”如果過(guò)分依賴(lài)知識(shí)庫(kù)就會(huì)錯(cuò)誤地把它看成一個(gè)城市,所以根據(jù)上下文判斷知識(shí)庫(kù)哪些知識(shí)是相關(guān)的也很重要。



KBLSTMKnowledge-aware Bidirectional LSTMs)有三個(gè)要點(diǎn):


1)檢索和當(dāng)前詞相關(guān)的概念集合Vx_t

2attention 動(dòng)態(tài)建模語(yǔ)義相關(guān)性

3sentinel vector S_t 決定要不要加入 background knowledge


主要流程分兩條線:

1)當(dāng)考慮背景知識(shí)的時(shí)候就把 knowledge module 考慮進(jìn)去

2)如果找不到和當(dāng)前詞相關(guān)的概念則設(shè)置 m_t 0,直接把 LSTM hidden state vector 作為最后的輸出。

后者簡(jiǎn)單直接,這里說(shuō)明前者的結(jié)構(gòu)。knowledge module 模塊把 S_th_tV(x_t) 作為輸入,得到每個(gè)候選知識(shí)庫(kù)概念相對(duì)于 h_t 的權(quán)重 α_t,由 S_th_t 得到 β_t 作為 S_t 的權(quán)重,最后加權(quán)求和得到 m_t h_t 共同作為輸入求最后輸出,這里通過(guò)找相關(guān)概念和相關(guān)權(quán)重決定加入知識(shí)庫(kù)的哪些知識(shí)。


論文用 WordNet NELL 知識(shí)庫(kù),在 ACE2005 OntoNotes 數(shù)據(jù)集上做了實(shí)體抽取和事件抽取任務(wù)。兩者的效果相對(duì)于以前的模型都有提升,且同時(shí)使用兩個(gè)知識(shí)庫(kù)比任選其一的效果要好。


筆記整理: 李娟,浙江大學(xué)在讀博士,研究方向?yàn)橹R(shí)圖譜,常識(shí)推理,知識(shí)庫(kù)分布式表示和學(xué)習(xí)。



OpenKG.CN


中文開(kāi)放知識(shí)圖譜(簡(jiǎn)稱(chēng)OpenKG.CN)旨在促進(jìn)中文知識(shí)圖譜數(shù)據(jù)的開(kāi)放與互聯(lián),促進(jìn)知識(shí)圖譜和語(yǔ)義技術(shù)的普及和廣泛應(yīng)用。

轉(zhuǎn)載須知:轉(zhuǎn)載需注明來(lái)源“OpenKG.CN”、作者及原文鏈接。如需修改標(biāo)題,請(qǐng)注明原標(biāo)題。

點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 博客。

總結(jié)

以上是生活随笔為你收集整理的论文浅尝 | Leveraging Knowledge Bases in LSTMs的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。