日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文阅读【A multi-task attention tree neural net for stance classification and rumor veracity detection】

發布時間:2024/1/8 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文阅读【A multi-task attention tree neural net for stance classification and rumor veracity detection】 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

論文題目:《A multi-task attention tree neural net for stance classification and rumor veracity detection》
翻譯:一種用于立場分類和謠言準確性檢測的多任務注意力樹神經網絡

檢測方法:用公眾的立場判定帖子的真假。
創新:提出了一個謠言對話術

初始化解釋

1 謠言對話樹

謠言對話樹中包含的數據分為三部分
第一部分是用戶信息
第二部分是帖子的文本信息
第三部分是謠言對話樹節點之間的結構信息。結構信息可以進一步建模為全局結構特征和局部結構特征。局部結構特征旨在對節點與其鄰域或分支之間的結構信息進行建模,而全局結構特征則用于表示整個謠言對話樹中分支的結構關系

2 立場分類

“支持”、“否認”、“評論”和“質疑”

3 謠言真實性檢測

真實、虛假、未驗證

樹結構的探索

1 為什么要用樹結構

樹的結構模型更適合于根級識別。

2 樹結構的探索:


①Spectal-GCN很難擴展到具有不同結構的會話樹,且專注于全局結構信息和圖分類任務,如謠言監測和謠言準確性檢測,但是很難實現到結點分類任務,比如立場分類。
②GTA關注的是每個分支的局部特征,而不是多個會話分支之間的全局結構特征
很少有GNN是專門為謠言對話設計的,提取他們的結構特征,并在單個機器學習框架聯合處理兩個任務(立場判定和謠言準確率計算)

最近提出了基于調整會話樹的神經網絡,LSTM樹和CRF樹,但是這些神經網絡在會話分支中近似地執行線性合并過程,而不是對多個會話分支之間的結構特征進行建模。

3 創新:樹和網絡

樹(貢獻點1)

作者提出的樹:從不規則的對話樹中構建完整的K-ary規則的謠言對話樹。(RC-Trees)

網絡(貢獻點2)

基于RC樹的多任務注意樹神經網絡。(MATNN)

立場判定思路

使用自注意力機制來提取其領域中每個節點的局部特征,并且對其進行立場分類。

謠言準確性計算思路

然后根據立場特征,設計樹卷積和樹池化運算,提取全局結構特征,檢測謠言的準確性。

自注意力機制及樹自注意的發明

相似系數、自注意系數、自注意特征。

1 相似系數

指定節點領域中特征的相似性,例如余弦相似性 ( x , y ) = x ? y ∥ x ∥ ? ∥ y ∥ (x,y)=\frac{x*y}{\left \| x \right \|*\left \| y \right \|} (x,y)=x?yx?y?

2 自注意系數

s e l f _ a t t e n t i o n ( x , y ) = s o f t m a x ( s i m i l a r i t y ( x , y ) ) self \_ attention(x,y)=softmax(similarity(x,y)) self_attention(x,y)=softmax(similarity(x,y))

3 自注意特征

h x ( f e a t u r e ) = a c t i v e _ f u n c t i o n ( ∑ y ∈ n e i g h b o u r ( x ) s e l f _ a t t e n t i o n ( x , y ) ? f e a t u r e ) h_x(feature)=active\_function(\sum_{y \in neighbour(x)}self \_ attention(x,y)*feature) hx?(feature)=active_function(yneighbour(x)?self_attention(x,y)?feature)

4 樹自注意

自注意特征使用在具有規則線性結構或者網絡結構的數據上,但是謠言對話結構是不規則的
所以我們設計了,樹自注意力,可以用于不規則的謠言對話樹。

RC-Trees謠言對話樹

用戶特征、帖子的文本信息和謠言對話樹的結構信息


紫色是局部結構信息,藍色是全局結構信息,紅色是用戶特征和文本信息。

構建

第一步,編號

層次遍歷,對會話樹的結點進行編號,不改變節點之間的結構關系

第二步,記錄

記錄所有會話樹中的最大深度H和節點的度K。

第三步,構建規則

根據H和K,設計規則,所有的對話都可以轉換為RC樹。
①如果節點i的子節點小于K,復制節點i到節點i的子節點,直到子節點的數量達到K
②將①擴展到每個節點,直到樹中每個分支的深度達到H。因此事件中的所有會話樹都可以轉換為H深K元的RC樹。

構建出現的新問題以及解決辦法

節點的復制雖然不會加劇立場標簽的不平衡,但是會改變原始立場標簽的數量和比例。

解決辦法
記錄RC-Trees的節點和原始會話樹節點之間對應關系序列,用于將RC-Trees的標簽轉換為原始會話樹,以檢測原始會話的位置。

MATNN

網絡組成

MATNN包含兩個子神經網絡:
一個用于立場分類的樹自注意子網絡
一個用于謠言準確性檢測的樹卷積子網絡;

樹自注意立場分類

RC-trees包含節點屬性F和其鄰接矩陣A。
f = { f 1 , f 2 , ? , f N } f=\left \{f_1,f_2,\cdots,f_N \right \} f={f1?,f2?,?,fN?}
f i f_i fi?由節點i的用戶特征和文本特征組成。
N是RC-Trees中的節點數 N = ( K H ? 1 ) / 2 N=(K^H-1)/2 N=(KH?1)/2

構建的H深K元RC-Trees的鄰接矩陣是相同的,但是原始會話樹的相應鄰接矩陣是不同的。

相似系數
S i m i l a r i t y i j = N e u r a l V ( W f i , W f j ) = N e u r a l V ( c o n c a t ( W f i , W f j ) ) Similarity_{ij}=Neural_V(Wf_i,Wf_j)\\ =Neural_V(concat(Wf_i,Wf_j)) Similarityij?=NeuralV?(Wfi?,Wfj?)=NeuralV?(concat(Wfi?,Wfj?))
W、V是可學習的參數

注意力系數
α i j = s o f t m a x ( S i m i l a r i t y i j ) = e x p ( S i m i l a r i t y i j ) ∑ k ∈ T r e e _ N e i g h b o u r _ i e x p ( S i m i l a r i t y i j ) \alpha_{ij}=softmax(Similarity_{ij})\\ =\frac{exp(Similarity_{ij})}{\sum_{k\in Tree\_Neighbour \_i}exp(Similarity_{ij})} αij?=softmax(Similarityij?)=kTree_Neighbour_i?exp(Similarityij?)exp(Similarityij?)?
T r e e _ N e i g h b o u r _ i Tree\_Neighbour \_i Tree_Neighbour_i是節點i的領域

節點i的注意力特征 f i f_i fi?
h i = s i g m o i d ( ∑ j ∈ T r e e _ N e i g h b o u r _ i α i j W ′ f j ) h_i=sigmoid(\sum_{j \in Tree\_Neighbour \_i} \alpha_{ij}W'f_j) hi?=sigmoid(jTree_Neighbour_i?αij?Wfj?)
W ′ W' W是特征提取中的學習權重。

因為考慮到節點復制機制的影響,引入多頭注意力機制來平衡節點效果
h i = s i g m o i d ( 1 K ∑ k = 1 K ∑ j ∈ T r e e _ N e i g h b o u r _ i α i j k W ′ k f j ) h_i=sigmoid(\frac{1}{K}\sum_{k=1}^K \sum_{j \in Tree\_Neighbour \_i}\alpha_{ij}^kW'^kf_j) hi?=sigmoid(K1?k=1K?jTree_Neighbour_i?αijk?Wkfj?)
K是多頭注意力機制中的頭的數量, W ′ k W'^k Wk是第k個頭的權重

用于謠言準確性檢測的樹卷積神經網絡

包括樹卷積和樹池化

樹卷積

由樹卷積核定義,并且使用K+1個可訓練的參數化向量遍歷RC樹中的每個K-ray
遍歷過程類似于遍歷圖像的傳統卷積核

給定根節點i的H深的K元立場特征,隱藏層表示 X p , q l , t X_{p,q}^{l,t} Xp,ql,t?,通道t和層 l l l
X p , q l , t = R e L U ( ∑ r = 1 f t ? 1 ∑ a = 1 N t ? 1 W l , r ? X p , q l ? 1 , a + b p , q l , t ) X_{p,q}^{l,t}=ReLU(\sum_{r=1}^{f_{t-1}} \sum_{a=1}^{N_{t-1}}W^{l,r}*X_{p,q}^{l-1,a}+b_{p,q}^{l,t}) Xp,ql,t?=ReLU(r=1ft?1??a=1Nt?1??Wl,r?Xp,ql?1,a?+bp,ql,t?)

p 是深度
q 是第q顆樹
結點 ( p , q ) (p,q) (p,q) 指的是p深的第q顆樹
f t ? 1 f_{t-1} ft?1? 指的是 l ? 1 l-1 l?1層的特征數量
ReLU 激活函數
X p , q l , t X_{p,q}^{l,t} Xp,ql,t? 指定是 l l l層的節點 ( p , q ) (p,q) (p,q)的第t個特征
W l , r W^{l,r} Wl,r是在 l l l層,從第r個通道到第t個通道的可學習的濾波器
b p , q l , t b_{p,q}^{l,t} bp,ql,t?是偏置

樹池化

目的:實現多尺度變換,有效的根和節點被保留下來,重新組合成一個更小的RC-Tree

樹池化操作:
X p , q l = max ? n ∈ N s u b { X p , q l ? 1 } X_{p,q}^l=\max_{n \in N_{sub}} \left \{ X_{p,q}^{l-1}\right\} Xp,ql?=maxnNsub??{Xp,ql?1?}
p是深度
n是第n個節點
N s u b N_{sub} Nsub?是RC-Tree的子樹

論文評價: . .

總結

以上是生活随笔為你收集整理的论文阅读【A multi-task attention tree neural net for stance classification and rumor veracity detection】的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。