论文阅读【A multi-task attention tree neural net for stance classification and rumor veracity detection】
論文題目:《A multi-task attention tree neural net for stance classification and rumor veracity detection》
翻譯:一種用于立場分類和謠言準確性檢測的多任務注意力樹神經網絡
檢測方法:用公眾的立場判定帖子的真假。
創新:提出了一個謠言對話術
初始化解釋
1 謠言對話樹
謠言對話樹中包含的數據分為三部分
第一部分是用戶信息
第二部分是帖子的文本信息
第三部分是謠言對話樹節點之間的結構信息。結構信息可以進一步建模為全局結構特征和局部結構特征。局部結構特征旨在對節點與其鄰域或分支之間的結構信息進行建模,而全局結構特征則用于表示整個謠言對話樹中分支的結構關系
2 立場分類
“支持”、“否認”、“評論”和“質疑”
3 謠言真實性檢測
真實、虛假、未驗證
樹結構的探索
1 為什么要用樹結構
樹的結構模型更適合于根級識別。
2 樹結構的探索:
舊
①Spectal-GCN很難擴展到具有不同結構的會話樹,且專注于全局結構信息和圖分類任務,如謠言監測和謠言準確性檢測,但是很難實現到結點分類任務,比如立場分類。
②GTA關注的是每個分支的局部特征,而不是多個會話分支之間的全局結構特征
很少有GNN是專門為謠言對話設計的,提取他們的結構特征,并在單個機器學習框架聯合處理兩個任務(立場判定和謠言準確率計算)
新
最近提出了基于調整會話樹的神經網絡,LSTM樹和CRF樹,但是這些神經網絡在會話分支中近似地執行線性合并過程,而不是對多個會話分支之間的結構特征進行建模。
3 創新:樹和網絡
樹(貢獻點1)
作者提出的樹:從不規則的對話樹中構建完整的K-ary規則的謠言對話樹。(RC-Trees)
網絡(貢獻點2)
基于RC樹的多任務注意樹神經網絡。(MATNN)
立場判定思路
使用自注意力機制來提取其領域中每個節點的局部特征,并且對其進行立場分類。
謠言準確性計算思路
然后根據立場特征,設計樹卷積和樹池化運算,提取全局結構特征,檢測謠言的準確性。
自注意力機制及樹自注意的發明
相似系數、自注意系數、自注意特征。
1 相似系數
指定節點領域中特征的相似性,例如余弦相似性 ( x , y ) = x ? y ∥ x ∥ ? ∥ y ∥ (x,y)=\frac{x*y}{\left \| x \right \|*\left \| y \right \|} (x,y)=∥x∥?∥y∥x?y?
2 自注意系數
s e l f _ a t t e n t i o n ( x , y ) = s o f t m a x ( s i m i l a r i t y ( x , y ) ) self \_ attention(x,y)=softmax(similarity(x,y)) self_attention(x,y)=softmax(similarity(x,y))
3 自注意特征
h x ( f e a t u r e ) = a c t i v e _ f u n c t i o n ( ∑ y ∈ n e i g h b o u r ( x ) s e l f _ a t t e n t i o n ( x , y ) ? f e a t u r e ) h_x(feature)=active\_function(\sum_{y \in neighbour(x)}self \_ attention(x,y)*feature) hx?(feature)=active_function(∑y∈neighbour(x)?self_attention(x,y)?feature)
4 樹自注意
自注意特征使用在具有規則線性結構或者網絡結構的數據上,但是謠言對話結構是不規則的。
所以我們設計了,樹自注意力,可以用于不規則的謠言對話樹。
RC-Trees謠言對話樹
用戶特征、帖子的文本信息和謠言對話樹的結構信息
紫色是局部結構信息,藍色是全局結構信息,紅色是用戶特征和文本信息。
構建
第一步,編號
層次遍歷,對會話樹的結點進行編號,不改變節點之間的結構關系
第二步,記錄
記錄所有會話樹中的最大深度H和節點的度K。
第三步,構建規則
根據H和K,設計規則,所有的對話都可以轉換為RC樹。
①如果節點i的子節點小于K,復制節點i到節點i的子節點,直到子節點的數量達到K
②將①擴展到每個節點,直到樹中每個分支的深度達到H。因此事件中的所有會話樹都可以轉換為H深K元的RC樹。
構建出現的新問題以及解決辦法
節點的復制雖然不會加劇立場標簽的不平衡,但是會改變原始立場標簽的數量和比例。
解決辦法
記錄RC-Trees的節點和原始會話樹節點之間對應關系序列,用于將RC-Trees的標簽轉換為原始會話樹,以檢測原始會話的位置。
MATNN
網絡組成
MATNN包含兩個子神經網絡:
一個用于立場分類的樹自注意子網絡
一個用于謠言準確性檢測的樹卷積子網絡;
樹自注意立場分類
RC-trees包含節點屬性F和其鄰接矩陣A。
f = { f 1 , f 2 , ? , f N } f=\left \{f_1,f_2,\cdots,f_N \right \} f={f1?,f2?,?,fN?}
f i f_i fi?由節點i的用戶特征和文本特征組成。
N是RC-Trees中的節點數 N = ( K H ? 1 ) / 2 N=(K^H-1)/2 N=(KH?1)/2
構建的H深K元RC-Trees的鄰接矩陣是相同的,但是原始會話樹的相應鄰接矩陣是不同的。
相似系數
S i m i l a r i t y i j = N e u r a l V ( W f i , W f j ) = N e u r a l V ( c o n c a t ( W f i , W f j ) ) Similarity_{ij}=Neural_V(Wf_i,Wf_j)\\ =Neural_V(concat(Wf_i,Wf_j)) Similarityij?=NeuralV?(Wfi?,Wfj?)=NeuralV?(concat(Wfi?,Wfj?))
W、V是可學習的參數
注意力系數
α i j = s o f t m a x ( S i m i l a r i t y i j ) = e x p ( S i m i l a r i t y i j ) ∑ k ∈ T r e e _ N e i g h b o u r _ i e x p ( S i m i l a r i t y i j ) \alpha_{ij}=softmax(Similarity_{ij})\\ =\frac{exp(Similarity_{ij})}{\sum_{k\in Tree\_Neighbour \_i}exp(Similarity_{ij})} αij?=softmax(Similarityij?)=∑k∈Tree_Neighbour_i?exp(Similarityij?)exp(Similarityij?)?
T r e e _ N e i g h b o u r _ i Tree\_Neighbour \_i Tree_Neighbour_i是節點i的領域
節點i的注意力特征 f i f_i fi?
h i = s i g m o i d ( ∑ j ∈ T r e e _ N e i g h b o u r _ i α i j W ′ f j ) h_i=sigmoid(\sum_{j \in Tree\_Neighbour \_i} \alpha_{ij}W'f_j) hi?=sigmoid(∑j∈Tree_Neighbour_i?αij?W′fj?)
W ′ W' W′是特征提取中的學習權重。
因為考慮到節點復制機制的影響,引入多頭注意力機制來平衡節點效果
h i = s i g m o i d ( 1 K ∑ k = 1 K ∑ j ∈ T r e e _ N e i g h b o u r _ i α i j k W ′ k f j ) h_i=sigmoid(\frac{1}{K}\sum_{k=1}^K \sum_{j \in Tree\_Neighbour \_i}\alpha_{ij}^kW'^kf_j) hi?=sigmoid(K1?∑k=1K?∑j∈Tree_Neighbour_i?αijk?W′kfj?)
K是多頭注意力機制中的頭的數量, W ′ k W'^k W′k是第k個頭的權重
用于謠言準確性檢測的樹卷積神經網絡
包括樹卷積和樹池化
樹卷積
由樹卷積核定義,并且使用K+1個可訓練的參數化向量遍歷RC樹中的每個K-ray
遍歷過程類似于遍歷圖像的傳統卷積核
給定根節點i的H深的K元立場特征,隱藏層表示 X p , q l , t X_{p,q}^{l,t} Xp,ql,t?,通道t和層 l l l
X p , q l , t = R e L U ( ∑ r = 1 f t ? 1 ∑ a = 1 N t ? 1 W l , r ? X p , q l ? 1 , a + b p , q l , t ) X_{p,q}^{l,t}=ReLU(\sum_{r=1}^{f_{t-1}} \sum_{a=1}^{N_{t-1}}W^{l,r}*X_{p,q}^{l-1,a}+b_{p,q}^{l,t}) Xp,ql,t?=ReLU(∑r=1ft?1??∑a=1Nt?1??Wl,r?Xp,ql?1,a?+bp,ql,t?)
p 是深度
q 是第q顆樹
結點 ( p , q ) (p,q) (p,q) 指的是p深的第q顆樹
f t ? 1 f_{t-1} ft?1? 指的是 l ? 1 l-1 l?1層的特征數量
ReLU 激活函數
X p , q l , t X_{p,q}^{l,t} Xp,ql,t? 指定是 l l l層的節點 ( p , q ) (p,q) (p,q)的第t個特征
W l , r W^{l,r} Wl,r是在 l l l層,從第r個通道到第t個通道的可學習的濾波器
b p , q l , t b_{p,q}^{l,t} bp,ql,t?是偏置
樹池化
目的:實現多尺度變換,有效的根和節點被保留下來,重新組合成一個更小的RC-Tree
樹池化操作:
X p , q l = max ? n ∈ N s u b { X p , q l ? 1 } X_{p,q}^l=\max_{n \in N_{sub}} \left \{ X_{p,q}^{l-1}\right\} Xp,ql?=maxn∈Nsub??{Xp,ql?1?}
p是深度
n是第n個節點
N s u b N_{sub} Nsub?是RC-Tree的子樹
論文評價: . .
總結
以上是生活随笔為你收集整理的论文阅读【A multi-task attention tree neural net for stance classification and rumor veracity detection】的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 计算机绘画社团活动教案,电脑绘画社团活动
- 下一篇: 如何在2022年建立自己的NFT市场平台